PGR21.com
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
Date 2025/03/04 02:31:50
Name 번개맞은씨앗
Subject [일반] AI의 팩트체크
어떤 사람들은 AI의 발전에 대해 우려를 하면서, 가짜뉴스가 늘어날 거라 이야기합니다. 지금도 문제인데, 앞으로 더 문제가 될 거라 합니다. 그건 어느 정도 사실일 것입니다. 가짜사진도 만들고, 가짜영상도 만들 수 있을 것입니다. 아직 좀 어설프긴 하지만, 지금도 만들어지고 있죠. AI가 모창으로 노래도 부릅니다.

그런데 저는 이렇게 봅니다. AI로 가짜를 만들지만, 또한 가짜를 잡아낼 것입니다. AI로 인해 쓰레기가 늘어나지만, AI로 쓰레기를 치울 것입니다. AI로 인해 사기꾼이 늘어나지만, AI로 인해 경찰도 늘어날 것입니다. 그러므로 그 종합으로 어떻게 될지를 봐야 합니다.

가짜뉴스를 잡아내려면, 노동력이 필요합니다. AI가 그 노동 대신해줄 수 있습니다. AI가 단독으로 잡아낼 수도 있고, 인간과 협업으로 잡아낼 수도 있습니다. 아마 욕설과 비방 그리고 혐오표현도 상당히 잡아낼 수 있을 것입니다. AI에게 발각되면, 댓글을 접어버린다든지, 벌점을 먹인다든지, 빨간표시를 할 수 있을 것입니다. 네이버가 이미 하고 있는 걸로 압니다. 점점 더 잘하게 될 것입니다. 가짜뉴스에 집중해서 계속 이야기해보겠습니다.

가짜뉴스는 2종류가 있습니다. 현재 있는 가짜뉴스 A입니다. 앞으로 AI가 만들게 될 가짜뉴스 B입니다. 제 생각에는 이렇습니다.

가짜뉴스 A를 더 잘 잡아낼 가능성이 큰 거라 봅니다. 인간이 만들어낸 현존 가짜뉴스를 더 잡아내기 쉬울 거란 거죠. 사람들이 가짜뉴스 잡으려면 시간이 들어가고 체력이 들어가니, 잡아내지 못하고 방치하고, 그러니 어설픈데도 불구하고 가짜뉴스 만들어내는 경우가 많다고 봅니다. 상당수의 가짜뉴스는 그리 치밀하지 않을 거란 거죠.

그런데 AI 성능이 좋아지면, 그거 쉽게 알아차릴 것입니다. 심지어 이런 것도 잡아낼 수 있을 것입니다. 뉴스 자체가 가짜는 아닙니다. 통계 자료가 들어있는 뉴스라 해봅시다. 그런데 사람들이 그 뉴스에 대한 해석을 하고 반응을 하는 겁니다. 그 해석이 엉터리입니다. 오독해놓고 난리를 칩니다. 그것이 엉터리라는 걸 AI가 잡아낼 수 있을 것입니다.

AI가 접근할 수 있는 자료에는 한계가 있으니, 가짜뉴스를 잡아내는데도 한계는 있을 것입니다. 하지만 그 한계도 점점 극복되어 갈 가능성이 있는 거라 봅니다. 이를테면 공공기관에서 사실확인을 해주는 인공지능이 있는 겁니다. 그러면 AI가 그 인공지능과 대화를 하더니 팩트체크를 할 수 있겠지요.

팩트체크에 걸리는 시간이 빨라져서, 대통령 선거 토론회하고 있는데 바로바로 펙트체크가 이뤄져서 거짓말인게 들통날 수도 있을 것입니다.

아무튼 중요한 건, 인간이 만들어낸 가짜뉴스 중 상당수는 AI가 잘 잡아낼 거란 것입니다. 가짜뉴스뿐만 아니라, 엉터리 해석도 마찬가지입니다.

그런데 이걸로 얘기가 끝이 아닙니다. 이제부터 이상한 얘기를 해보겠습니다. 제가 볼 때에는 이렇습니다.

지금까지 나온, 논문과 서적이 있습니다. 그것들이 AI에게 공격받을 가능성이 있는 거라 봅니다. 공격이라 하면, 반박을 가리키는 것입니다. 잘못된 사실, 잘못된 논리를 찾아낼 거란 거죠. 그것도 별 어려움 없이 해낼 수 있을 것입니다. 이제까지 잘못된 게 있어도, 그걸 지적하려면 상당한 시간과 공이 들어가고, 어쩌면 감정적 문제도 있어서 하기 곤란했는데, AI는 쉽게 해버릴 수 있을 것입니다.

저는 이렇게 봅니다. 세상에는 헛소리하는 논문, 헛소리하는 서적이 많다고 봅니다. 만약 사람들이 AI에 대한 신뢰를 높여간다면, 그 학자들, 그 저자들은 난처한 상황에 처하게 될 것입니다. 가짜뉴스를 많이 잡아내다보면, 신뢰가 높아질 개연성은 큰 거라 봅니다. 소위 지식인이란 사람들의 가짜뉴스를 손쉽게 잡아내면, 이거 골탕먹이는 재미가 솔솔하다면서, 인기가 높아질 수도 있을 것입니다. 그 학자들, 그 저자들은 AI가 엉터리라면서 쉽게 내치기 어려울 것입니다. AI의 주장과 근거에 일일이 반박을 해야 할 것입니다. 학자와 저자뿐만 아니라, 당연히 기자도 마찬가지일 것입니다.

이걸로 끝이 아닙니다. 이상한 얘기를 계속해보겠습니다. 법원에는 판결문이 있습니다. 그중에는 잘못된 판결도 있지 않을까요? 병원에는 진료기록이 있습니다. 그중에는 잘못된 판단이 있지 않을까요? 정부에는 공문서가 있습니다. 그중에는 잘못된 정보가 있지 않을까요? 혹은 어리석은 판단이 있지 않을까요?

학자, 저자, 기자, 관료, 판사, 검사, 의사, 기타 전문직.

이건 무얼 의미할까요?

지적 권위를 가진 엘리트를 가리킬 것입니다. 그들이 AI에 의해 '이거 가짜군요', '이거 어리석군요'라고 비판받을 수 있을 것입니다. 그럼 권위가 떨어지겠죠.

지금은 이렇게 되는데 있어, 그 문턱에 와있는거라 할 수 있을 것입니다.

AI 때문에 가짜뉴스가 늘어날 거라 우려를 하는데, 그보다 심각한 것은 기존의 가짜뉴스들을 잡아내는 것일 겁니다.

어찌보면, 어이가 없는 일이라 할 수 있는데, 수년에서 수십년간 전문성을 쌓아온 엘리트인데, 그가 평범한 일반인이 AI 도움을 받아 한 걸 가지고, 비판받을 수 있을 것입니다.

이게 큰 문제인지는 모르겠지만, 아무튼 제 생각에 이런 점도 있다고 봅니다. 시장에서 가격이란 수요 ・ 공급에 의해서만 결정되는게 아니라 봅니다. 그 사회 사람들이 '무엇을 당연하게 여기는지' 그것에 의해서도 가격이 결정된다고 봅니다. 그런데 그 당연함이란게, 일부분은 '권위'에 의해 결정되는 거라 봅니다.

즉 지적 권위가 떨어지면, 가격도 떨어지기 쉬울 것입니다. 전문 서비스의 가격이죠. 혹은 저자의 강의료죠.

아마 비판에 특화된 AI도 만들어질 수 있을 것입니다. 이른바 소크라테스의 대량생산입니다.

제 생각에 관료, 판사, 검사, 의사의 경우에는 그래도 꽤 정확하고, 비판할 게 별로 없을 수 있다고 봅니다. 그러나 학자, 저자, 기자는 그렇지 않을 수 있습니다.

특히 제 생각에 '사회학'은 비판받기에 좋은 학문이 아닐까 싶습니다. 물리학이나 생물학은 비판받을 것도 없거나 별로 없겠죠. 사회학은 팩트가 잘못되었거나, 혹은 논리가 잘못되었거나, 혹은 편견에 빠져있다거나, 혹은 편파적이라거나, 혹은 혐오적이라거나, 그런 걸로 공격받을 수 있을 것입니다.

일반 사람들은 학술서를 읽지 않고, 교과서만 배웠던 기억이 있어서, 그냥 다 맞는 얘기라 생각하는 경우가 많다고 봅니다. 그런데 학술서를 보면, 학자들끼리 다툼이 많습니다. 심지어 다른 학자가, 자신의 글을 오독했다고 말하기도 합니다. 그건 철학자들끼리도 그렇습니다. 그런데 동료학자에게 비판받는게 아니라, 일반인에게 그리고 AI에게 비판받게 될 수 있을 것입니다. AI가 이미 발전한 시점에서 글을 쓴다면, 그걸 참조해서 쓸 수도 있겠지만, 과거에 써놨던 글은 도로 물릴 수도 없고 난처해질 수도 있을 것입니다.

인터넷이 생겨나서, 대중이 파워가 세진 부분이 상당히 있다고 봅니다. 유튜브나 소셜넷이 생겨서도 그렇습니다. 그런데 AI까지 생기면, 더더욱 파워가 세질 가능성이 있는 거라 봅니다. 그리고 지적 엘리트 중에도 훌륭한 사람은 더욱 올라가고, 부실한 사람은 추락할 것입니다. 훌륭한 사람은 공격받으면 더욱 올라가는게 자연스러운 일이라 봅니다. AI가 감정싸움을 할 리도 없고, 공정하고 건전한 비판을 할 테니까요.

대통령 선거도 마찬가지죠. 팩트체크를 실시간으로 효과적으로 해낼 수 있다면, 부실한 후보는 추락하고, 훌륭한 후보가 올라갈 가능성이 커질 것입니다.

통합규정 1.3 이용안내 인용

"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.
법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
사이먼도미닉
25/03/04 02:43
수정 아이콘
저도 커뮤니티나 SNS에서 뭔가 미심쩍은 정보들은 AI한테 질문을 해보거든요. 말씀대로 그런 긍정적으로 사용될 가능성도 있어보여요.
25/03/04 03:40
수정 아이콘
오. ai팩트 체크 인증 마크 있으면 좋겠네요.
니가 말하는 그 유튜브 뉴스 ai인증 받은거야?
모링가
25/03/04 04:06
수정 아이콘
의사가 자율신경계 불균형에 백옥주사 추천하길래 ai한테 물어보고 안하기로 했습니다
전기쥐
25/03/04 08:00
수정 아이콘
[AI가 감정싸움을 할 리도 없고, 공정하고 건전한 비판을 할 테니까요.]

AI를 공정한 재판관처럼 여기는 것을 동의하기 힘드네요. 지금도 물어보면 종종 잘못된 답변을 맞다고 우기다가 제가 그거 틀렸다고 지적하면 그제서야 능청스럽게 틀렸다고 인정하면서 다시 수정하는 걸 보는데요.
Quantumwk
25/03/04 08:09
수정 아이콘
(수정됨) 상위모델에 질문만 잘하면 99.9프로의 인간보다는 공정하고 정확하다 봅니다.

인간은 본질적으로 편견,선입견 덩어리라.....
판사처럼 높은 지능+전문적으로 훈련받은 경우도 그러니깐요.

나름 공정하고 객관성이 담보된다는 이공계 학계에도 있어봤지만 이쪽도 논문 리뷰할때 저자가 이름고고 영어 네이티브 아닌거 같으면 문장 몇개만 읽다가 제대로 내용 보지도 않고 문법이 어쩌구 영어 문장이 어쩌구하면서 이트집 저 트집 잡아서 리젝 때리거나, abstract or 서론에서 심기건드는 내용 및 마음에 안드는거 하나 있으면(논문의 본질적인 내용과는 크게 관계없는) 이런 저런 트집 잡아서 리젝때리거나 이런경우가 비일비재합니다

그나마 시스템이 잘 되있어서 그래도 결과적으로는 어느정도 공정하게 돌아가지만...
전기쥐
25/03/04 08:14
수정 아이콘
챗지피티 최상위모델을 쓴적이 없어서 뭐라고 대답을 못하겠는데 99.9%까지는 아니라고 봅니다..
Quantumwk
25/03/04 08:27
수정 아이콘
(수정됨) 어떤 모델을 어떻게 쓰신지 모르겠는데 o1정도만해도 기존 지식에 대한건 상당히 정확한 편입니다. 오삼미하는 stem쪽 특화에 언어능력이 딸려서 일반적인 사회시사는 안 물어보는게 좋구요.

o1같은 pre-trained 추론모델에 '트럼프-젤렌스키 회담에 대해 논해봐'라고 물어보면 헛소리 하겠지만...

물론 사용자가 귀찮게 저런거 신경써야한다는거 자체를 뭐라할수는 있겠지만, 수학과 교수님한테 '트럼프-젤렌스키회담에 관한 내용을 왜 잘 모르고 틀리게 얘기하죠?'라고 할수 없는것처럼 현 인공지능도 목적에 따라서 모델을 바꿔가며 사용할 필요는 있음.

근데 머지않아 그냥 모델 하나에서 대부분 커버하는 걸 볼수 있긴 할겁니다. 그 전까지는 모델 특성에 따라 사용할수 밖에 없음.
이른취침
25/03/04 09:43
수정 아이콘
(수정됨) 99.99
전세계 인구 대충 70억 잡고
다방면으로 제대로 된 판단능력과 지식을 가진 사람이
70만을 넘을 리가 없다고 생각합니다.
전기쥐
25/03/04 10:10
수정 아이콘
전반적으로 다방면으로 말고요. 특정 질문 하나하나에 대해서요.
이른취침
25/03/04 15:31
수정 아이콘
그렇게 따져도 그 특정 분야 하나에 대한 지식을 줄세우면 현재 GPT는 꽤나 앞줄일 겁니다.
예를들어 의학 쪽으로 따졌을 때 내과 전문의 보다는 못하지만 의대생보단 나을테니까요.
그런데 내과 전문의가 전세계에 몇이나 되겠습니까? 최소 1% 안쪽이라 봅니다.
지금 수학 수능 킬러도 다 푸는데 수능에서도 0.1%안에 드는 수준이 아니겠습니까?
번개맞은씨앗
25/03/04 08:56
수정 아이콘
네. AI가 공정하다고 단언하는 건 부적절한 것 같네요. 현재로서 대체로 공정하게 답하지만, 꼭 그런 건 아니고, 무능력도 있으며, 앞으로 AI 기업이 정치집단의 압박을 받는다면 꽤 불공정해질 수도 있는 일 아닐까 싶습니다.
전기쥐
25/03/04 09:02
수정 아이콘
프롬프트를 어떻게 작성하느냐에 따라 영향을 크게 받는다고 봅니다. "공정성"이라는 건 허상이라고 봐요.
번개맞은씨앗
25/03/04 09:11
수정 아이콘
때로는 프롬프트까지도 공개할 필요가 있다고 봅니다. 프롬프트를 불공정하게 또는 부적절하게 적었을 개연성이 있는거라면요. 

그러나 아주 문제는 아닌 것이, 의심이 되면, 다른 사람들도 물어보면 될 것입니다. 
Quantumwk
25/03/04 11:36
수정 아이콘
'때로는 프롬프트까지도 공개할 필요가 있다고 봅니다. 프롬프트를 불공정하게 또는 부적절하게 적었을 개연성이 있는거라면요. ' -> 동의합니다
자유형다람쥐
25/03/04 08:06
수정 아이콘
먼 미래에는 변호사의 위치가 더 위협받을 것인지 생각해볼 수도 있겠네요.
모든 분야에서 AI로 오류를 찾아 공격할 수 있고, 반대측은 AI로 합당한 변호요소를 찾아 방어할 수 있고. 지금의 AI 신뢰도로는 불가능이지만, 어느새 사소한 궁금증은 AI에 물어볼 정도로 발전했으니까요.
김재규장군의결단
25/03/04 08:25
수정 아이콘
현실에서 가짜뉴스라고 공격하는 것 중에 진짜뉴스를 앞뒤 잘라서 가짜라고 호도하는 경우도 많죠. 챗gpt 플러스만 쓰는 입장이고 ai 분야에서 일하는게 아닌 입장입니다만 맥락을 다 설명해주지 않고 ‘편집’해서 일부만 설명할 경우 지피티가 스스로 앞뒤 맥락 고려해서 진실 가려내기는 못하는 것으로 보입니다.
번개맞은씨앗
25/03/04 09:08
수정 아이콘
관련하여 본문에도 조금 다루었지만, 어떤 정보를 제공하는지 어떤 정보에 접근할 수 있는지에 따라서 팩트체크에 한계가 있는게 맞다고 봅니다. 정보부족 문제도 있고 사용자가 편파적으로 AI에게 프롬프트를 입력하는 수도 있을 것입니다. 때로는 프롬프트까지도 함께 적는게 필요할 듯합니다. 
코로나시즌
25/03/04 08:57
수정 아이콘
(수정됨) 그 ai가 적용된 유튜브 생태계를 봅시다

[코알라류 민족 국가]에 우호적인 성향은 인공지능 봇 도래 이전에도 유명했지만. 작금에와선 거의 패시브입니다. 헐리우드에서 스폰서가 죄다 코알라류 민족이라 자체검열하는 판에. 지금 유튜브는 저거 언급하는 순간 수익창출 중단 노딱이 걸리고. 심지어 댓글 영상도 자동차단되거나 노출이 자체가 안됩니다. 진실이 무엇이건 상관없고. 의미없습니다. 플랫폼을 소유한 자본가의 의도대로 ai는 "판단"합니다.

이제 인공지능이 더더욱 정교해지면 그 코알라민족 정보부대가 가짜뉴스로 뿌린 [갓난아이 40명 참수]는 더이상 가짜사진이 아니라 리얼한 4k동영상으로 유튜브에 올라올겁니다. 이걸 가짜로 판단할 ai가 지구상에 존재할수있을까요? 자본가가 그걸 원하지 않는데? 지금도 백악관이 가짜뉴스라고 밝혔음에도 아직도 이걸 진짜라 믿고 낚인 사람이 절반이 넘고 전쟁명분이 되어 어린아이 수만명이 학살당한 트리거가 되었음에도. 여전히 그네들에겐 "진짜"입니다.

ai플랫폼을 소유한 자본가가 그리는 미래는 공정한 미래나 정의로운 미래따위가 아닙니다. 오히려 타입문 세계관에나 나올법한 [공상구현화]가 진정한 목표죠. 그 [테러리스트가 코알라류 민족 갓난아이 40명을 식인목적으로 잡아먹었다] 라는 개주작을 4k HDR로 틀어놓고 그걸 전쟁명분으로 200만명을 육고기로 도륙하는 미래말입니다.
번개맞은씨앗
25/03/04 09:04
수정 아이콘
AI에 다양성이 필요하다고 봅니다. 그리고 상호견제하게 하는 거죠. AI들을 경쟁시켜야지, 하나의 AI만 있으면 안 좋은 일이 벌어질 가능성이 큰 거라 봅니다. 
도롱롱롱롱롱이
25/03/04 09:43
수정 아이콘
AI가 뭔가 의도하는게 아니라 그냥 학습 정보량의 우의 쪽으로 편향되는거라 진실된 정보 보다 가짜가 더 많다면 제대로 된 의견을 내지 않을 것입니다. 공공기관에서 진짜 확정이라는 방식이 어떤식으로 동작하게 될지 모르겠지만, 현재처럼 LLM 모델이의 앞단에서 세이프 프롬프트 처럼 동작만 하는 거라면 그 한계가 명확하다고 생각해요.
번개맞은씨앗
25/03/04 10:00
수정 아이콘
중요한 포인트라 봅니다. 학습시킨 빅데이터가 무엇인지에따라 차이가 있겠죠. HFRL의 경우에는 직접 사람이 피드백을 주어서 강화학습하니, 이 역시 약점이 될 수 있겠고요. AI 기업의 소비자가 누구인지, 그리고 AI 기업에 어떤 정치적 압력이 있는지, 이런 걸 놓고 생각해볼 일이 아닐까 싶습니다. 기본적으로는 AI의 다양성과 AI들끼리의 경쟁이, 건강성을 유도할 가능성이 크다고 봅니다. 이것은 인간 사회에서 권력을 쪼개는게, 위험을 줄이고 건강해지는데 유리한 것과 마찬가지일 것입니다. 다양한 언론이 있고, 정치도 삼권분립에 둘 이상의 정당이 있고, 경제도 기업들을 경쟁시키고, 그럼으로써 사회가 타락하는 걸 막을 수 있듯, 마찬가지로 AI도 경쟁시키는게 필요한 거라 봅니다.
공포의 Reviewer 2
25/03/04 10:40
수정 아이콘
ai 학습때문이라도 더 많은 가짜뉴스 만들어내려고 하겠네요;; 특히 과거에 일어났던 일에 대해서는 더더욱 기록 조작내지는 왜곡이 많아질듯 합니다
탑클라우드
25/03/04 11:13
수정 아이콘
적극적인 활용처와 참고 정도의 활용처가 점차 자리잡지 않을까 생각합니다.

팩트가 명확한 영역(예를 들어 야구의 스트라이크존)에 대해서는 AI의 판단을 신뢰하고 적극적으로 활용하게 될 듯 하고,
개인 또는 집단 간 이해 관계가 복잡하게 얽힌 영역에서는 참고 정도로 활용하게 되리라 예상합니다...만,
AI는 지속적으로 발전하며... 결국 시빌라 시스템으로 발전을...
번개맞은씨앗
25/03/04 11:28
수정 아이콘
사람들간 다툼이 일어날 때, 그것이 쉽게 진정이 되지 않는 이유 중 하나는, 타인이 불공정한 편파적 발언을 하는 걸로 보기 때문이 아닐까 싶습니다. 어리석거나 악의를 가졌다고 여기기도 하는 듯합니다. 그리고 자존심 싸움이 되기도 합니다. 경험적으로 볼 때 제 생각에, AI는 이를 냉각시키는 효과가 있는 듯합니다. 결국 인간이 아니라, 기계이니까요. 반도체는 에어컨으로 냉각시키고, 인간은 반도체로 냉각시키는 셈인 거죠. 에어컨은 전기로 돌리고, 전기는 탄소에서 비롯되니, 결국 탄소로 인간을 냉각시킨 셈인 거죠.  
Quantum21
25/03/04 11:27
수정 아이콘
AI의 객관성이라건 이공계 몇몇분야를 제외하면 장미빛 허상에 가까울겁니다. 판단의 보조적인 도구로 쓰이지 ai 자체가 전가의 보도처럼 솔로몬 판결을 해주는 일은 생기지 않을것 같아요.

예를들어 편향된 사고를 하도록 학습된 ai도 앞으로 충분히 가능한 시나리오입니다. 그것에 대한 증명도 반증도 쉽지않은 문제이고요.
번개맞은씨앗
25/03/04 11:29
수정 아이콘
맞습니다. 보조적인 도구일 뿐이죠. 
번개맞은씨앗
25/03/04 11:36
수정 아이콘
마지막 말씀에는 추가로 생각해볼 포인트가 있는 듯합니다. 예전에 생각해봤던 건데, 존 스튜어트 밀의 <자유론>이란 책이 있습니다. 밀은 자유의 효용에 대해서 이야기하죠. 오래 전에 읽은 거라 기억이 정확하진 않지만, 이를테면 그 효용 중 하나는, 어떤 근본적인 이유가 있을 때 그것이 당연해지면 점점 그 이유를 사람들은 잊어먹게 된다는 것입니다. 그것에 대해서는 대화도 안 하고 생각도 안 하게 되는 거죠. 그런데 자유롭게 표현을 하고 그래서 토론이 이뤄지다보면, 그 근본에 대해서 다시 알게 된다는 건데요. 아마 실은 별 근본도 없는 건데, 당연하게 여긴 경우도 있을 것입니다.

그런데 이러한 효용에 있어서는 인간뿐만 아니라, AI도 마찬가지라는 생각을 해봤습니다. 밀이 <자유론>에서 공리주의자 관점에서 효용을 논할 때, 그 이유 중 상당부분은 AI도 다를게 없을 거란 거죠. 어떤 원리주의적인 권리에 따라 표현의 자유를 이야기하는 거라면야, AI에게 그런 건 전혀 없지만요.

증명도 반증도 쉽지 않은 주장이 나왔다. 그런데 그거 인간이 주장한 건지, AI가 주장한 건지 모르겠다. — 그렇더라도, 그것은 과학에 있어서 유용성을 가질 수 있을 것입니다. 과학자들은 그걸 하나의 가설로 여기고 탐구하고 연구할 수 있을 것입니다. 물론 세상에 가설이 너무 많다면, 그중에 가치있어 보이는 걸 일부 택해서 해야지, 아무거나 다 탐구할 수는 없는 일이지만요.
특별수사대
25/03/04 11:46
수정 아이콘
AI가 객관적일 방법은 없지요. 학습 자료가 주관적인데요.

전적으로 인풋에 의존하고 그 인풋이 주관적이고 편향적인데 결과물이 객관적이려면 프롬프트 없이 ai가 자율적으로 사고하는 시대가 도래해야 할 것인데 그게 가까운 시일 내에 가능할런지요?

최대한으로 봐도 "객관적으로 보이는" 수준이 한계가 아닌가 싶고, 그럴 경우 AI 특성상 사람들은 그 대답을 마치 기계적 객관성을 확보한 대답처럼 생각할 텐데 그러면 더 해악이 크지 않을까 합니다.

사실 AI도 틀릴 수 있다는 것을 서서히 잊어가는 것 같아요. 이미 여러 논쟁에서 'AI가 이렇다고 함.'하고 추가적으로 정당화 없이 논증을 끝마치는 경우도 엄청... 많고요.
번개맞은씨앗
25/03/04 12:03
수정 아이콘
AI에 대한 신뢰나 평판은 경험에 따라 수정될 수 있는 것이니까요. 둘 이상의 AI를 비교해볼 수도 있고요. 논쟁은 끝맺음이 된다는게 오히려 효용을 갖는 수도 있다고 봅니다. 사람들은 많은 논쟁에서 사생결단을 내려고 하는 경향이 있고, 그래서 논쟁이 너무 과열되고 감정싸움으로 변질되는 경향이 있으니까요.

이는 에코챔버를 막는데도 도움이 될 거라 생각합니다. 꽤 많은 수의 사람들이 치우친 정도가 심하기에, 비록 AI의 객관성에 한계가 있지만, 극단과 혐오의 시대에, 나름의 유용한 효과를 줄 수 있는 거 아닐까 싶습니다. 
안군시대
25/03/04 12:31
수정 아이콘
AI가 팩트체크를 하려면 일단 AI가 접근할 수 있는 정보가 인터넷에 한정되지 않도록 해야 할 것인데, 이 부분이 어떻게 해결될지가 관건이라 봅니다. 예를들어 어떤 범죄사건의 진범을 잡기 위해서는 CCTV라던지 양방의 진술 등의 데이터가 있어야 올바른 판단을 할텐데, 이런 정보들이 모두 공개된 인터넷에 올라오지는 않거든요. 그렇다면 AI가 인터넷 커뮤니티 외의 다른 출처로부터 데이터를 얻어와야 할텐데, 그건 또다른 문제를 발생시킬 수도 있어서 쉽지 않겠죠.
모든 정보들이 다 투명하게 공개되어 있다는 전제가 깔려야 하기 때문에, 이 문제는 아마 가까운 시일내로 해결되긴 쉽지 않을거라 보여요. 특히나 근래로 올수록 왜곡된 정보들이 인터넷에 범람하는 모습을 봐서는요. AI가 인간보다 더 객관적이고 정확할수 있을지는 몰라도, 정보가 제한되고 편향된 상태라면 그것조차 소용없어지죠.
번개맞은씨앗
25/03/04 14:25
수정 아이콘
맞습니다. 정보의 한계가 있죠. 이렇게도 생각해볼 수 있을 듯합니다. 제한된 정보로도 부분적인 팩트체크는 가능하지 않을까 싶습니다. 그것조차도 안 되어서, 혼란과 다툼이 있으니까요. 
25/03/04 12:39
수정 아이콘
말씀하시는대로 희망찬 미래이면 좋겠긴 하고, 저도 의식적으로나 무의식적으로나 그렇게 움직이기는 하는데...
유발 하라리의 최근 책에서 '저들은 제대로 된 정보를 몰라서 저러고 있다. 제대로 된 정보를 주거나, 혹은 여러 정보를 주고 스스로 선택할 수 있는 기회를 주면 올바른 선택을 할 것이다'라는 걸 '순진한 정보관'이라고 하더라구요.
요즘 음모론을 퍼뜨리고 믿고 하는 어떤 성향의 지지자들도 '팩트'를 원하지 않지요.
그냥 앞에서 누가 무슨 주장을 던져주면 복창할 메시지, 자기들이 더욱더 잘 뭉치고 세를 과시할 수 있는 메시지를 원할 뿐...
25/03/04 15:08
수정 아이콘
이러나 저러나 인간은 파충류 뇌시절때부터 감정, 호르몬, 무의식의 노예인건 사실이고, 대뇌는 결국 이유 합리화에 쓰이는 경우가 많죠.
그런 의미에서 agi가 감정을 갖지않는다는 전제하에 정교화 되면 될수록 인간보다 합리적이고 정확한 판단을 할것이라고 생각합니다.
가장 두려운건 agi에게 인간과같은 감정을 학습시키는 것인데, 이것은 전세계가 안보 협약을 맺어야할 정도로 경계해야한다고 개인적으로 생각합니다. 핵무기 협약맺듯이 방어선이 필요하다고 봅니다.
Quantumwk
25/03/04 19:04
수정 아이콘
이러나 저러나 인간은 파충류 뇌시절때부터 감정, 호르몬, 무의식의 노예인건 사실이고, 대뇌는 결국 이유 합리화에 쓰이는 경우가 많죠. -> 100퍼 동의합니다. 결론은 비합리적인 이유로 내려놓고 나중에 껴맞추는경우가 대부분이죠
드러나다
25/03/04 19:51
수정 아이콘
곧 ai교 생길겁니다. 그는 진실만을 이야기하고 우리를 구원해줄꺼야! 라구요. 머지 않은 것 같습니다.
목록 삭게로! 맨위로
번호 제목 이름 날짜 조회 추천
103903 [일반] [팝송] 더 위켄드 새 앨범 "Hurry Up Tomorrow" [1] 김치찌개1160 25/03/09 1160 1
103902 [일반] 올해 읽었던 책들 중에서 가장 만족한 책 [지능의 기원] [13] a-ha3325 25/03/08 3325 12
103901 [일반] (역사는 반복된다)세계사에서 대표적인 자산시장 버블기들과 그들의 말로 [15] 독서상품권5287 25/03/08 5287 7
103900 [일반] 진격의 거인, 엘빈 스미스와 작클레 총통 - 부제 사람은 논리적일 수 있을까? [16] INTJ3647 25/03/08 3647 9
103899 [일반] 국군의무사관학교 설치 법안이 접수 되어있습니다. [33] 삭제됨6020 25/03/08 6020 2
103898 [일반] 굳건한 미일 동맹에 의심이 들기 시작한 지구 1황 [71] 전기쥐10176 25/03/08 10176 3
103897 [일반] 위고비 8주차 최종 후기 (쫑?) [15] Lord Be Goja5103 25/03/08 5103 5
103896 [일반] 데어데블 본어게인, 디즈니+ 를 구독할 이유, [8] v.Serum3402 25/03/08 3402 0
103895 [일반] 소리로 찾아가는 한자 82. 소 축(丑)·손톱 조(爪, 㕚)·갈래 차(叉)에서 파생된 한자들 [3] 계층방정1501 25/03/07 1501 3
103894 [일반] [에세이] 아빠의 잃어버린 손가락 (사이보그가 되다) [4] 두괴즐2532 25/03/07 2532 13
103893 [일반] 기술자적 유연성 [8] 번개맞은씨앗3048 25/03/07 3048 7
103892 [일반] 소매업체, RX 9070 “MSRP”는 첫 배송에만 적용.가격은 추후 인상될 예정 [24] SAS Tony Parker 4247 25/03/07 4247 0
103891 [일반] 대형마트 의무휴일 축소? 확대? [125] 로켓9192 25/03/07 9192 13
103890 [일반] 미키 17 후기 (노스포) [21] 라이징패스트볼4708 25/03/07 4708 9
103889 [일반] K-자본주의는 주주를 등쳐먹기로 모두가 합의한 체제이다. [91] 깃털달린뱀11229 25/03/06 11229 75
103887 [일반] 챗AI에게 두억시니말 같은 글 쓰게 시키기 - 결론 포함 [10] 닉언급금지4968 25/03/06 4968 1
103886 [일반] 한미연합훈련 중 민가에 포탄 폭발 사고.... 전투기 오발로 추정 [64] EnergyFlow10397 25/03/06 10397 2
103885 [일반] 젊은 2030 세대들이 중국에대한 아주 강한 반중정서를 가지고 있는걸로 밝혀졌네요 [289] 마그데부르크16237 25/03/06 16237 10
103884 [일반] 호상 [64] dlwlrma9031 25/03/06 9031 77
103883 [일반] [설문] 부모나 연소자에게 가중투표권을 부여해야 할까요? [50] 슈테판4756 25/03/06 4756 1
103882 [일반] <콘클라베> - 신의 일이든, 신의 뜻이든, 결국 인간이 하는 것. (노스포) [14] aDayInTheLife3076 25/03/05 3076 5
103881 [일반] LP [12] 79년생2576 25/03/05 2576 3
103880 [일반] 한국에서 우러 전쟁 최고 수혜자 [33] 여기8841 25/03/05 8841 0
목록 이전 다음
댓글

+ : 최근 1시간내에 달린 댓글
+ : 최근 2시간내에 달린 댓글
맨 위로