:: 게시판
:: 이전 게시판
|
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
통합규정 1.3 이용안내 인용"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
25/03/04 02:43
저도 커뮤니티나 SNS에서 뭔가 미심쩍은 정보들은 AI한테 질문을 해보거든요. 말씀대로 그런 긍정적으로 사용될 가능성도 있어보여요.
25/03/04 08:00
[AI가 감정싸움을 할 리도 없고, 공정하고 건전한 비판을 할 테니까요.]
AI를 공정한 재판관처럼 여기는 것을 동의하기 힘드네요. 지금도 물어보면 종종 잘못된 답변을 맞다고 우기다가 제가 그거 틀렸다고 지적하면 그제서야 능청스럽게 틀렸다고 인정하면서 다시 수정하는 걸 보는데요.
25/03/04 08:09
(수정됨) 상위모델에 질문만 잘하면 99.9프로의 인간보다는 공정하고 정확하다 봅니다.
인간은 본질적으로 편견,선입견 덩어리라..... 판사처럼 높은 지능+전문적으로 훈련받은 경우도 그러니깐요. 나름 공정하고 객관성이 담보된다는 이공계 학계에도 있어봤지만 이쪽도 논문 리뷰할때 저자가 이름고고 영어 네이티브 아닌거 같으면 문장 몇개만 읽다가 제대로 내용 보지도 않고 문법이 어쩌구 영어 문장이 어쩌구하면서 이트집 저 트집 잡아서 리젝 때리거나, abstract or 서론에서 심기건드는 내용 및 마음에 안드는거 하나 있으면(논문의 본질적인 내용과는 크게 관계없는) 이런 저런 트집 잡아서 리젝때리거나 이런경우가 비일비재합니다 그나마 시스템이 잘 되있어서 그래도 결과적으로는 어느정도 공정하게 돌아가지만...
25/03/04 08:27
(수정됨) 어떤 모델을 어떻게 쓰신지 모르겠는데 o1정도만해도 기존 지식에 대한건 상당히 정확한 편입니다. 오삼미하는 stem쪽 특화에 언어능력이 딸려서 일반적인 사회시사는 안 물어보는게 좋구요.
o1같은 pre-trained 추론모델에 '트럼프-젤렌스키 회담에 대해 논해봐'라고 물어보면 헛소리 하겠지만... 물론 사용자가 귀찮게 저런거 신경써야한다는거 자체를 뭐라할수는 있겠지만, 수학과 교수님한테 '트럼프-젤렌스키회담에 관한 내용을 왜 잘 모르고 틀리게 얘기하죠?'라고 할수 없는것처럼 현 인공지능도 목적에 따라서 모델을 바꿔가며 사용할 필요는 있음. 근데 머지않아 그냥 모델 하나에서 대부분 커버하는 걸 볼수 있긴 할겁니다. 그 전까지는 모델 특성에 따라 사용할수 밖에 없음.
25/03/04 09:43
(수정됨) 99.99
전세계 인구 대충 70억 잡고 다방면으로 제대로 된 판단능력과 지식을 가진 사람이 70만을 넘을 리가 없다고 생각합니다.
25/03/04 15:31
그렇게 따져도 그 특정 분야 하나에 대한 지식을 줄세우면 현재 GPT는 꽤나 앞줄일 겁니다.
예를들어 의학 쪽으로 따졌을 때 내과 전문의 보다는 못하지만 의대생보단 나을테니까요. 그런데 내과 전문의가 전세계에 몇이나 되겠습니까? 최소 1% 안쪽이라 봅니다. 지금 수학 수능 킬러도 다 푸는데 수능에서도 0.1%안에 드는 수준이 아니겠습니까?
25/03/04 08:56
네. AI가 공정하다고 단언하는 건 부적절한 것 같네요. 현재로서 대체로 공정하게 답하지만, 꼭 그런 건 아니고, 무능력도 있으며, 앞으로 AI 기업이 정치집단의 압박을 받는다면 꽤 불공정해질 수도 있는 일 아닐까 싶습니다.
25/03/04 09:11
때로는 프롬프트까지도 공개할 필요가 있다고 봅니다. 프롬프트를 불공정하게 또는 부적절하게 적었을 개연성이 있는거라면요.
그러나 아주 문제는 아닌 것이, 의심이 되면, 다른 사람들도 물어보면 될 것입니다.
25/03/04 11:36
'때로는 프롬프트까지도 공개할 필요가 있다고 봅니다. 프롬프트를 불공정하게 또는 부적절하게 적었을 개연성이 있는거라면요. ' -> 동의합니다
25/03/04 08:06
먼 미래에는 변호사의 위치가 더 위협받을 것인지 생각해볼 수도 있겠네요.
모든 분야에서 AI로 오류를 찾아 공격할 수 있고, 반대측은 AI로 합당한 변호요소를 찾아 방어할 수 있고. 지금의 AI 신뢰도로는 불가능이지만, 어느새 사소한 궁금증은 AI에 물어볼 정도로 발전했으니까요.
25/03/04 08:25
현실에서 가짜뉴스라고 공격하는 것 중에 진짜뉴스를 앞뒤 잘라서 가짜라고 호도하는 경우도 많죠. 챗gpt 플러스만 쓰는 입장이고 ai 분야에서 일하는게 아닌 입장입니다만 맥락을 다 설명해주지 않고 ‘편집’해서 일부만 설명할 경우 지피티가 스스로 앞뒤 맥락 고려해서 진실 가려내기는 못하는 것으로 보입니다.
25/03/04 09:08
관련하여 본문에도 조금 다루었지만, 어떤 정보를 제공하는지 어떤 정보에 접근할 수 있는지에 따라서 팩트체크에 한계가 있는게 맞다고 봅니다. 정보부족 문제도 있고 사용자가 편파적으로 AI에게 프롬프트를 입력하는 수도 있을 것입니다. 때로는 프롬프트까지도 함께 적는게 필요할 듯합니다.
25/03/04 08:57
(수정됨) 그 ai가 적용된 유튜브 생태계를 봅시다
그 [코알라류 민족 국가]에 우호적인 성향은 인공지능 봇 도래 이전에도 유명했지만. 작금에와선 거의 패시브입니다. 헐리우드에서 스폰서가 죄다 코알라류 민족이라 자체검열하는 판에. 지금 유튜브는 저거 언급하는 순간 수익창출 중단 노딱이 걸리고. 심지어 댓글 영상도 자동차단되거나 노출이 자체가 안됩니다. 진실이 무엇이건 상관없고. 의미없습니다. 플랫폼을 소유한 자본가의 의도대로 ai는 "판단"합니다. 이제 인공지능이 더더욱 정교해지면 그 코알라민족 정보부대가 가짜뉴스로 뿌린 [갓난아이 40명 참수]는 더이상 가짜사진이 아니라 리얼한 4k동영상으로 유튜브에 올라올겁니다. 이걸 가짜로 판단할 ai가 지구상에 존재할수있을까요? 자본가가 그걸 원하지 않는데? 지금도 백악관이 가짜뉴스라고 밝혔음에도 아직도 이걸 진짜라 믿고 낚인 사람이 절반이 넘고 전쟁명분이 되어 어린아이 수만명이 학살당한 트리거가 되었음에도. 여전히 그네들에겐 "진짜"입니다. ai플랫폼을 소유한 자본가가 그리는 미래는 공정한 미래나 정의로운 미래따위가 아닙니다. 오히려 타입문 세계관에나 나올법한 [공상구현화]가 진정한 목표죠. 그 [테러리스트가 코알라류 민족 갓난아이 40명을 식인목적으로 잡아먹었다] 라는 개주작을 4k HDR로 틀어놓고 그걸 전쟁명분으로 200만명을 육고기로 도륙하는 미래말입니다.
25/03/04 09:04
AI에 다양성이 필요하다고 봅니다. 그리고 상호견제하게 하는 거죠. AI들을 경쟁시켜야지, 하나의 AI만 있으면 안 좋은 일이 벌어질 가능성이 큰 거라 봅니다.
25/03/04 09:43
AI가 뭔가 의도하는게 아니라 그냥 학습 정보량의 우의 쪽으로 편향되는거라 진실된 정보 보다 가짜가 더 많다면 제대로 된 의견을 내지 않을 것입니다. 공공기관에서 진짜 확정이라는 방식이 어떤식으로 동작하게 될지 모르겠지만, 현재처럼 LLM 모델이의 앞단에서 세이프 프롬프트 처럼 동작만 하는 거라면 그 한계가 명확하다고 생각해요.
25/03/04 10:00
중요한 포인트라 봅니다. 학습시킨 빅데이터가 무엇인지에따라 차이가 있겠죠. HFRL의 경우에는 직접 사람이 피드백을 주어서 강화학습하니, 이 역시 약점이 될 수 있겠고요. AI 기업의 소비자가 누구인지, 그리고 AI 기업에 어떤 정치적 압력이 있는지, 이런 걸 놓고 생각해볼 일이 아닐까 싶습니다. 기본적으로는 AI의 다양성과 AI들끼리의 경쟁이, 건강성을 유도할 가능성이 크다고 봅니다. 이것은 인간 사회에서 권력을 쪼개는게, 위험을 줄이고 건강해지는데 유리한 것과 마찬가지일 것입니다. 다양한 언론이 있고, 정치도 삼권분립에 둘 이상의 정당이 있고, 경제도 기업들을 경쟁시키고, 그럼으로써 사회가 타락하는 걸 막을 수 있듯, 마찬가지로 AI도 경쟁시키는게 필요한 거라 봅니다.
25/03/04 10:40
ai 학습때문이라도 더 많은 가짜뉴스 만들어내려고 하겠네요;; 특히 과거에 일어났던 일에 대해서는 더더욱 기록 조작내지는 왜곡이 많아질듯 합니다
25/03/04 11:13
적극적인 활용처와 참고 정도의 활용처가 점차 자리잡지 않을까 생각합니다.
팩트가 명확한 영역(예를 들어 야구의 스트라이크존)에 대해서는 AI의 판단을 신뢰하고 적극적으로 활용하게 될 듯 하고, 개인 또는 집단 간 이해 관계가 복잡하게 얽힌 영역에서는 참고 정도로 활용하게 되리라 예상합니다...만, AI는 지속적으로 발전하며... 결국 시빌라 시스템으로 발전을...
25/03/04 11:28
사람들간 다툼이 일어날 때, 그것이 쉽게 진정이 되지 않는 이유 중 하나는, 타인이 불공정한 편파적 발언을 하는 걸로 보기 때문이 아닐까 싶습니다. 어리석거나 악의를 가졌다고 여기기도 하는 듯합니다. 그리고 자존심 싸움이 되기도 합니다. 경험적으로 볼 때 제 생각에, AI는 이를 냉각시키는 효과가 있는 듯합니다. 결국 인간이 아니라, 기계이니까요. 반도체는 에어컨으로 냉각시키고, 인간은 반도체로 냉각시키는 셈인 거죠. 에어컨은 전기로 돌리고, 전기는 탄소에서 비롯되니, 결국 탄소로 인간을 냉각시킨 셈인 거죠.
25/03/04 11:27
AI의 객관성이라건 이공계 몇몇분야를 제외하면 장미빛 허상에 가까울겁니다. 판단의 보조적인 도구로 쓰이지 ai 자체가 전가의 보도처럼 솔로몬 판결을 해주는 일은 생기지 않을것 같아요.
예를들어 편향된 사고를 하도록 학습된 ai도 앞으로 충분히 가능한 시나리오입니다. 그것에 대한 증명도 반증도 쉽지않은 문제이고요.
25/03/04 11:36
마지막 말씀에는 추가로 생각해볼 포인트가 있는 듯합니다. 예전에 생각해봤던 건데, 존 스튜어트 밀의 <자유론>이란 책이 있습니다. 밀은 자유의 효용에 대해서 이야기하죠. 오래 전에 읽은 거라 기억이 정확하진 않지만, 이를테면 그 효용 중 하나는, 어떤 근본적인 이유가 있을 때 그것이 당연해지면 점점 그 이유를 사람들은 잊어먹게 된다는 것입니다. 그것에 대해서는 대화도 안 하고 생각도 안 하게 되는 거죠. 그런데 자유롭게 표현을 하고 그래서 토론이 이뤄지다보면, 그 근본에 대해서 다시 알게 된다는 건데요. 아마 실은 별 근본도 없는 건데, 당연하게 여긴 경우도 있을 것입니다.
그런데 이러한 효용에 있어서는 인간뿐만 아니라, AI도 마찬가지라는 생각을 해봤습니다. 밀이 <자유론>에서 공리주의자 관점에서 효용을 논할 때, 그 이유 중 상당부분은 AI도 다를게 없을 거란 거죠. 어떤 원리주의적인 권리에 따라 표현의 자유를 이야기하는 거라면야, AI에게 그런 건 전혀 없지만요. 증명도 반증도 쉽지 않은 주장이 나왔다. 그런데 그거 인간이 주장한 건지, AI가 주장한 건지 모르겠다. — 그렇더라도, 그것은 과학에 있어서 유용성을 가질 수 있을 것입니다. 과학자들은 그걸 하나의 가설로 여기고 탐구하고 연구할 수 있을 것입니다. 물론 세상에 가설이 너무 많다면, 그중에 가치있어 보이는 걸 일부 택해서 해야지, 아무거나 다 탐구할 수는 없는 일이지만요.
25/03/04 11:46
AI가 객관적일 방법은 없지요. 학습 자료가 주관적인데요.
전적으로 인풋에 의존하고 그 인풋이 주관적이고 편향적인데 결과물이 객관적이려면 프롬프트 없이 ai가 자율적으로 사고하는 시대가 도래해야 할 것인데 그게 가까운 시일 내에 가능할런지요? 최대한으로 봐도 "객관적으로 보이는" 수준이 한계가 아닌가 싶고, 그럴 경우 AI 특성상 사람들은 그 대답을 마치 기계적 객관성을 확보한 대답처럼 생각할 텐데 그러면 더 해악이 크지 않을까 합니다. 사실 AI도 틀릴 수 있다는 것을 서서히 잊어가는 것 같아요. 이미 여러 논쟁에서 'AI가 이렇다고 함.'하고 추가적으로 정당화 없이 논증을 끝마치는 경우도 엄청... 많고요.
25/03/04 12:03
AI에 대한 신뢰나 평판은 경험에 따라 수정될 수 있는 것이니까요. 둘 이상의 AI를 비교해볼 수도 있고요. 논쟁은 끝맺음이 된다는게 오히려 효용을 갖는 수도 있다고 봅니다. 사람들은 많은 논쟁에서 사생결단을 내려고 하는 경향이 있고, 그래서 논쟁이 너무 과열되고 감정싸움으로 변질되는 경향이 있으니까요.
이는 에코챔버를 막는데도 도움이 될 거라 생각합니다. 꽤 많은 수의 사람들이 치우친 정도가 심하기에, 비록 AI의 객관성에 한계가 있지만, 극단과 혐오의 시대에, 나름의 유용한 효과를 줄 수 있는 거 아닐까 싶습니다.
25/03/04 12:31
AI가 팩트체크를 하려면 일단 AI가 접근할 수 있는 정보가 인터넷에 한정되지 않도록 해야 할 것인데, 이 부분이 어떻게 해결될지가 관건이라 봅니다. 예를들어 어떤 범죄사건의 진범을 잡기 위해서는 CCTV라던지 양방의 진술 등의 데이터가 있어야 올바른 판단을 할텐데, 이런 정보들이 모두 공개된 인터넷에 올라오지는 않거든요. 그렇다면 AI가 인터넷 커뮤니티 외의 다른 출처로부터 데이터를 얻어와야 할텐데, 그건 또다른 문제를 발생시킬 수도 있어서 쉽지 않겠죠.
모든 정보들이 다 투명하게 공개되어 있다는 전제가 깔려야 하기 때문에, 이 문제는 아마 가까운 시일내로 해결되긴 쉽지 않을거라 보여요. 특히나 근래로 올수록 왜곡된 정보들이 인터넷에 범람하는 모습을 봐서는요. AI가 인간보다 더 객관적이고 정확할수 있을지는 몰라도, 정보가 제한되고 편향된 상태라면 그것조차 소용없어지죠.
25/03/04 14:25
맞습니다. 정보의 한계가 있죠. 이렇게도 생각해볼 수 있을 듯합니다. 제한된 정보로도 부분적인 팩트체크는 가능하지 않을까 싶습니다. 그것조차도 안 되어서, 혼란과 다툼이 있으니까요.
25/03/04 12:39
말씀하시는대로 희망찬 미래이면 좋겠긴 하고, 저도 의식적으로나 무의식적으로나 그렇게 움직이기는 하는데...
유발 하라리의 최근 책에서 '저들은 제대로 된 정보를 몰라서 저러고 있다. 제대로 된 정보를 주거나, 혹은 여러 정보를 주고 스스로 선택할 수 있는 기회를 주면 올바른 선택을 할 것이다'라는 걸 '순진한 정보관'이라고 하더라구요. 요즘 음모론을 퍼뜨리고 믿고 하는 어떤 성향의 지지자들도 '팩트'를 원하지 않지요. 그냥 앞에서 누가 무슨 주장을 던져주면 복창할 메시지, 자기들이 더욱더 잘 뭉치고 세를 과시할 수 있는 메시지를 원할 뿐...
25/03/04 15:08
이러나 저러나 인간은 파충류 뇌시절때부터 감정, 호르몬, 무의식의 노예인건 사실이고, 대뇌는 결국 이유 합리화에 쓰이는 경우가 많죠.
그런 의미에서 agi가 감정을 갖지않는다는 전제하에 정교화 되면 될수록 인간보다 합리적이고 정확한 판단을 할것이라고 생각합니다. 가장 두려운건 agi에게 인간과같은 감정을 학습시키는 것인데, 이것은 전세계가 안보 협약을 맺어야할 정도로 경계해야한다고 개인적으로 생각합니다. 핵무기 협약맺듯이 방어선이 필요하다고 봅니다.
25/03/04 19:04
이러나 저러나 인간은 파충류 뇌시절때부터 감정, 호르몬, 무의식의 노예인건 사실이고, 대뇌는 결국 이유 합리화에 쓰이는 경우가 많죠. -> 100퍼 동의합니다. 결론은 비합리적인 이유로 내려놓고 나중에 껴맞추는경우가 대부분이죠
|