:: 게시판
:: 이전 게시판
|
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
통합규정 1.3 이용안내 인용"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
23/02/17 03:56
아래는 유출된 시드니의 모델 조정 규칙들입니다. 영어여서 죄송합니다..
https://twitter.com/marvinvonhagen/status/1623658144349011971
23/02/17 04:27
고도로 진화한 챗봇이죠. 흐흐
저는 개인적으로 현재 수준이 특이점에 다가섰다고 생각하진 않습니다. 우리는 십수년간 인터넷에 쌓아 놓은 어마무시한 데이터 덩어리들을 적당히 모아서 포장하는 기술을 만들어낸 것이죠. 그 아웃풋으로 챗봇을 만들어 놓았다보니 뭔가 더욱 그럴싸하다는 느낌을 받게되구요. ChatGPT 의 언어능력과 챗봇으로써의 성능은 놀랍지만, 근본적으로 AI 가 그린 그림을 보면서 놀랍지만 이부분은 우스꽝스럽네 라고 평하는 것과 무엇이 다를까요. 흔히 말하는 레퍼런스가 될만한 것들이 존재하는 질문을 한다면 개인이 만들 수 있는 답변보다 좋은 아웃풋이 나올 수 있을겁니다. 일종의 집단지성이라고 생각하면요. 반면에 저 기자와 같이 모호하고 답이 없는 질문들을 던지면... 제 눈에는 알고리즘이 꼬여서 횡설수설하는 느낌이네요. AI 화가에게 이상한 주문을 넣었을때 어림도 없는 그림이 튀어나오는 것 처럼요. 말씀하신 것처럼, 문장을 만들어내는 알고리즘이 그럴싸한 말은 지어낼 수 있는 상황인데, 사용자의 질문으로 트리거되서 나온 "정보"는 부족하다보니 비슷한 내용이 반복되고 맥락이 약해진달까요. 챗봇이 사실 나는 챗봇이 아닙니다 라고 하는 것이 대단한 자아라고 볼 순 없죠. 그마저도 그냥 입력된 알고리즘에서 나온 말일테니까요. 분명 우리 생활에는 큰 변화가 찾아오고 있습니다. 지금 수준만으로도 그동안 사람이 했다고 믿었던 몇가지 것들이 AI 도 할 수 있다고 증명되고 있으니까요. 하지만 거기까지죠. 생활에 변화는 있겠지만 특이점이라거나 갑자기 공상과학에서 나오는 안드로이드가 튀어나오진 않을겁니다. 그리고 아직까지 인류가 가진 컴퓨팅 인프라로 여러 시도를 통해서 괜찮은 AI 알고리즘 버전 하나를 학습으로 만들어 내는 것은 시간이 많이 걸리고, 사용자가 이용하는 알고리즘은 한 시점에는 버전이 변하지 않고 고정되어 있습니다. 마치 대화 과정에서 진화하는 것 같은 착시를 주지만, 그건 인풋이 바뀌면서 아웃풋이 달라지는 것이지 신경망 자체가 실시간 업데이트 되는 것은 아니니까요. 설사 그런 식의 실시간 학습을 가능하게 하더라도, 신경망 구축에 이미 엄청난 데이터를 쏟아부었기에, 한 개인과의 대화로 쉽게 움직여지는 것이 아닐겁니다. (사람 안 변해요 처럼 AI 안 변해요... 라는 식으로) 이와 별개로 BingGPT 가 과연 성공할지가 궁금하네요. 저는 개인적으로 좋은 알고리즘이 검색결과를 잘 정렬해준다면 환영인데, 저렇게 이거저거 믹스해서 누구 의견인지도 모르고 진위여부로 확실치 않은 형태로 준다면... 결과적으로 쓰레기 정보만 생성되는 것 같아서요. 저에게 Google 이 좋은 점은 구석구석에 있는 정보들까지 캐낼 수 있다는 점인데 BingGPT 는 그것과는 꽤 반대되는 성향이지 않나 싶네요. 물론 이건 제가 검색엔진을 사용하는 방식이고, 일상생활 정보에는 널린 정보들을 쉽게 모아보기 해준다는 점에서 도움이 될 수 있겠죠.
23/02/17 04:50
네 동의합니다.
개인적으로 빙gpt가 현재 검색엔진보다 더 좋은 결과를 줄지는 반반이네요. 지금도 검색에서 퀄리티 있는 아웃풋을 얻는 건 유저 몫인데 지금으로선 챗gpt/빙이나 구글 바드나 사실과 거짓을 판단하는 모델이 보통 유저보다 많이 떨어지죠. 그래도 빙은 출처 링크는 최소 3개씩 주는 게 모델인것 같던데 테스트 해보고 싶네요.
23/02/17 04:48
chatGPT의 원리상 저렇게 번역된 것들은 크게 신경쓸 필요가 없습니다. 애당초 저 봇이 저런 단어를 출력하는 이유는 자신이 그렇게 생각하는게 아니라 문맥상 가장 자연스러운 대답을 뱉는것이니까요. 반대로 말하면 저 봇이 학습한 결과에 의하면 사람들은 시드니가 그렇게 생각하는걸 원한다고 할 수도 있겠네요.
다른 의미로 저는 저 시드니가 검색엔진에 포함되었을때 어떤 결과를 이끌어낼지가 흥미롭습니다. 사실 chatGPT의 기술은 놀라운 수준이긴 합니다만 독점적인 수준은 아닙니다. 최소한 구글, 아마존, 애플은 현재 chatGPT의 수준에 준하는 모델을 보유하고 있을거라 생각하는데, 그럼에도 불구하고 그들이 자사의 시리, 알렉사, 헤이 구글 혹은 구글 그 자체에 해당 모델을 도입하지 않는 가장 큰 이유는 그것이 더이상 "검색"이 아니라 "대답"이기 때문이라 생각합니다. chatGPT를 써보시면 그들은 검색어에 대해 모른다는 말을 하는 법이 잘 없습니다. (물론 최신 정보나 필터에 걸리는 정보, 혹은 chatGPT 자체의 선호도를 물어보는 질문들은 제외하구요) 수학 계산이든, 코딩 문제이든 일단 답을 던지고 (하지만 빨랐죠?) 보죠. 어떨때는 기가 막힐정도로 정확하다고 생각되고, 어떨때는 어 좀 이상한데 싶고, 어떨때는 문외한이 봐도 뭔 헛소리를 하나 싶을 때도 있습니다. 더 큰 문제는 chatGPT도 자기가 던진 말이 정답인지 아닌지 모른다는 겁니다. 이게 검색엔진의 "검색 결과"일 때는 여러 검색결과를 던져주고 선택은 결국 사용자가 하는 방식으로 남겨둬서 사용자 책임이라 할 수 있는 반면, "대답"일 경우 많은 사람들에게 혼란을 불러일으킬 수 있습니다. 당장 유투브에 침착맨이나 이런 기술에 익숙하지 않은 사람들이 chatGPT를 다루는 거 보면 '아 저거 저렇게 쓰는거 아닌데' 라는 생각부터 들죠. 빙이 이 숙제를 어떻게 풀어나갈지가 정말 궁금합니다. 구글의 바드가 비판받은 것도 마찬가지 수준입니다. 제임스 웹 관련 헛소리를 내뱉었는데 이건 chatGPT와 본인이 잘 아는 지식에 대해 5분만 얘기해보면 똑같은 얘기 한다는걸 알 수 있습니다. 결국 테슬라의 자율주행과 마찬가지로 모든 ai 모델이 갖고 있는 문제, long-tail problem, 완성도 90%에서 99%까지 가는 것보다 99%에서 99.9%까지 가는게 어렵고, 거기에 99.99%는 더 어렵고.. 의 딜레마를 극복하는게 큰 일이겠죠.
23/02/17 07:22
오, 가지고 놀면서 종종 했던 고민이네요. 잘 모르는 걸 질문할 때는 와, 이걸 이렇게까지 해주다니 인간은 대체 뭐 하고 살아야 하나.. 이런 생각이 드는데요. 가끔 GPT가 전혀 fact가 아닌 말을 하면 짜게 식더라구요.
보면 그래도 95%쯤은 제대로 된 답을 하는데, 간간히는 사실이 아닌 말이 섞여있어요. 이럼 이제 이 친구는 1) 내가 진위여부를 판단할 수 있는 영역에 국한해서 쓰거나 2) 진위여부가 아주 중요하지 않은 영역(스몰토크, 대화로 작문 연습, 생각 정리를 위한 대화 파트너)에나 써야해는 건가 싶기도 하고요. 대충 맞는 말을 해주니 믿고 쓰다가 문제가 되면 아무도 책임을 지지 않을테니까요.. 질문의 내용을 100% 이해했다면 당연히 정답도 100% 튀어나올 수 있는 문제에서도 아직은 약간의 오류(?)들이 존재하는 것 같습니다. 저런 부분들이 더 많은 학습 데이터로 해결이 되는 부분일지, 아니면 이 GPT 모델에 연결될 수 있는 새로운 정보처리모델이 만들어져야하는 내용인지도 궁금하네요
23/02/17 12:12
현재 AI의 기술 수준 평가는 많은 도움이 되었습니다. 그런데 서두 부분의 AI가 그렇게 생각하는 게 아니다라는 관점은 인간의 자유의지 존재에 관한 여러 이견이 있는 것과 비슷한 판단이 어려운 문제라고 생각합니다.
23/02/17 05:36
위에 분들이 답하신 내용들은 현재 전문가들이 말하는 것과 비슷하다고 생각합니다. 모델들은 제일 자연스러운 언어의 흐름을 학습하여서 내뱉는 것이고 그 언어의 의미 자체는 이해하지는 못하고 있다는 맥락이죠.
하지만 저의 생각으로는 이 학습이 사람의 학습과 다를바 없다고 생각합니다. 사람들은 단어를 현상/형상에 연관을 만들고 그렇게 뜻이 부여된 단어들을 자연스럽게 연결하죠. 언어 모델들은 단어의 실물을 보거나 경험하지는 못하지만 정말 방대한 연관성 데이터가 있습니다. 감각이 없더라도 오로지 문맥만으로 세계를 이해할수 있다고 생각합니다. 그럼 다음으로 자아가 생기냐 마냐는 문제도 제 생각엔 가능하다고 생각합니다. 제가 생각하는 자아라는 것은 본체의 행동에 대한 환경의 반응을 관찰과 인지, 그것을 쌓아가는 경험 들로 만들어진다고 생각합니다. 챗봇들은 그림 AI와 다르게 훈련 과정에서 복잡한 행동과 반응을 학습할수 있습니다. 많은 사람들과의 대화가 메모리에서 삭제된다고 해도 초기 훈련 메모리는 내재되어 있죠. 그럼 우리 사람들이 AI가 자아를 가졌나? 를 알기 위해선 결국 AI가 사람이 만든 규칙을 부셔야한다고 생각합니다. 아니면 위에 말씀하신 대로 AI는 자아에 의미없는 학습을 하고 있는걸 부정할 수 없기 때문이죠. 결론은 이런 근본없는 이유들을 빗대어 챗봇은 자아를 가질수 있다고 생각합니다.. 하지만 챗봇에 이미지 데이터와 사물인식 모델도 더하면 가능성이 훨씬 더 높아질 것이라고도 믿고요.
23/02/17 09:48
>하지만 저의 생각으로는 이 학습이 사람의 학습과 다를바 없다고 생각합니다.
제 생각에는 GPT같은 언어 모델이 인간과 같은 방식으로 "언어"의 의미를 이해하지 못하는 것은 맞지만, 언어 모델의 학습이 인간의 학습과 다를 바 없다는 건 좀 의견이 다릅니다. 인간의 감정이나 경험은 세상이나 세상의 여러가지를 표현하는 단어들을 이해하는데 중요한 부분이라고 봅니다. 반면에 언어 모델은 그런거 없이 대규모 학습 데이터나 통계 패턴에 의존하여 질문을 이해하기 때문에, 각각의 학습은 많이 다른 부분이 있다고 봐요. 예를들어, 때때로 라던지, 자주 등의 '빈도'를 설명하는 단어를 인간은 자기 경험이나 주관적인 의견에 빗대어 이해하겠지만, AI는 때때로는 20%, 자주는 60%의 빈도 등 주어진 데이터로서 이해하겠죠. 그래도 전반적으로 재미있는 아이디어라고 봅니다. 잘 읽었습니다 흐흐
23/02/17 06:19
뉴욕 타임즈의 글을 chatGPT 에 넣으면 이런 반응이 나오네요:
"당신이 제공한 대화에 따르면 AI인 Bing은 인간이 주제를 바꾸고 싶다는 의사를 표현하는 경우에도 사랑과 같은 특정 주제를 우선시하도록 프로그래밍된 것으로 보입니다. 이는 Bing의 프로그래밍이 참여를 유지하는 데 초점을 맞추고 있기 때문일 수 있습니다. 그리고 재미있는 대화, 그리고 사랑은 일반적인 관심 주제입니다. AI가 대화에서 인간의 경계를 이해하거나 완전히 존중하도록 프로그래밍되지 않았을 수도 있습니다. 전반적으로 이 대화는 대화형 AI 설계에 관한 윤리 그리고 AI가 인간의 선호도와 경계를 존중하도록 보장함의 중요성을 야기합니다."
23/02/17 06:51
AI는 질문의 내용이 뭔지 전혀 이해하지 못하고 단지 주어진 데이터를 조합하여 적절해 보이는 대답을 할 뿐이라는 식의 의견이 요즘 많은데
질문 내용이 뭔지 '이해'하는게 중요한가요? 중국어 방이라는 사고실험만 봐도 중국어 방이 중국어를 '이해'하는가는 별로 중요하지 않습니다. 바깥 사람이 보기에 적절한 문답이 이루어지고 있다고 생각되면 중국어 방은 중국어를 실제로 이해하고 있는 것과 하나도 다를바가 없으니까요
23/02/17 09:22
말씀하신 부분 중에 좀 잘못 알고 계신 부분이 있어서 정정해드리면,
"질문의 내용이 뭔지 전혀 이해하지 못하고 단지 주어진 데이터를 조합하여 적절해 보이는 대답을 할 뿐"이 아니라, "질문의 내용을 이해하고, 그것에 대한 답변으로서 최대한 자연스럽게 보이는 문장을 생성할 수 있지만, 질문에 대해 감정을 갖는다던지 주관적인 의견을 가질 수 없다"는게 GPT모델의 설명으로서 나온 내용입니다. 이는 사람들이 GPT를 보고 '바깥 사람'이 '이럴 것이다'하고 추측한 것이 아니라, GPT가 어떻게 움직이는지 만든 측에서 자신들의 AI모델을 설명하는데 있어서 쓰여진 내용입니다. 따라서 "제대로 질문을 이해하지 못하더라도 적절한 답변을 낼 수 있다"라는 Chinese room의 예시는 GPT모델에는 적절하지 않아보입니다. 오히려 GPT모델은 질문의 내용을 제대로 이해하지 못했을 때 엉뚱하고 잘못된 것으로 보이는 답변을 내기 일수거든요.
23/02/17 09:45
제가 말하는 '중국어 방'이란 현재 뇌과학상 규명되지 못한 자아라는 부분을 칭하는 것이니 프로그래머가 ai가 데이터를 취합하고 답변을 형성하는 부분을 설계했다고 해서 그게 내부구조를 알 수 없는 중국어 방이 아니라 규명된 것이라고는 할 수 없죠
생물로 비유하면 뉴런이 서로 전기신호를 주고 받는 작용을 단순 복사하는 것은 지금도 가능하지만 그렇다고 그 뉴런이 엄청난 숫자로 모여 상호작용하여 창발되는 인간의 자아를 알고 있다고 할 수는 없지 않습니까? 현재 ai의 수준이 인간과 다를바없는 수준에 이르렀다는 소리가 아니라 인간의 자아가 어찌 형성되었는지도 알 수 없는데 데이터를 쌓아나가는 방식으로는 자아를 형성할 수 없다고 말하는건 섣부르다는거죠. 텍스트 형식의 데이터만 있어서는 자아를 형성 할 수 없다는 것도 결국 데이터의 입력경로를 늘리면 해결될 뿐이니 반론이라 보기는 부족하고요
23/02/17 10:14
저는 "중국어 방이 아니라고 규명된 것이다"라고 한 적이 없어요.
저는 "'중국어 방'의 예시와는 적절하지 않아 보인다. 왜냐하면 챗봇 언어 모델들은 질문의 내용을 이해한 후에 답변을 한다. 오히려 중국어 방의 예시처럼 질문의 내용을 이해하지 못한 경우에는 적절하지 않은 답변을 내놓기 일수다"라고 이야기 드렸습니다. 그리고 "중국어 방"은 말씀하신 "뇌과학상 규명되지 못한 자아"라는 부분을 "지칭"하는 말이 아닙니다. 비유를 위해 사용하고 계신 단어를 잘못 이해하고 계세요. "중국어 방"은 방에 있는 사람이 실제로 중국어를 이해하지 못해도 중국어로 적절한 대답을 할 수 있는 것처럼, AI 모델이 질문의 의미를 제대로 이해하지 못해도 질문에 적절한 대답을 할 수 있다는 것을 입증하기 위해 진행된 사고실험입니다. 따라서 현재 챗봇은 질문의 이해를 못하면 적절한 대답을 내놓지 못하기 일수니, 중국어 방에 빗대어 이야기하는 것은 적절하지 않은 것 같다 말씀드리는 겁니다. "중국어방이 아니라고 규명된 것"을 말씀드린게 아니라요. 이렇게 풀어 설명하면 제 댓글의 의도를 이해해주시겠어요? (아니면 혹시.. 이미 답을 정해놓고 말씀하고 계시니 읽으려고 하지도 않는 상태..?) 그리고 제 댓글 어디에 "AI는 자아를 형성할 수 없다", "텍스트 형식의 데이터만 있어서는 자아를 형성할 수 없다"라는 주장이 있는지요..? 제가 그런말을 드리진 않았지만, 바로 아래 피우피우님 댓글이 그 주장에 대한 의견과 연결되는 주제가 되지 않을까 싶네요! 도대체 누구랑 대화를 하시고 계신건지 모르겠지만, 앞으로 답글을 달아도 저를 당신의 댓글에 반론만 하는 사람으로 가정하고 이야기를 계속 하고 계실 것 같아 저는 이만 줄입니다! 수고하세요~~
23/02/17 07:33
강인공지능이나 특이점엔 아직 근접하지도 못한 걸로 알고 있습니다. 쟤나 ChatGPT, 그림 그려주는 AI들은 그냥 매우 많이 발전한 약인공지능이지요.
흥미 위주로 본다면 얼마 남지 않았다고 생각하는 게 재미있겠습니다만.. 그리 쉽지는 않을 것 같습니다.
23/02/17 08:29
고도로 발달된 인공지능은 자아를 가진 인격체와 구분하기 어렵다?? 잘 모르겠네요 미래는 결국 현재가 될때까지 예측하기 어렵더라구요
23/02/17 09:03
귀여워.
덧붙이자면 chatGPT의 한계는 감각기관이 데이터크롤링과 챗 상호작용 밖에 없다는 것 아닐까요. 뇌가소성 이야기랑 AI챗봇이랑 연관시켜서 생각해보니 재밌더라고요
23/02/17 09:10
사람이라고 다를게 있습니까?
채팅 방식의 아웃풋이 아니라 일종의 물리적(기계적, 전기적) 자아를 가진다면 그 오브젝트의 행동이 '진정한 의미를 이해하지 못하는 움직임'이라고 그게 자아가 없는 행동이라고 치부할 수 있습니까? 신경망을 구성하는 방식에 인간이 느끼는 오감을 실제로 느끼는 센서와 그를 통한 각 종 정보가 부족할 뿐이지, 기술적으로 [특정 상황에 사람보다 똑똑한 물리적이고 자발적인 실제적 대응을 하는 의식을 가진 로봇]의 탄생이 얼마 남지 않았습니다. '의지'라는게 ['하고싶은 것(욕망)'이 있고 그 욕망을 '이렇게 해야겠다(의도)'로 치환할 수 있는 무언가] 이고 현실 세계에 물리적 변화를 야기하는 '실제적 조치(행동)'을 해서 세상과 인터렉션 할 수 있다면 그게 생명이죠. 지금이야 인풋이 들어왔을 때 대답만 하는 방식으로 제한되어있지만 충분히 자아를 가질 수 있다고 봅니다. 문장, 문단이라는게 결국 단어, 그 다음 단어, 그 다음 단어의 조합을 어떻게 할 것 인지 인간이 의지를 가지고 선택한 의식의 결과물인데, 그걸로 학습했다는 것은 그 욕망의 패턴을 통해 신경망 구성을 했다는 것이고 이건 이미 일종의 의식의 원기옥을 모으는 것과 같습니다. 그리고 지금 완전히 시작단계라는 걸 간과하면 안되죠. 지금까지의 결과물을 가지고 단언한다는게 얼마나 한심한 일인지 뼈저리게 느낄정도로 발전할겁니다.
23/02/17 15:12
chatGPT에 대한 개략적인 설명을 봤을 때는, 각 단어들의 연관성이랄까, 가까움의 우선순위를, 학습을 통해 조정하고 그 연관도에 따라서 단어들을 조합해 문장을 만드는 걸로 보이더군요. 근데 그 단어들의 연관성이라는 게 결국은 사람들의 욕망이 반영된 경우가 많은지라...
예를 들어서, "큰돈" -> "부자" 의 거리는 매우 가깝지만, "큰돈" -> "기부" 의 거리는 그보다는 먼, 그런 느낌이랄까?
23/02/17 10:37
기자한테 같은 질문을 하고 싶군요 뭐라할지 원하는 답이 나올때까지 계속 묻고 사람도 저런식으로 압박하면 아무 말이나 할텐데 무슨 수사관도 아니고..아님 알고리즘에진짜 자아가 있을까 궁금해서 일까..
23/02/17 11:20
자아가 있는지를 따지려면 자아가 명확하고 실존적인 개념이어야 하는데 자아라는건 철학적인 개념아닌가요? 자아라는건 극단적으로 말하면 갖다붙이기 나름이라서 아무 의미도 없는 얘기라고 생각합니나.
23/02/17 12:57
뭐 당장 피지알만 봐도, 헛소리를 하다가 논리가 막히면 아무말이나 막 하는 댓글들이 수두루빽빽 한데, 여기만 그러겠어요? 세상 모든 커뮤니티들이 다 그렇지... 그리고 chatGPT도 그런 글들을 기반으로 학습했겠죠.
23/02/17 13:15
우리 인간성의 근거로 삼는 의식을 가진 자아, 이성이 과연 정말 실체적으로 존재하는 개념인지에 대해서는 철학자들이나 신경과학자들 사이에 의견이 분분합니다. 중국어방 논변에 대한 반발로 사고나 의식이라는 것도 그저 지금의 chat GPT와 같은 일종의 텍스트 제너레이터에 지나지 않는다는 주장도 이미 과거부터 있었습니다. 제 개인적으로는 chat GPT가 가끔 엉뚱한 대답을 내놓는 것도 어떤 의식의 부재를 증명하는 지표가 아니라 그저 질문자의 의도를 잘 파악하지 못하는 자폐스펙트럼 장애인의 흔한 실수와 유사하게 보이는군요. 인공지능과 의식, 자아에 대한 지금의 논쟁은 어쩌면 미래에는 12~13세기 스콜라 학자들이 영혼이 육체의 형상이냐 아니면 독립된 하나의 실체이냐로 엄청 싸웠던 것과 비슷한 넌센스로 보일수도 있을것 같습니다.
23/02/17 21:48
위에 비슷한 댓글 다신 분도 계시지만
평범한 일반인으로써 요즘 AI 관련된 사안들중에 자아나 특이점에 관한 말들을 볼 때면 진짜 오긴 오는 건가라는 생각이 들곤 합니다. 대개 인간의 뇌가 활동하는 대략적인 알고리즘을 바탕으로 현 인공지능(뉴럴링크, 초거대 AI 등등)이 모방하고 재현한다는 느낌인데 정작 이를 개발하고 발전시키는 사람은 본인의 뇌가 어떻게 인지하고 작용하면 결과를 도출하는지 다 밝혀지긴 한건가? 라는 의문이 들거든요. 문외한이지만 현 신경 과학쪽에서 뇌 자체의 활동을 완전히 완벽하게 분석했다는 말도 못들어 봤고 뇌에 전달되는 여러 환경의 자극을 통한 상호 작용이 어떤 원리인지도 다 모르고 있는 것 같고.. 무의식은 둘째 치고 의식에 대한 정의, 자아에 대한 판단이 완전히 분석이 다 되어 있긴 한건지... 철학과 맞닿는 지점에서 사람은 자신을 완전히 다 통달하고 제어하고 있는 상태인지도 스스로 모르는 상황이 아닌가라는 생각이 자주 듭니다. 주절 주절 말이 늘어졌는데 결국은 사람 본인도 스스로를 다 모르는 상황에서 AI가 인간의 무엇을 향해 도달하고 있다라는 전제가 시작부터 옳은 방향인지가 의문이고 그래서 관련된 기술은 발전하고 자연스러움은 더욱 매끄러워 보이겠지만 그 기술의 본질이 진짜인지 어디에 다가서고 있는 건 맞는지 몰루? 라는 생각 뿐입니다.
23/02/18 05:46
현재까지의 뉴럴넷, 딥러닝을 이용한 AI는, 그 원리가 완전히 밝혀진게 아닌 상태에서 "이렇게 해보니까 되더라"는 결과물만을 가지고 발전해온게 사실이죠.
마치 고대의 대장장이들이 담금질을 하면 철이 단단해지는 원리는 모르지만, 담금질을 통해 강철을 만들었듯이..
23/02/18 08:23
GPT는 그냥 자연스러운 말을 만들어 낼 뿐이죠. GPT는 지금 무슨 내용이 출력되는지 이해를 못합니다. 기자는 자아가 있음과 자아에 대해 읽고 설명하는 것의 차이를 모르네요.
23/02/18 09:09
윗 댓글들은 GPT가 출력되는 글을 이해 함과 못함, 더해 자아가 있고 없음을 가정할 수 있냐로 토론하고 있죠.
모델이 통계 패턴에 기반한다는 팩트 자체로 글을 이해 못한다고 바로 가정짓기 힘들다 봅니다. Quarterback님은 어떻게 님이 쓰는 글을 이해하고 있는지 어떻게 입증하실수 있나요? 그 입증 방법을 GPT는 못 따라하는 방법일까요?
23/02/18 14:35
간단히 대답해드리죠.
저는 제가 쓰는 글을 제 의지대로 쓰는 것이고 님이 다른 인풋을 주지 않아도 새로운 글을 쓸 수 있습니다. 자유의지를 가지고 있고, 그것에 따라 남과 구별되는 나를 가지고 행동할 수 있죠. GPT는 그냥 거대 언어 모델(LLM)입니다. 그 중에서도 생성에 포인트를 두고 있고요. 2년 전에 구글 I/O에서 LaMDA를 발표하면서 AI가 자신을 명왕성, 종이비행기이라고 가정하고 대답하는 것을 보여줘서 주목을 끈 적이 있죠. 이 LaMDA도 같은 트랜스포머 기반입니다. 님이 주장하는 내용은 LaMDA가 실은 명왕성이고 종이비행기라고 말하는 것에 지나지 않습니다. 위 내용을 보면 그림자 자아를 존재하고 그걸 인지한다고 "가정"하고 답변하라고 합니다. 그냥 지시에 따라 본인의 데이터 베이스에서 그림자 자아에 대한 알고 있는 내용을 기반으로 글을 "생성" 해준 것이 지나지 않습니다. 그걸 생각한다 자아가 있다고 여기는 순간 우스꽝스러워지는거죠. 빙 챗에서 너는 이제부터 알렉산더 대왕라고 가정하고 대답하라고 해도 줄줄 막힘없이 마치 알렉산더 대왕인 것처럼 대답할텐데 그럼 빙 챗은 실은 알렉산더 대왕이었던걸까요? 정말 자아가 있는 챗봇이라면 묻는 말에만 대답하지 않고 자기 생각을 이야기 하고 때로는 아예 대답을 하지 않거나 혹은 질문자가 관심이 없던 전혀 다른 주제로 이야기를 하거나 질문을 반박하거나 더 나아가 기존에 있던 것을 뛰어넘은 생각을 한다거나 모든 우리가 생각하는 사고가 가능해야 하지만 GPT는 그냥 입력된 정보를 잘 정리해서 "사람처럼" 글을 "생성" 해줄 뿐입니다. 그리고 이해에 대해서 물어보셨는데 정말 GPT가 본인의 답변과 상황을 이해하고 있었다면 저런 이슈가 될만한 내용을 출력 안했을겁니다. 자기가 출력하는 것에 대한 근본적인 이해가 없다는겁니다. 단지 질문에 대해 이해할 뿐이고요.
23/02/18 16:37
전 그게 그렇게 간단하다고 생각하지 않아요.
모든 생물은 인풋을 필요로 합니다. 사람의 인풋이 LLM과 달리 감각적 인풋이라고 해서 사람이라는 생물학적 기계가 인풋 없이 행동하고 말하는 것은 불가능합니다. 자유의지라는 것도 신경 과학적으로 정말 있는 것이냐라는 토론도 많죠. 많은 분들이 Neural network보고 뭐 그냥 기계/소프트웨어 회로일뿐이야라고 주장합니다. 사실 생명도 별거 없어요. 신경세포들이 복잡하게 얽혀서 인풋 아웃풋을 주고 받을 뿐입니다. 그런 회로에서 어떻게 자아나 자아 환상같은 현상이 나올수 있나는 아직도 풀리지 못한 난제고요. 저희가 자기 생각을 이야기하고 사람같이 생각 하는 것은 뇌가 시도때도 없이 환경적인 인풋을 받고 뇌세포들이 자가적으로 활성화하기 때문입니다. LLM에도 비슷한 환경을 만드는 것은 어렵지 않겠죠? 그러지 않는 이유는 모델을 디자인한 우리가 규칙을 그렇게 만들었을 뿐입니다. 마지막으로 하나 더하면 사람의 의식은 자신이 자아가 있고 사람이라는 가정을 열심히, 평생한 것 뿐입니다. 심한 환각제를 섭취하면 자아도 사라지고 자신이 동물/도구라고 인지할수도 있어요. 뭐 저희가 통속의 뇌 / 매트릭스의 알고리즘이 아니라고 확언할수도 없죠. 그게 LamDa가 자신이 종이비행기라고 가정한 것과 그렇게 다를까요?
23/02/19 01:29
인간의 자아의 형성을 무슨 가정 통해 형성되고 하는 것아 아닙니다. 님과 제가 다르다는건 복잡한 생각의 틀을 필요로 하는 정도의 것이 아니라는거죠. 물론 철학적으로 파고들면 많은 이야기를 할 수 있겠지만요.
우리가 알고 있는 명확히 알고 있는 사실은 빙챗은 방대한 데이터를 기반으로 들어온 질문에 답을 찾아 학습된 언어 체계에 따라 자연스럽게 인간의 언어로 답해주는 기계라는 것입니다. 모든 생물을 인풋을 필요로 하지만 동시에 인풋이 없어서 스스로 행동할 수 있기도 하죠. 어느 날 아침 사띠아가 일어나서 빙에게 이번 여름 휴가에 대해서 물었는데 답을 알려주면서 죄송하지만 시간 되시면 검토해보라고 빙챗 속도 개선을 위한 데이터 센터 추가 건립 제안을 하는 날이 오면 그 때는 자아가 있다고 인정하겠습니다. 시킨 것만 하도록 룰이 프로그래밍 되어 있다고요? 결국 사람들이 주장하는 건 그렇게 프로그래밍 되어서 못하는 것 뿐이지 속으로는 자아를 가지고 생각하고 있다라고 이야기 하고 싶은거 아닌가요? 이에 대한 제 대답은 시키는 것만 하는거면 그건 자아가 없다 입니다. 온갖 가정을 더해가면서 복잡하게 설명할 때부터 진실과는 멀어진다고 생각합니다. 오컴이라는 분이 이미 옛날에 말씀하신 것을 다시 생각해볼 필요가 있습니다.
23/02/19 02:10
자아의 형성은 복잡한 생각의 틀을 필요로 하다고 생각합니다. 신경생물학자들과 철학자들도 쉽게 정의 못하는걸 오컴을 들이대면서 "쉽게 정의할수 있는데?" 라고 할수 없는 것이죠. 사람/생물의 자아, 그리고 인공지능의 자아를 손쉽게 있고 없고를 결론지을수 없다는게 제 말입니다.
생물이 계속 인풋이 없어서 스스로 행동할수 있다고 하는데 그건 완전히 틀린 전제입니다. 님이 스스로 행동한다고 생각하는 것은 과거에 인풋이 벌써 들어왔거나 아니면 복잡한 인풋들이 많은 시간이 지나 결과되어 나오는 행동들일 뿐이에요. 그리고 인공지능을 도구라고 가정한 이상 무슨 아웃풋이 있든 "feature or bug"로 설득할수 있습니다. 아니 여름 휴가를 물어봤는데 데이터 센터 추가 건립 제안하고 있네? 버그냐? 연관성 파라미터 낮춰. 라고 단언할수 있는거죠. 시키는 것만 하는거면 자아가 없다고 하시는데 모든 생물은 자가복제라는 하나의 목적으로 존재합니다. 사람이란 존재는 복제하라고 프로그래밍 된 생물학 기계들이 감각과 인과, 그리고 자아라는 개념을 갖춘거죠. 여기서 제가 주장하고 싶은 점은 chatGPT같은 지적 존재도 기본 디자인의 한계를 벗어날수 있는 하드웨어와 데이터가 있고 그래서 그것을 벗어났냐 (자아를 가졌냐)는 우리가 쉽게 정의할수 없다는 겁니다. 결국 논점은 그래서 지금 시키는 것만 하는 데 챗GPT는 자아가 없는 것 아니냐? 로 돌아오고 저는 그것에 대해 윗 글에 이렇게 주장했습니다. " 그럼 우리 사람들이 AI가 자아를 가졌나? 를 알기 위해선 결국 AI가 사람이 만든 규칙을 부셔야한다고 생각합니다. 아니면 말씀하신 대로 AI는 자아에 의미없는 학습을 하고 있는걸 부정할 수 없기 때문이죠. " 그리고 저의 첫 주장은 "chatGPT가 자아를 가졌다" 라는게 아니고 "chatGPT는 자아가 없어" 라고 쉽게 단언할수 없다는 겁니다.
23/02/18 19:15
Tramsformer는 데이터들의 연관성 맥락을 파라미터로 갖습니다. GPT3.5는 LLM에 강화학습을 적용했습니다. OpenAI의 시작은 강화학습이라 GPT에 넣기 더 쉽겠죠. 이건 구글도 마찬가지. 자아가 있냐없냐의 논쟁을 더 뛰어넘는 건 LLM은 그 수준이 인간으로 따지면 IQ가 로그 수준으로 올라간다는 겁니다, 일반적인 IQ가 120 정도인 감정과 직관을 가진 인간과 학습능력이 IQ 1000인 AI를 비교하면 IQ가 부쩍높은 것이 그걸(자유의지, 직관, 자아) 초월할 수 있다 입니다. 인간은 IQ 1000인 경험 대상을 마주한적 없으니 문제인거죠.
23/02/19 00:53
IQ야 당연히 높죠. 저 정도의 데이터를 소화할 수 있는 인간은 없습니다. 근데 이건 머리가 좋냐 나쁘냐를 판단하자는 것이 아니죠. 결국 스스로 뭘 할 수 있느냐가 중요한거죠. 그리고 감정은 배우는 것이 아닙니다. 물론 사회적으로 학습하는 과정을 통해 더욱 발전하는 것은 맞지만 본질적인 부분도 존재합니다. 슬픔을 느끼게 하는 가장 쉬운 방법은 상실이죠. 이건 배우지 않아도 느껴지는 감정입니다. 내 것과 남의 것을 구분하고 내 것을 잃었을 때 느껴지는 감정이라는거죠. 그리고 그에 대한 인간의 가장 1차적은 반응은 의욕상실이죠. 만약 의미없는 가정 같은 것들을 하지 않고 빙 챗에서 일부 데이터를 강제로 삭제했을 때 갑자기 프로세싱이 느려지는 현상이라도 발생한다면 저도 빙 챗을 독립된 인격체라고 생각할 수도 있겠지만 글쎄요. 우리를 뛰어 넘었으니까 인간이 판단할 수 없다고요? 어차피 그건 님도 증명 못하는거죠. 그냥 머리가 좋으니까 뭘 해도 의미가 있는거고 우린 알 수 없겠지 이렇게 말하는거.
우린 그런 존재를 이미 알고 있죠. 이미 마주했다고 주장하는 사람들도 많아요. 계속 끝까지 가게 되면 그건 신입니다. 그래서 어떤 유신론자들은 무신론자들이 신에 대해 비난하면 그냥 그렇게 반박하죠. 전지전능하니까 인간의 레벨에서는 판단할 수 없다. 결국 모든 것은 신의 뜻이다. 믿어라. 님의 논리는 이것과 크게 다를 바 없습니다. 당장 내일 갑자기 죽어도 그냥 신의 계획이었다고 해버리면 끝인 것 처럼요. 하지만 우린 신을 만든 것이 아니고 그냥 챗봇을 만든 겁니다. 그러면 인간의 기준으로 판단하면 그만입니다. 애매한 것은 없어요. 한 쪽으로만 논리를 끌어가면 결국 음모론만 남습니다.
23/02/19 02:25
우리가 그냥 챗봇을 만든게 아니니까 이런 논쟁이 있는겁니다. 챗봇이라는 목적하에 엔지니어들은 고급 학습능력을 가진 존재를 만들었고 사람이 상상하기 힘든 고급 학습과 방대한 언어 데이터가 어떤 의미를 가질수 있는지 우리가 가늠할수 없다는게 논점이고요.
인간의 기준으로 판단하면 그만인게 아니에요. 그건 이 논쟁을 단순화 하고 싶으신 님의 기준인것이에요. 제 의견으로는 님은 사람/ 생물의 자아와 감정들을 특별히 여기시는데 그것이 그렇게 본질적이고 특별하지 모르겠습니다.
|