ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • ChatGPT Is A Blurry JPEG Of The Web - 테드창
    ✨ AI 2023. 4. 22. 18:48

    ChatGPT Is A Blurry JPEG Of The Web 

    By Ted Chiang, Feb 09, 2023

     

    Link : https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

     

     

    ChatGPT는 웹의 흐릿한 JPEG이다. 

    OpenAI 챗봇은 paraphrase(다른말로 바꾼 말)을 주는 반면 Google은 인용문을 준다. 우리는 어떤 걸 더 선호할까?

     

    2013년도에, 독일 건설회사의 근로자들이 Xerox 복사기에서 이상한 점을 하나 발견했다. 집의 평면도 사본을 만들었을 때 사본은 원본가 미묘하지만 중요한 방식으로 달랐다. 원본 평면도에서는, 집의 각 3방에 면적이 표시된 정사각형이 붙어 있었는데 방의 각 면적은 14.13, 21.11, 17.42 제곱 미터로 표시되어 있었다. 그러나 복사본에는 세 방 모두 14.13으로 표시되어 있었고 이 회사는 컴퓨터 사이언스 데이비드에게 연락해 겉보기에 이 믿을 수 없는 결과를 조사했다. 현대의 Xerox 복사기는 1960년대에 대중화되었던 physical xerographic process를 사용하지 않기 때문에 컴퓨터 과학자가 필요했다. 문서를 디지털로 스캔한 다음, 결과 이미지 파일을 인쇄할 때 거의 모든 디지털 이미지 파일이 메모리를 절약하기 위해 압축된다는 사실을 결합하면 수수께끼에 대한 해결책이 나오기 시작한다.

     

    파일을 압축하기 위해서는 2step이 필요하다. 첫번째로는 파일이 더 압축된 형식으로 변환되기 위한 인코딩 단계이고 그 다음 인코딩 프로세스를 역순으로 진행하는 디코딩이다. 만약 복구된 파일이 원본 이미지와 같으면 압축 프로세스는 정보 손실이 없다고 표현된다. 반면 만약 복구된 파일이 원본의 근사치일 뿐이면, 압축이 손실된 것으로 설명되고 일부 정보가 삭제되어 복구할 수 없게 된다. 무손실 압축은 일반적으로 텍스트 파일과 컴퓨터 프로그램에서 사용되는데, 이는 단 하나의 잘못된 문자로도 치명적인 결과를 초래할 수 있는 영역이기 때문이다. 손실 압축은 종종 사진이나 오디오, 비디오 등에서 사용되는데 절대적인 정확도가 중요하지 않기 때문이다. 대부분의 경우 사진, 노래, 동영상이 완벽하게 재현되지 않아도 알아차리지 못한다. 파일 압축률이 매우 높을 때만 음질 손실을 더 잘 느낄 수 있다. 이러한 경우 압축 artifacts라고 하는 것은 가장 작은 크기의 jpeg, mpeg 이미지가 흐릿하거나, 낮은 비트 전송률의 mp3로부터 소리가 작은 것을 확인할 수 있다.

     

    Xerox 복사기는 JBIG2로 알려진 손실 압축 포맷을 사용하고 이는 흑백 사진을 위해 사용된다. 공간을 절약하기 위해 복사기는 이미지에서 비슷하게 보이는 영역을 식별하고, 모든 영역에 대한 단일 복사본을 저장한다. 이 파일이 압축 해제될 때, 복사본을 반복적으로 사용해 이미지를 재구성한다. 그래서 복사기는 방의 며적을 지정하는 라벨이 비슷하다고 판단해 그 중 하나(14.13)만 저장하면 된다고 판단해 평면도를 인쇄할 때 세 방 모두에 그 라벨을 재사용한 것으로 밝혀졌다. 

     

    Xerox 복사기가 무손실 압축 형식이 아닌 손실 압축을 사용한다는 사실 자체는 문제 되지 않지만, 문제는 복사기가 압축 artifacts를 즉시 알아볼 수 없는 미묘한 방식으로 이미지를 저하시킨다는 점이다. 복사기가 단순히 흐릿한 출력물을 생셩했다면 누구나 원본을 정확하게 복제하지 않았다는 것을 알 수 있지만, 복사기가 읽을 수는 있지만 부정확한 숫자를 복사하여 복사본이 정확하지 않아도 정확한 것 처럼 보이게 만든다는 사실에 있었다.(2014년에 Xerox는 이 문제를 해결하기 위한 패치를 했다고 한다.)

     

    AI 연구자들이 대규모 언어 모델이라고 부르는 OpenAI의 ChatGPT와 유사한 프로그램을 고려할 때, Xerox 복사기 사건은 오늘날 염두어야 할 가치가 있다고 생각한다. 복사기와 대규모 언어 모델간 유사한 점이 바로 보이지는 않을 수 있지만 시나리오를 하나 고려해보자. 인터넷에 영원에 접속할 수 없다고 상상해보자. 이에 대비해 웹에 있는 모든 텍스트의 압축 사본을 만들어 개인 서버에 저장할 계획이다. 안타깝게도 개인 서버에는 필요한 공간의 1%만 제공되어 모든 내용을 모두 저장하는 무손실 압축 알고리즘을 사용할 수 없다. 대신 텍스트에서 통계적 규칙성을 식별하는 무손실 압축 알고리즘을 사용해 특수한 파일 형태로 저장한다. 이 작업에는 사실상 무제한의 계산 능력을 사용할 수 있어 알고리즘은 매우 미묘한 통계적 규칙성을 식별할 수 잇고 이를 통해 원하는 압축 비율을 100:1로 달성할 수 있었다.

     

    이제 인터넷이 없어도 웹의 모든 정보가 서버에 있기 때문에, 그렇게 끔찍한 일은 아니게 된다. 문제는 텍스트가 매우 압축되어 있어 정확한 인용문을 검색해 정보를 찾을 수 없고, 단어가 저장되어 있지 않아 절대 정확히 일치하는 정보를 얻을 수 없다는 것이다. 이 문제를 해결하기 위해 질문 형태의 쿼리를 받고 서버에 있는 요약만 전달하는 답변으로 응답하는 인터페이스를 만들 수 있을 것이다.

     

    여기서 설명한 내용은 ChatGPT 또는 다른 대부분의 대규모 언어 모델과 유사하게 보일 것이다. ChatGPt는 웹에 있는 모든 텍스트를 흐릿하게 처리한 JPEG이라고 생각하면 된다. 고해상도 이미지가 많은 정보를 보존하는 것과 마찬가지로 웹 상의 많은 정보를 보존하지만, 정확한 비트 시퀀스를 찾을 수 없고 그에 해당하는 근사치만 얻을 수 있다. 하지만 이 근사치는 문법적인 텍스트의 형태로 제공되고 ChatGPT는 이를 생성하는데 탁월하다. 여전히 흐릿한 JPEG를 보고 있지만 흐릿함이 전체적으로 사진의 선명도를 떨어뜨리지 않는 방식으로 발생한다.

     

    손실 압축에 대한 비유는 단순히 웹에서 찾은 정보를 다른 단어로 재포장하는 ChatGPT의 기능을 이해하는 방법뿐만이 아니다. ChatGPt와 같은 대규모 언어 모델에서 발생하기 쉬운 "hallucinations,(환각)" 또는 사실에 근거하지 않은 무의미한 답변(nonsensical answers)을 이해하는 방법이기도 하다. 이러한 환각은 압축 artifacts이지만 Xerox 복사기에서 생성된 잘못된 라벨처럼 원본과 비교해야지 직접적으로 식별할 수 있을 정도로 그럴듯하고, 여기서 원본은 웹 또는 우리 자신의 지식을 의미한다. 원본의 99%가 폐기된 후 텍스트를 재구성하도록 설계된 압축 알고리즘이라면, 생성된 텍스트의 상당 부분이 완전히 조작될 것으로 예상해야 한다.

     

    소실 압축 알고리즘이 보간, 즉 간격의 양쪽에 있는 것을 보고 이 사이의 차이를 추정하는 것, 이라는 것을 기억하면 이 비유가 더 이해가 될 것이다. 이미지 프로그램이 사진을 표시할 때 압축 과정에서 손실된 픽셀을 재구성하기 위해서 주변 픽셀을 보고 평균을 계산한다. 예를 들어 건조기 안에서 양말을 잃어버린 상황을 미국 독립 선언서 스타일로 설명하라는 메세지가 들어오면 ChatGPT는 어휘 공간에서 두 점을 가져와 그 사이의 위치를 차지할 텍스트를 생성하는 것이다. ChatGPT는 이러한 형태의 보간에 매우 능숙해 사람들이 사진 대신 단락을 위한 흐림 도구를 발견하고 이를 재밌게 사용하고 있다.

     

    ChatGPT와 같은 대규모 언어 모델이 종종 AI의 최첨단으로 찬사를 받는 다는 점을 고려할 때, 이를 손실 텍스트 알고리즘으로 설명하는 것은 ChatGPT를 무시하거나 비하하는 것 처럼 들릴 수 있다. 저자는 이러한 고나점이 대규모 언어모델을 의인화 하는 경향에 대한 유용한 대안을 제공한다고 생각하지만, 압축에 비유하는 관점이 필요한 또 다른 이유도 있다. 2006년에 Marcus Hutter라는 AI 연구원이 특정 Wikipedia 스냅샷을 이전 수상자보다 더 작게 무손실 압축하는 사람에게 상금과 'Compressing Human Knowledge Prize or Hutter Prize'라는 상을 수여했다. zip이라는 포맷을 가진 압축 파일을 본 적이 있을 것이다. zip은 Hutter의 1기가 바이트 파일을 약 300메가 바이트로 줄였는데 가장 최근 수상자는 이를 1.15 메가바이트로 줄이는데 성공했다. 이는 단순한 스무딩 연습이 아니다. Hutter는 더 나은 텍스트 압축이 인간 수준의 인공지능을 만드는 데 중요한 역할을 할 것이라고 믿고 있으며 그 이유는 텍스트에 대한 이해함으로써 가장 높은 수준의 압축을 달성할 수 있기 때문이다.

     

    "이해와 압축"의 관계를 이해하기 위해, 덧셈, 뺄셈, 곱셈, 나눗셈을 포함하고 있는 텍스트 파일이 있다고 가정해보자. 어떤 압축 알고리즘이든 파일의 사이즈를 줄일 수 있지만, 가장 좋은 압축율을 보이는 알고리즘은 아마도 산술에 대한 원리를 도출하고 계산기 프로그램을 위한 코드를 작성하는 것일 것이다. 계산기를 사용하면, 당신은 단지 수만개의 예제를 복구할 수 있을 뿐 아니라, 미래에 마주칠 어떤 산술 예제든 복구할 수 있을 것이다. 위키피디아 예제로 같은 원리를 적용해 압축할 수 있다. 만약 압축 프로그램이 힘이 질량 곱하기 가속도라는 것을 알고 있다면, 물리학에 관한 페이지를 압축할 떄 많은 단어를 재구성할 수 있기 때문에 많은 단어를 버릴 수 있게 된다. 마찬가지로 경제학에 관한 페이지를 압축할 때, 프로그램이 수요와 공급에 대해 더 많이 알고 있다면 더 많은 단어를 버릴 수 있다.

     

    대규모 언어 모델은 텍스트에서 통계적인 규칙성을 식별할 수 있다. 웹의 텍스트의 어떤 분석하면 "공급이 부족하다"와 "가격이 상승한다"가 가까운 곳에 자주 나타는 것을 알 수 있다. 이러한 상관관계를 통합한 챗봇은 공급 부족에 대한 영향에 대한 질문을 받으면 가격 상승에 대한 답변으로 응답할 수 있다. 대규모 언어모델이 경제 용어 간의 방대한 상관관계를 수집하여 다양한 질문에 대해 그럴듯한 답변을 제공할 수 있는 것과, 실제 경제 이론을 이해하고 있다는 것이 같다고 말할 수 있을까? ChatGPT와 같은 모델은 여러 가지 이유로 Hutter 상의 수상 자격이 없는데, 그 중 하나는 원본 텍스트를 정확하게 재구성하지 않는 다는 것, 즉 무손실 압축을 수행하지 않는다는 점에서이다. 하지만, AI 연구자들이 관심을 갖는 종류의 진정한 이해를 그럼에도 불구하고 나타낼 수 있을까?

     

    산술의 예로 다시 돌아가서 GPT-3에 숫자 한 쌍을 더하거나 빼라고 요청하면 숫자가 두 자리만 있을 때는 거의 정답을 이야기한다. 하지만 숫자가 커질수록 정확도가 크게 떨어며, 숫자가 다섯 자리일 때는 정확도가 10%까지 떨어진다. 예를 들어 "245+821"이라는 텍스트가 포함된 웹 페이지는 많지 않기 때문에 GPT-3가 제공하는 정답의 대부분은 웹에서 찾을 수 없기 때문에 단순 암기가 되지 않는다. 하지만 방대한 양의 정보를 수집했음에도 불구하고 산술의 원리를 도출해내지는 못했다. GPT-3의 오답을 잘 살펴보면 산술할 때 1이 포함되어 있지 않다는 것을 알 수 있다. 웹 상에서는 분명히 1을 포함하는 것에 대한 설명이 포함되어 있지만 GPT-3는 이런 설명을 통합할 수 없다. GPT-3는 산술의 예에 대한 통계적 분석을 통해 실제에 대한 피상적인 근사치를 생성할 순 있지만 그 이상은 불가능하다.

     

    GPT-3가 있을 때, 초등학생 수준의 주제에 대한 것은 실패하면서 대학교 수준의 에세이 라이팅은 잘쓰는지에 대해서 우리는 어떻게 설명할 수 있을까? 대규모 언어 모델이 종종 환각을 일으키지만, 언어 모델의 대답이 명료할 때 실제로 경제 이론과 같은 주제를 이해하는 것 처럼 들린다. 아마도 산술은 대규모 어어 모델이 적합하지 않은 특별한 경우일 것이다. 덧셈과 뺄셈 외의 영역에서 텍스트의 통계적 규칙성이 실제로 현실 세계에 대한 진정한 지식과 상응 되는 것이 가능할까?

     

    내 생각엔 더 간단한 설명이 있다. 만약 ChatGPT가 무손실 알고리즘이라면 어떤 모습일지 상상해봐라. 만약 그렇게 되면 항상 연관된 웹 페이지로부터의 인용구를 제공하면서 대답할 것이다. 그러면 우리는 아마도 원래의 검색 엔진보다 아주 약간 향상된 소프트웨어로 여길 것이고 그것은 덜 인상적이 었을 것이다. ChatGPT 가 단어 단위로 웹에 있는 것을 인용하는 것 대신에 웹의 자료를 다시 표현한다는 사실은 단순히 그녀가 읽은 것을 되풀이하기보다, 자신의 언어로 아이디어를 표현하는 학생처럼 보이게 한다. 그리고 그것은 ChatGPT가 자료를 이해한다는 환상을 만들어낸다. 사람 학생들의 경우에는 암기는 진정한 학습 지표가 아니므로 ChatGPT가 웹 페이지에서 정확한 인용문을 생성할 수 없다는 것을 우리가 무언가 배웠다고 생각하게 만든다. 우리가 단어 시퀀스를 다룰 때 무손실 압축보다 손실 압축이 더 똑똑해 보인다.

     

    대규모 언어 모델을 위한 많은 사용방법이 제시되었다. 대규모 언어 모델을 흐릿한 JPEG로 생각하는 것은 언어 모델이 적합하거나 적합하지 않은 경우가 무엇인지 평가할 수 있는 방법을 제공한다. 몇 가지 시나리오를 생각해보자. 

     

    대규모 언어 모델이 전통적인 검색 엔진을 대체할 수 있을까? 이에 대해 자신하기 위해, 우리는 대규모 언어 모델이 선전과 음모론이 투입되지 않았다는 것을 알아야할 것이다. 우리는 JPEG이 웹의 올바른 섹션을 캡쳐하고 있다는 것을 확인해야 하지만, 대규모 언어 모델이 우리가 원하는 정보만 포함해도 여전히 흐릿한 문제가 있다. 받아들일 수 있는 흐릿함이 있는데 이는 정보를 다른 단어로 다시 표현하는 것이다. 그리고 우리가 사실을 찾을 때 용납할 수 없는 노골적인 조작의 흐릿함도 있다. 허용 가능한 종류의 흐릿함을 유지하면서 허용되지 않은 종류의 흐릿함을 제거하는 것이 기술적으로 가능한지는 명확하지 않지만 가까운 시일내에 밝혀질 것으로 기대한다.

     

    대규모 언어 모델이 조작에 관여하지 못하도록 제한할 수 있다고 해도 웹 콘텐츠를 생성하는데 사용해야 할까? 이는 이미 웹에서 사용할 수 있는 정보를 재포장하는 것이 목적일 때만 의미가 있다. 이를 위해 일부 존재하는 기업들은 보통 "content mills"라고 한다. 아마도 이들에게 저작권 침해를 피하는 방법으로는 대규모 언어 모델의 흐릿함이 유용할 것이다. 하지만 일반적으로 content mills에 좋은 것은 정보를 검색하는 사람들에게는 좋지 않다는 것을 말하고 싶다. 이러한 유형의 리패키징이 증가하면서 현재 온라인에서 원하는 정보를 더 찾기 어려워졌고 대규모 언어 모델에 의해 생성된 켁스트가 웹에 더 많이 올라올 수록 웹은 더 흐릿한 버전이 되어가고 있다.

     

    OpenAI가 곧 출시한다고 하는 ChatGPT의 후속 버전 GPT-4에 대한 정보는 거의 없다. 하지만 한 가지 예측을 해보자면, GPT-4를 학습시키는 데 사용되는 방대한 양의 텍스트를 수집할 때 OpenAI 개발자들은 ChatGPT나 다른 대규모 언어 모델에서 생성된 자료를 제외하기 위해 많은 노력을 들였을 것이다. 만약 이것이 사실이라면 이는 대규모 언어 모델과 손실 압축 사이의 유추가 유용하다는 것을 의도치 않게 확인하게 되는 역할을 할 것이다. JPEG을 반복적으로 저장하면 매 번 더 많은 정보가 손실되기 때문에 압축 artifacts가 더 많이 생성된다. 이는 옛날에 복사본을 반복적으로 복사하는 것과 디지털적으로 동일하다. 이미지 품질은 더 나빠질 뿐이다.

     

    게다가, 실제로 대규모 언어 모델의 품질을 측정하는데 유용한 기준은 회사에서 생성한 텍스트를 새 모델의 학습 자료로 사용하려는 의지가 있느지에 대해 달려있다. 만약 ChatGPT의 결과가 GPT-4를 위해서 좋지 않다면, 우리는 아마도 ChatGPT가 충분하지 않다는 지표로 받아들일 수 있다. 반대로, 모델이 새 모델을 학습시키는데 사용할 수 있는 정도로 좋은 텍스트를 생성하기 시작하면 해당 텍스트의 품질에 대한 확신을 가질 수 있다. (이러한 결과를 얻기 위해서는 이러한 모델을 구축하는 데 사용되는 기술에 획기적인 발전이 있어야 할 것이다.) 모델이 입력만큼 좋은 결과물을 만들어내기 시작한다면 손실 압축의 비유는 더 이상 적용되지 않을 것이다.

     

    대규모 언어 모델이 인간의 독창적인 글쓰기에 도움을 줄 수 있을까? 이 질문을 위해서는 이 질문의 의미를 구체적으로 정의할 필요가 있다. 예술가들이 복사기의 독특한 특성을 창의적 도구로 사용하는 Xerox 아트 또는 복사 아트라는 예술 장르가 있다. 그런 의미에서 ChatGPT라는 복사기로도 그런 예술이 가능하기 때문에 대답은 "예"이다. 하지만 복사기가 예술 창작에 필수적인 도구가 되었다고 말하는 사람은 아무도 없을 것이다. 대다수의 예술가들은 창작 과정에서 복사기를 이용하지 않으며 그런 선택으로 인해 불이익을 받는다고 주장하는 사람들도 있다.

     

    Xerox 아트와 유사한 새로운 장르의 글쓰기에 대해 이야기하는 것이 아니라고 가정해보자.이 규정이 주어졌을 때, 대규모 언어 모델에서 생성된 텍스트가 소셜이던, 비소설이던 작가가 독창적인 글을 쓸 때 유용한 출발점이 될 수 있을까? 대형 언어 모델에 상용구를 처리하도록 맡기면 작가가 정말 창의적인 부분에 집중할 수 있을까? 대규모 언어 모델에 상용구를 처리하도록 맡기면 작가가 정말 창의적인 부분에 집중할 수 있을까?

     

    물론, 모든 작가를 대변할 수는 없겠지만 독창적이지 않은 흐릿한 복사본으로 시작하는 것은 독창적인 작품을 만드는 좋은 방법이 아니라고 주장하고 싶다. 만약 당신이 작가라면, 당신은 독창적인 어떤 것을 쓰기 이전에 독창적이지 않은 많은 것을 쓸 것이다. 그리고 독창적이지 않은 작품을 쓰는데 들인 시간과 노력은 낭비되는 것이 아니라 오히려 독창적인 작품을 만드는데 밑거름이 된다고 생각한다. 올바른 단어를 선택하고 문장을 더 잘 따라갈 수 있도록 재배열 하는데 소요되는 시간은 산문에서 의미가 어떻게 전달되는지 가르쳐 준다. 학생들에게 에세이를 쓰게 하는 것은 단순히 자료의 이해도를 테스트하는 방법이 아니라 자신의 생각을 명확하게 표현하는 경험을 제공한다. 학생들이 한번도 읽어본 적 없는 에세이를 써야한다면, 한 번도 읽어본 적이 없는 글을 쓰는데 필요한 기술을 결코 습득할 수 없다.

     

    그리고 당신이 학생이 아니게 됬다고 해도 당신이 대규모 언어 모델이 제공하는 템플릿을 안전하게 사용할 수 있는 것도 아니다. 자신의 생각을 표현하기 위한 노력은 졸업한다고 해서 사라지는 것이 아니라 새로운 글의 초안을 작성할 때마다 계속될 수 있다. 때로는 글을 쓰는 과정에서만도 독창적인 아이디어를 발견하기도 한다. 어떤 사람들은 대규모 언어 모델의 결과물이 인간 작가의 초안과 크게 다르지 않다고 할 순 있겠지만 이는 피상적인 유사점이라고 생각한다. 초고는 독창적인 아이디어가 명확하게 표현된 것이 아니고, 독창적인 아이디어가 제대로 표현되지 않은 것이며 여기에는 무형적인 불만, 말하고자 하는 내용과 말한 것에 대한 내용 사이의 거리에 대한 인식이 동반되어 있다. 이것이 바로 재작성 과정에서 사용자가 느끼는 불만이며, 인공지능이 생성한 텍스트로 시작할 때 부족한 부분 중 하나다.

     

    글쓰기에는 마법이나 신비로운 것이 없지만 기존 문서를 신뢰할 수 없는 복사기에 올리고 인쇄 버튼을 누르는 것 이상의 과정이 필요하다. 미래에는 세상에 대한 자신만의 경험을 바탕으로 좋은 산문을 쓸 수 있는 인공지능을 만들 수 있을지도 모른다. 하지만 그 날은 우리가 예측할 수 있는 지평선 너머에 있다. 그 동안 웹을 다시 쓰는 것이 무슨 소용이 있겠냐고 묻는 것은 당연하다. 인터넷에 영원히 접속할 수 없고 제약된 공간의 개인 서버에 사본을 저장해야 하면, ChatGPT와 같은 대규모 언어 모델은 조작을 막을 수 있다는 가정하에 좋은 해결책이 될 수 있다. 하지만 우리는 인터넷에 계속 접근할 수 있다. 그렇다면 원본이 있는데, 흐릿한 JPEG이 얼마나 유용할까?

     

     

     

     

     

     


     

    챗지피티나 다른 인공지능 프로그램을 쓰게 되면 무언가 떠올리는데(예를 들어서 어떤 목적이 있는 글을 썼을 때 그 목적에 맞게 글을 다듬고 싶다거나, 적절한 단어가 생각나지 않아 매치하고 싶을 때, 상황에 맞게 글을 다듬을 때, 코딩 방법이 떠오르지 않을 때 등등) 들어가는 시간을 아주 많이 절약할 수 있다. 그리고 이것은 인공지능 프로그램에서만 해당하는 문제는 아니다. 우리는 무언가 떠오르지 않을 때 바로 검색 엔진을 사용해 검색하기 때문에 수 많은 정보를 저장해놓고 있지 않아도 된다. 하지만 이 방법은 빠른 생산성을 위해 얕은 지식을 습득하게 된다. 그래서 테드창이 마지막 부분에 글을 쓰는데 좋은 것을 쓰기 이전에 쓰여지는 안 좋은 것을 쓰는데 들여지는 많은 시간과 노력이 좋은 것에 대한 밑거름이 된다는 말은 정말 공감이 간다. 하지만 테드창처럼 천재이지 않은 나 같은 사람들은 이렇게 쉽고 빠른 길을 선택하지 않으면 수 많은 정보 속에서 허우적 거리다가 해야할 일을 제 때 끝내지 못하는 것이 다반사이다. 

     

    그래도 지금까지 인류가 발견해낸 모든 이벤트들이 사람들의 삶에서 인류의 생에서 발견될 수 있는 모든 가능한 이벤트들이 모두 포함되어 있다고 생각하면 재미있어진다. 예를 들어서 지금까지 만들어진 음악으로 모든 다른 음악을 비슷하게 재현해낼 수 있다고 하면 인공지능이 음악을 만들어내는 흐름은 자연스럽게 여겨질 것이다. 사람들이 더 이상 새로운 것을 만들어내지 않아도 되고 그런 노력이 의미가 없다면 인공지능이 만들어내는 결과물들을 사용하는 것이 꽤 괜찮은 방법으로 생각될 수도 있다. 물론 더 이상의 새로운 무언가를 사람들이 생성해낼 수 없다는 것을 증명할 수 없겠기도 하고, 증명이 된다고 하더라도 사람들 자신이 생성해낸 것이 오롯이 자신의 것이 아닌 지금까지 있었던 것들의 재생성 또는 조합일 뿐이라고 생각하면 암울해지기도 한다. 우리가 어떤 아티스트에 열광하는 이유는 그 아티스트가 만들어 낸 작품이지 그 아티스트의 작품이 조합된 작품은 아닐 것이다.

     

    테드창의 소프트웨어 객체의 생애 주기라는 작품에서는 인공지능 로봇과 사람 사이의 감정을 다루고 있고 우리가 애정을 쏟는 어떤 대상이 사물이 될 수 있는 것처럼 인공지능으로도 될 수 있다고 얘기하고 있다. (여기서의 애정은 사람->로봇, 이지 로봇-> 사람 은 아니다.) 이 소설에서의 테드 창의 분위기와 위 에세이에서의 분위기는 많이 상이하지만 어떤 곳에서도 인공지능에 대한 낙관적인 이야기는 하고 있지 않다. 테드창이 낙관하는 것은 사람과 삶이다. 해당 에세이에서는 언어 모델을 AGI라고 착각할 수 있다는 것을 경계하자는 이야기를 하고 있고 이는 결국 인공지능을 소프트웨어 객체의 생애 주기에 등장하는 로봇처럼 사람들이 애정을 가질 수 있는 대상이 되도록 하는데 중요할 것 같다.

     

     

     

     

     

    댓글

Designed by Tistory.