ChatGPT와 다른 인공지능 챗봇들과 충분히 시간을 보내면, 그들이 거짓말을 하는 것이 오래 걸리지 않습니다.
이것은 환각이라고 묘사되기도 하고, 혼란이나 단순히 사실을 지어내는 것으로 묘사되기도 합니다. 이제 모든 기업, 조직, 그리고 생성 AI 시스템을 사용하여 문서를 작성하고 업무를 처리하려는 고등학생들에게도 문제가 되고 있습니다. 일부는 심리치료부터 법률 브리핑을 연구하고 작성하는 것에 이르기까지 고위험 결과를 초래할 수 있는 작업에 이를 사용하고 있습니다.
Anthropic의 공동 창립자이자 회장인 Daniela Amodei는 “오늘날 어떤 모델이든 일부 환각에서 벗어나지 않는다고 생각하지 않는다”고 말했습니다. “그들은 그저 다음 단어를 예측하기 위해 설계된 것일 뿐입니다.” 그녀는 말했습니다. “그래서 모델이 그것을 부정확하게 예측하는 비율이 어느 정도 있을 것입니다.”
Anthropic, ChatGPT 제작자인 OpenAI 및 다른 주요 AI 시스템 개발자들은 그들이 보다 진실되게 만들려고 노력하고 있다고 말합니다.
그것이 얼마나 오래 걸릴지 — 그리고 그들이 예를 들어, 안전하게 의료 조언을 제공할 만큼 충분히 좋아질 수 있을지 여부는 아직 미지수입니다.
“이것은 고칠 수 없습니다.”라고 워싱턴 대학의 언어학 교수이자 워싱턴 대학의 계산 언어학 연구소의 소장인 Emily Bender가 말했습니다. “기술과 제안된 사용 사례 사이의 불일치에 내재되어 있습니다.”
생성 AI 기술의 신뢰성에 많은 것이 달려있습니다. McKinsey Global Institute는 이것이 세계 경제에 2.6조 달러에서 4.4조 달러를 추가할 것으로 예상합니다. 챗봇은 이번 열풍의 일부일 뿐이며, 이에는 새로운 이미지, 비디오, 음악, 컴퓨터 코드를 생성할 수 있는 기술도 포함됩니다. 대부분의 도구에는 일부 언어 구성 요소가 포함되어 있습니다.
Google은 이미 정확성이 매우 중요한 뉴스 기관에게 뉴스 작성 AI 제품을 판매하고 있습니다. Associated Press도 OpenAI와의 파트너십의 일환으로 이 기술의 사용을 탐색하고 있으며, 이를 위해 AP의 텍스트 아카이브 일부를 사용하여 AI 시스템을 개선하기 위한 비용을 지불하고 있습니다.
인도의 호텔 경영 학원과 협력하여 컴퓨터 과학자 Ganesh Bagler는 수년 동안 AI 시스템들, ChatGPT 전신을 포함하여, 남아시아 요리의 레시피를 발명하도록 하고 있습니다. “환각된” 단일 재료는 맛있는 음식과 먹을 수 없는 음식 사이의 차이가 될 수 있습니다.
OpenAI의 CEO인 Sam Altman이 6월에 인도를 방문했을 때, Indraprastha 정보 기술 대학의 교수였던 그는 몇 가지 중요한 질문을 했습니다.
“ChatGPT에서의 환각은 아직 받아들일 수 있지만, 레시피가 환각을 내뱉으면 심각한 문제가 됩니다.” Bagler는 미국 기술 경영자의 세계 투어 중 New Delhi에서 Altman에게 말하며 대강당에서 일어섰습니다.
“당신은 이에 대해 어떻게 생각하십니까?” Bagler는 결국 물었습니다.
Altman은 확실한 약속이 아닌 최적주의를 표현했습니다.
“우리는 환각 문제를 훨씬, 훨씬 나은 곳으로 가져갈 것이라고 생각합니다.” Altman은 말했습니다. “우리에게는 1년 반, 2년 정도 걸릴 것 같습니다. 그런 것 같습니다. 하지만 그 시점에서 우리는 이런 것들에 대해 이야기하지 않을 것입니다. 창의성과 완벽한 정확성 사이에는 균형이 필요하며, 모델은 언제 하나를 원하는지 배워야 합니다.”
하지만 워싱턴 대학의 언어학자인 Bender와 같은 기술을 연구한 일부 전문가들에게는, 그 개선사항들은 충분하지 않을 것입니다.
Bender는 언어 모델을 “주어진 일부 작성 데이터에 따른 다양한 단어 형태 문자열의 가능성을 모델링하는 시스템”으로 묘사합니다.
그것은 당신이 잘못된 단어를 입력했을 때 철자 검사기가 감지할 수 있는 방법입니다. 또한 자동 번역 및 표기 서비스를 지원하며, “목표 언어에서 보다 전형적인 텍스트처럼 보이도록 출력을 부드럽게 만든다.” Bender는 말했습니다. 많은 사람들은 텍스트 메시지나 이메일을 작성할 때 “자동완성” 기능을 사용할 때 이 기술의 버전에 의존합니다.
ChatGPT, Claude 2 또는 Google의 Bard와 같은 최신 챗봇들은 이것을 다음 단계로 가져가려고 시도하며, 전체 새로운 텍스트 구절을 생성하려고 하지만 Bender는 그들이 여전히 가장 그럴듯한 다음 단어를 반복적으로 선택하는 것일 뿐이라고 말합니다.
텍스트를 생성하는 데 사용될 때, 언어 모델들은 “사실을 만들어내도록 설계되었습니다. 그것만 할 뿐입니다.” Bender는 말했습니다. 그들은 법률 계약서, 텔레비전 시나리오, 소네트 등의 글쓰기 형태를 흉내내는 데 뛰어납니다.
“하지만 그들은 항상 사실만을 만들어내므로, 그들이 내놓은 텍스트가 우리가 옳다고 판단하는 것으로 해석될 수 있는 경우, 그것은 우연일 뿐입니다.” Bender는 말했습니다. “그들이 대부분의 경우에 맞게 조정될 수 있더라도, 그들은 여전히 실패 모드를 가질 것입니다 — 그리고 실패는 아마도 텍스트를 읽는 사람이 주목하기 어려운 경우일 가능성이 큽니다. 왜냐하면 그것들은 더욱 무시당하기 때문입니다.”
그러한 오류들은 Jasper AI에게 도움을 청하는 마케팅 회사들에게 큰 문제가 아닙니다, 회사의 대통령인 Shane Orlick는 말합니다.
“환각은 실제로 추가적인 보너스입니다.” Orlick는 말했습니다. “우리는 항상 고객들로부터 어떻게 Jasper가 아이디어를 생각해냈다고 듣습니다 — Jasper가 스스로 그들이 절대로 생각하지 못할 스토리나 각도를 창조했다고 말하는 것입니다.”
Texas에 기반을 둔 이 스타트업은 OpenAI, Anthropic, Google 또는 Facebook 부모 회사인 Meta와 같은 파트너와 함께 작업하여 고객들에게 그들의 필요에 맞춘 AI 언어 모델의 스모르가스보드를 제공합니다. 정확성에 관심이 있는 사람에게는 Anthropic의 모델을 제공할 수 있으며, 독점적인 출처 데이터의 보안에 관심이 있는 사람에게는 다른 모델을 제공할 수 있습니다, Orlick는 말합니다.
Orlick는 환각 문제가 쉽게 고쳐지지 않을 것임을 안다고 말합니다. 그는 Google과 같은 회사들이 많은 에너지와 자원을 해결책에 집중하도록 할 것이라고 생각합니다.
“저는 그들이 이 문제를 해결해야 한다고 생각합니다.” Orlick는 말했습니다. “그들은 이 문제를 해결해야 합니다. 그래서 저는 이것이 완벽하게 될지 여부를 모르겠지만, 아마도 시간이 지남에 따라 계속해서 나아질 것입니다.”
Microsoft 공동 창립자인 Bill Gates를 포함한 기술 최적주의자들은 밝은 전망을 예상해왔습니다.
“AI 모델들이 사실과 허구를 구분하는 방법을 배울 수 있을 것으로 생각합니다.” Gates는 AI의 사회적 위험에 대한 자신의 생각을 자세히 설명하는 7월의 블로그 게시글에서 말했습니다.
그는 OpenAI에서 2022년에 발표한 논문을 “이 분야에서 유망한 작업”의 예로 들었습니다.
그러나 Altman조차도 자신이 정보를 찾기 위해 모델들에 의존하지 않으면서 제품을 다양한 용도로 판매합니다.
“저는 아마도 ChatGPT에서 나오는 답변을 가장 믿지 않습니다.” Altman은 Bagler의 대학에서 군중에게 이렇게 말하며 웃음소리를 일으켰습니다.