기술 전문가들은 ChatGPT와 인공지능의 '환각'이 사라질 수 있을지 의심하기 시작했습니다
AI 대화 모델인 ChatGPT와 다른 인공지능 챗봇과 충분한 시간을 보내면 그들이 거짓 정보를 내뿜는 것은 오래 걸리지 않습니다.
환각, 공허한 이야기, 그냥 헛소리라고 묘사되는 이러한 현상은 이제 모든 기업, 조직 및 고등학생에게 문제가 되고 있습니다. 그들은 생성적 AI 시스템이 문서를 작성하고 작업을 완료하는 데 사용되는 고위험 작업에 사용하고 있습니다. 이 작업은 심리치료부터 법적 요지 조사 및 작성까지 다양합니다.
“오늘날 어떤 모델도 어느 정도 환각을 겪지 않는다고 생각하지 않습니다,”라고 Anthropic의 공동 창업자이자 회장인 Daniela Amodei는 말했습니다. “그들은 정말로 다음 단어를 예측하기 위해 설계된 것 뿐이므로 모델이 부정확하게 예측하는 속도가 있을 것입니다,”라고 Amodei는 말했습니다.
Anthropic, ChatGPT 제작업체인 OpenAI 및 기타 주요 AI 시스템 개발자들은 더욱 진실되도록 개선하기 위해 노력 중이라고 합니다. 그러나 그것이 얼마나 오래 걸릴지 - 그리고 의료 조언을 안전하게 제공할 정도로 충분히 좋아질 수 있는지는 아직 알려지지 않았습니다.
“이 문제는 고칠 수 없습니다,”라고 워싱턴 대학교 컴퓨터언어학 연구실의 언어학 교수이자 소장인 Emily Bender는 말했습니다. “이것은 기술과 제안된 사용 사례 간의 불일치에 내재한 것입니다,”라고 그녀는 말했습니다.
생성적 AI 기술의 신뢰성에 많은 것이 달려 있습니다. McKinsey Global Institute는 이 기술이 전 세계 경제에 2.6조 달러에서 4.4조 달러에 해당하는 가치를 창출할 것으로 예상하고 있습니다. Chatbot은 그 열풍의 일부에 불과하며, 새로운 이미지, 비디오, 음악 및 컴퓨터 코드를 생성할 수 있는 기술도 포함됩니다. 이러한 도구 중 거의 모두 언어 구성 요소를 포함하고 있습니다.
Google은 이미 정확성이 중요한 뉴스 작성 AI 제품을 뉴스 기관에 제안하고 있습니다. Associated Press도 OpenAI와의 파트너십 일환으로 이 기술을 활용하는 방법을 탐색하고 있으며, OpenAI는 AI 시스템을 개선하기 위해 AP의 일부 텍스트 아카이브를 사용하기 위해 지불하고 있습니다.
인도의 호텔 경영 연구소와 협력해 오랜 기간 동안 컴퓨터 과학자 Ganesh Bagler는 South Asian 요리의 새로운 버전인 라이스 베이스의 Biryani 등의 레시피를 AI 시스템(예: ChatGPT 선행 버전)으로 창조하기 위해 노력해왔습니다. “황당한” 하나의 재료 착각은 맛있는 음식과 먹을 수 없는 음식 사이의 차이일 수 있습니다.
OpenAI의 CEO인 Sam Altman은 지난 6월 인도를 방문할 때 인드라프라스타 정보기술 대학교의 교수인 Ganesh Bagler에게 몇 가지 질문을 받았습니다. “ChatGPT의 환각은 아직 받아들여질 수 있지만, 레시피가 환각을 일으킬 때 심각한 문제가 됩니다,”라고 Bagler는 Altman에게 질문한 바 있습니다.
Altman은 낙관적인 태도를 표명했지만, 명확한 약속은 하지 않았습니다. “환각 문제를 훨씬 더 좋은 상태로 해결할 것이라고 생각합니다,”라고 Altman은 말했습니다. “1년 반에서 2년 정도 걸릴 것 같습니다. 그런 시점에서는 우리가 이에 대해 이야기하지 않을 것입니다. 창의성과 완벽한 정확성 사이에 균형이 필요하며, 모델은 어느 것을 원하는지 배워야 할 것입니다.”
그러나 워싱턴 대학교 언어학자인 Bender와 같은 기술에 대해 연구한 일부 전문가들에게는 이러한 개선 사항만으로는 충분하지 않습니다.
Bender는 언어 모델을 “주어진 일부 데이터를 기반으로 다른 단어 형태 문자열의 가능성 모델링하는 시스템”으로 설명합니다.
그것은 스펠 체커가 당신이 잘못 입력한 단어를 감지할 수 있는 방법입니다. 또한 자동 번역 및 전사 서비스에 도움을 주며, “대상 언어에서 일반적인 텍스트와 유사하게 출력을 부드럽게 만드는 것”에 도움을 줍니다. 많은 사람들은 텍스트 메시지나 이메일 작성 시 ‘자동 완성’ 기능을 사용할 때 이 기술의 버전에 의존합니다.
ChatGPT, Claude 2 또는 Google의 Bard와 같은 최신 챗봇은 이를 다음 수준으로 가져가려고 합니다. 즉, 텍스트의 전체적인 새로운 부분을 생성하는 것입니다. 그러나 Bender는 여전히 그들이 문자열에서 가장 타당한 다음어 반복해서 선택하는 것 뿐이라고 말했습니다.
언 모델을 텍스트 생성에 사용할 때, 그들은 “사실을 만들기 위해 설계되었습니다. 그게 그들이 하는 일 전부입니다,” Bender는 말했습니다. 그들은 법적 계약서, TV 스크립트 또는 소넷과 같은 글쓰기 형태를 모방하는 데 능숙합니다.
“하지만 그들은 항상 거짓말만 만드므로, 그들이 추출한 텍스트가 우리가 올바른 것으로 간주하는 것으로 해석될 때, 그것은 우연일 뿐입니다,” Bender는 말했습니다. “비록 그들이 더 자주 옳을 수 있도록 조정될 수 있지만, 여전히 실패 모드가 있으며, 아마도 사람이 텍스트를 읽기 어려운 경우에 실패할 가능성이 큽니다.”
그러한 오류는 마케팅 회사에 큰 문제가 되지 않습니다. 이 회사의 대표인 Shane Orlick은 “환각은 실제로 추가 보너스입니다,”라고 말했습니다. “우리는 자주 Jasper가 고객들이 스스로 생각하지 못할 스토리나 각도에 대한 아이디어를 내놓는 방법에 대해 얘기하는 고객들을 가지고 있습니다.”
이 텍사스 기반 스타트업은 OpenAI, Anthropic, Google 또는 Facebook 자회사 Meta와 협력하여 고객에게 필요에 맞게 조정된 다양한 AI 언어 모델을 제공합니다. 정확성에 관심이 있는 사람에게는 Anthropic의 모델을 제공할 수 있으며, 독점 소스 데이터의 보안에 관심이 있는 사람에게는 다른 모델을 제공할 수 있다고 Orlick은 말했습니다.
Orlick은 환각을 쉽게 고칠 수 없다는 것을 알고 있습니다. 그는 Google과 같은 회사가 검색 엔진에 “사실적인 콘텐츠에 대한 정말 높은 기준”을 갖고 있어야 한다고 말하며 솔루션에 많은 에너지와 자원을 투입하기를 기대하고 있습니다.
“그들은 이 문제를 해결해야 할 것입니다,”라고 Orlick은 말했습니다. “그들은 이것을 다루어야 합니다. 그래서 완벽해질지는 모르겠지만, 시간이 지남에 따라 계속해서 개선될 것입니다.”
|
|
|
AI에 대해 경고하려는 여성들
인공지능의 위험성은 오늘날 명백하게 드러나 있지만, 경고 신호는 항상 있었습니다.
팀니트 게브루(Timnit Gebru)는 AI에서 일하려고 결정한 적이 없습니다. 그녀는 스탠포드에서 전기 공학을 공부하고, 컴퓨터 비전으로 박사 학위를 받았습니다. 그러나 AI로 전향한 후, 문제가 있다는 것이 분명해졌습니다.
게브루는 태어나고 자란 에티오피아에서 “블랙 사람들이 아예 없었습니다. 국제적으로 수천 명의 사람 중에 흑인은 4~5명 정도 볼 수 있었습니다. AI 시스템을 개발하는 사람들, 그들의 태도와 시각을 보았습니다. 그들이 어떤 용도로 사용되고 있는지도 보았습니다. 그래서 ‘오 마이 갓, 문제가 있네요’라고 생각했습니다.”
게브루가 구글에 합류한 후, 그녀는 윤리적 AI 그룹을 공동 지도하였으며, 이는 회사의 책임있는 AI 이니셔티브의 일부로 인공지능의 사회적 영향을 조사했습니다. 그녀는 대규모 언어 모델(Large Language Models, LLMs)의 위험성에 대한 논문을 작성했으며, 이는 방대한 양의 데이터를 기반으로 다음 단어를 예측하고 때로는 인간과도 닮은 텍스트를 생성하는 생성형 AI 시스템입니다. 오늘날 우리 주변에 많이 있는 채팅 봇들도 LLMs로 구동됩니다.
당시 LLMs는 실험적 단계에 있었지만, 구글은 이미 LLM 기술을 검색 엔진에 사용하고 있었습니다(입력을 완료하기 전에 자동으로 생성되는 검색어 등). 게브루는 더 크고 더 강력한 LLMs를 출시하기 위한 경쟁이 시작되고 있다는 것을 알아차렸으며, 이에 따른 위험성도 인식했습니다.
그녀와 다른 여섯 명의 동료는 이러한 LLMs가 위키백과, 트위터, 레딧 등과 같은 사이트를 포함한 자료에 편향을 반영할 수 있다고 조사했습니다. 위키피디아 기여자의 약 15%만이 여성 또는 소녀였으며, 트위터 사용자의 34%만이 여성이었으며, 레딧 사용자의 67%가 남성이었습니다. 그럼에도 이러한 편향된 소스들이 GPT-2(오늘날의 채팅 봇의 전신)에 영향을 주었으며, 그 결과로 특정 직업에 대한 서술이 성별, 인종, 장애 상태와 관련하여 편견을 반영하였습니다.
게브루와 동료들에게 이 모델들이 출력하는 내용이 유해하다는 것은 명확했습니다. 그들은 “훈련 데이터는 성별, 인종, 민족성 및 장애 상태와 관련된 문제가 있는 특징을 가진 것으로 나타났으며, 백인 우월주의 및 여성 혐오 등의 견해가 훈련 데이터에서 과대하게 반영되었습니다. 이러한 데이터셋으로 훈련된 모델은 편견과 피해를 더욱 증폭시키는 결과를 낳게 됩니다”라고 논문에서 언급했습니다.
그 후 LLM 기술은 계속 발전하면서 회사들은 데이터셋을 거름망에 거쳐 정제하기 시작했습니다. 그러나 “화이트 파워(백인 우월주의)”와 “업스커트”와 같은 단어를 차단하는 것 외에도 LGBTQ 커뮤니티에서 사용되는 “트윙크”와 같은 용어도 차단되었습니다.
게브루는 구글에서 해고당한 후, 십자가판 타협으로 인해 크리스마스 기간 동안 전화와 이메일로 인한 혼선이 있었다고 전합니다. 그녀는 구글과 협약 조건 중 일부가 변경되면 이름을 제외하고 논문에 남을 수 있는 방법이 있는지 관리자의 관리자에게 이메일을 보냈습니다. 또한 논문을 검토하고 비판한 사람들의 신원을 공개할 것을 요구했습니다. 구글이 이러한 조건들을 충족시킬 수 없다면 그녀는 사임을 고려할 것이라고 말했습니다.
그 후 게브루는 여성들에게 이메일을 보내 구글이 “마진화된 목소리”를 억누르려고 한다며 회사를 비난하였습니다. 그 다음 날, 게브루는 해고된 사실을 알게 되었습니다.
구글은 공개적으로 게브루가 사임한 것으로 주장했습니다. 구글 AI 부사장 제프 딘(Jeff Dean)은 “논문은 LLM에 대한 타당한 우려사항을 조사하지만, 관련 연구를 너무 많이 무시한 것”이라고 말합니다. 롤링 스톤(Rolling Stone)은 의견을 문의할 때 구글 대표가 회사가 게브루의 해고 사건을 조사하기로 약속한 내부 메모를 인용하며 답변을 제시했습니다. 하지만 조사 결과는 공개되지 않았으며, 딘은 2021년에 게브루의 해고 처리가 어떻게 이루어졌는지에 대해 사과하였으며, 회사는 연구, 다양성 및 직원 이탈과 관련된 문제를 다루는 방식을 변경하였습니다.
이 일로 인해 게브루는 많은 언론의 관심을 받았으며, 변호사를 고용하고 스토킹으로부터 자신을 보호하는 등의 일로 인해 체중 감량까지 겪었습니다. 상황에 대처하는 것은 전적으로 시간과 에너지를 소모하는 일이 되었습니다.
다음 단계에서 게브루가 할 일을 결정할 때, 그녀는 실리콘 밸리로 돌아가기를 원하지 않았습니다. 게브루는 분산 인공지능 연구소(Distributed AI Research institute, DAIR)를 설립하여 대형 기술 기업의 영향력에서 벗어나 독립적인 지역사회 기반 연구에 초점을 맞추었습니다. 그녀는 연구자뿐만 아니라 노동 조직가와 난민 옹호자 같은 사람들도 모집하기로 결정했습니다. 이들은 기술의 미래에 영향력을 행사할 기회를 가질 수 없도록 방지하는 관문 지킴이들 때문에 학계나 산업계에서 고용되지 못하는 사람들입니다.
게브루와 신규 동료들은 현재 AI 시스템의 피해를 발견하고 완화시키기 위해 연구에 집중하고 있습니다. 그중 한 명인 메론 에스테파노스(Meron Estefanos)는 난민 문제에 대해 AI 기반 거짓말 탐지 시스템과 같은 응용 프로그램을 살펴보는 난민 옹호 전문가입니다. DAIR은 AI에 의해 피해를 입은 취약 계층과 마주치기 전에 미리 경보를 제공할 수 있도록 취약 커뮤니티와 인터뷰하여 보고서를 작성합니다. DAIR은 AI 시스템을 원활하게 구동하기 위해 알고리즘이 부적절하다고 판단한 컨텐츠를 리뷰하는 동안 아르헨티나의 데이터 노동자들이 공격적인 이미지와 폭력적인 언어를 겪으면서 심각한 정신적 고통과 우울증 등을 경험하는 사례도 보고하였습니다.
Buolamini은 DAIR의 자문위원회에 참여하였으며, Center on Race and Digital Justice라는 자체 조직을 설립하여 비규제 기술로 인한 시민 및 인권 위협을 조사하는 목적으로 설립되었습니다. 그녀는 여성들을 지원하기 위한 자금도 마련하였으며, AI의 위험과 피해에 대해 책을 출간할 예정입니다. Chowdhury의 해커톤은 투명성과 다양한 의견을 수용하는 것의 힘을 보여주었습니다. Buolamwini의 Algorithmic Justice League은 TSA(TSA)가 미국 전역 25개 공항에서 얼굴 인식 기술을 확대함으로써 야기되는 피해를 조사합니다. Gangadharan은 아마존 완성센터에서 사용되는 AI 기반 자동화 도구와 감시에 대해 연구하고 있습니다.
그들이 우리에게 알리고 싶은 몇 가지 사실이 있습니다: AI는 마법이 아닙니다. LLMs 역시 감각적인 존재가 아니며 감각적인 존재가 되지 않습니다. 이러한 기술의 문제점은 추상적인 것이 아니라 현재 여기에 있으며 오늘날 진지하게 다뤄야 할 문제입니다.
Buolamwini은 “사람들의 삶이 위협받는 것은 슈퍼 지능 시스템 때문이 아니라 기술 시스템에 대한 지나친 의존 때문입니다. 사람들이 피해가 실제로 발생할 수 있다는 것을 이해해야 합니다.”라고 말합니다.
이번에야말로 우리가 들어주어야 할 때입니다.
|
|
|
AI를 활용하여 콘텐츠의 E.E.A.T.을 더 강화할 수 있습니다.
- AI를 사용하면 콘텐츠에서 미완성된 부분을 찾아 E.E.A.T.를 더 강조할 수 있습니다.
- AI를 활용하여 검색 쿼리와 경쟁사 콘텐츠 데이터를 결합하여 360도 콘텐츠 구조를 만들 수 있습니다. AI는 당신의 특정 분야에 가장 적합한 작가와 각 작가에게 쓸 최적의 주제를 선택하는 데 도움을 줄 수 있습니다.
- AI를 사용하여 경쟁사의 사이트맵에서 주제 클러스터를 생성하고, 원래 키워드 연구를 추가할 수 있습니다.
E.E.A.T.이란 무엇이며 무슨 의미인가요?
- SEO를 하는 사람들은 E.E.A.T.이 무엇을 의미하는지 알고 있습니다. 그러나 우리가 이야기하는 내용을 정당화하기 위해서는 정의를 다시 확인해야 합니다. 적어도 콘텐츠 측면에서의 정의입니다.
경험
- 예외적인 경우를 제외하고, 첫 번째 ‘E’는 작가가 글을 쓰는 주제에 대한 ‘직접적인 경험’이나 ‘실생활 경험’을 추구합니다. 다른 말로 하면, 콘텐츠는 실생활 경험에서 얻은 직접적인 지식을 가진 사람이 쓴 것처럼 들리도록 해야 합니다.
쿼리
- 좋은 ‘경험’
- “할아버지가 먹기를 그만뒀어요”
- 글쓴이는 경력있는 간병인으로 실생활 경험이 많음
- “은퇴를 위한 저축 계획은 어떻게 세우나요?”
- 글쓴이는 실생활에서 은퇴 계획에 대해 관심이 없음
전문성
- 이는 특히 YMYL(Your Money or Your Life) 주제인 경우 작가가 주제에 대해 ‘신뢰할만한’ 정도를 나타냅니다. 콘텐츠 웹사이트 소유자의 관점에서 보면, 완벽한 예로는 작가가 과일의 영양 가치에 대해 쓰는 경우, 작가는 영양 과학에 대한 학문적 또는 전문적인 시각을 가져야 합니다.
권위성
- 한 주제에 대해 익숙하다는 것과 한 주제에 대한 권위 있는 전문가인 것은 완전히 다른 이야기입니다. 이 문자 ‘A’는 여러분이 누군가의 생활에 영향을 미칠 수 있는 주제에 대해 글을 쓸 때, 여러분은 해당 주제에 대해 권위 있는 사람이어야 한다는 것을 나타냅니다. 여러분의 웹사이트 및 인터넷 전체에서 작성하는 다른 콘텐츠는 여러분의 권위를 정당화하기 위한 중요한 자료입니다.
신뢰성
- 신뢰는 경험, 전문성, 권위성 및 기타 여러 요소의 집합입니다. 모든 종류의 니치에 대해 신뢰가 동등하게 우선 순위로 결정되지 않을 수 있습니다. 그러나 여러분의 사이트가 YMYL 주제 중 하나인 경우, 신뢰는 여러분의 SEO 게임을 성공 또는 실패로 이끌 수 있습니다.
Google 검색 평가자 가이드라인 및 중요성
- 이 글에서 우리는 E.E.A.T.을 개선하기 위해 AI 도구를 활용하는 방법을 설명하려고 합니다. 그리고 검색 평가자 가이드라인은 그 목록의 맨 위에 있습니다. 이는 구글의 검색 평가자를 위한 가이드라인으로, 구글이 검색 결과를 어느 방향으로 나아가길 원하는지 이해하기 위한 것입니다. 따라서 랭킹 요소에 가장 가까운 정보는 구글이 SERP(Search Engine Results Page)를 어떻게 ‘원하는지’를 보여주는 것입니다. 구글이 모든 것을 현실로 구현할 수는 없을지라도, 이것은 여전히 매우 중요한 자료입니다.
저자와 웹사이트 평판 개선
- 구글의 검색 평가자 가이드라인에서 저자 수준의 데이터 포인트는 가장 자주 언급되는 요소 중 하나입니다. 따라서 우리는 웹사이트의 저자들을 E.E.A.T.에 대한 레버리지로 활용하기 위한 방법을 찾으려고 합니다.
특정 주제에 대해 작가의 적합성 파악하기
- 먼저, AI에게 Google 검색 평가자 가이드라인을 읽게 하고, 작가가 특정 주제에 대해 글을 쓰기에 적격한 요소를 추출하도록 합니다.
작가의 전문 분야 파악하기
- 이제 Google 검색 평가자 가이드라인에서 작가의 데이터 포인트에 대한 몇 가지 예시를 가져옵니다. 여러분은 여기에 나열된 예시들을 AI에게 제공하여 어떤 주제에 대해 작가가 적격한지 파악하도록 합니다.
작가 선정
- 이제 여러분은 작가들 중 어떤 작가가 어떤 주제에 대해 최적의 글쓰기 역량을 갖추고 있는지 판단할 수 있습니다. 특정 주제와 작가를 매칭시켜주면 됩니다.
|
|
|
포텐셜한 기술들이 항상 약속한 대로 성과를 이루지 못하는 것은 사실입니다. 특히, 암시적으로 상승하고 즉시 하락하는 알려진 룸온도 초전도체인 LK-99를 제외하고는, 생성 AI보다 과대화된 것을 본 적이 없습니다. 많은 회사들의 가치평가는 수조 달러 규모의 시장을 예상하고 있지만, 현재 생성 AI의 실질적인 수익은 수억 달러로 알려져 있습니다. 이러한 수익은 1000배로 성장할 수 있지만, 그것은 매우 추측적인 것입니다. 지금까지 대부분의 수익은 반자동 코드 작성(프로그래머들은 생성 도구를 조수로 사용하는 것을 좋아합니다)과 텍스트 작성으로부터 나오는 것으로 보입니다. 저는 프로그래머들은 생성 AI의 도움을 받아 작업할 때 만족할 것이라고 생각합니다. 자동완성 기능은 그들의 일에 아주 훌륭하기 때문이며, 그들은 종종 발생하는 오류를 감지하고 수정하는 훈련을 받았습니다. 대학생들도 생성 AI를 계속 사용할 것이지만, 그들의 돈이 많지는 않습니다(아마도 오픈 소스 경쟁자에 의존할 것입니다). 다른 잠재적인 지불 고객들은 빠르게 실망할 수도 있습니다. 영향력 있는 벤처 투자가 Benedict Evans는 최근 X (이전의 트위터)에서 일련의 게시물에서 이를 제기했습니다: “학문적 연구를 돕기 위해 검색 쿼리에 대답하기 위해 ChatGPT를 사용하려고 한 내 친구들은 비슷한 실망을 겪었습니다. 법률 연구에 ChatGPT를 사용한 변호사는 판사에게 맹비난당했으며, 비감독적인 방식으로는 더 이상 사용하지 않기로 서면으로 약속해야만 했습니다. 몇 주 전에 한 보도에 따르면 GPT 사용이 줄어들고 있다고 언급되었습니다.” Evans의 경험이 태산 산꼭대기의 참새라면, 적어도 현재 가치 평가에서 생성 AI 분야는 비교적 빠르게 종말을 맞이할 수 있습니다. 프로그래머들은 그것을 계속해서 사용하며, 제품 홍보를 위해 많은 콘텐츠를 작성해야 하는 마케터들도 그렇습니다. 하지만 코딩이나 고속이지만 품질이 중하한 글쓰기는 현재의 가치 평가 꿈을 유지하기에 충분하지 않습니다. 심지어 OpenAI도 290억 달러의 가치평가를 달성하는 데 어려움을 겪을 수 있으며, 몇 십억 달러로 가치 평가된 경쟁 스타트업들은 연간 수억 달러 혹은 수천만 달러 수준의 수익만 창출한다면 결국 붕괴할 가능성이 높습니다. 생성 AI의 약속에 기반한 마케팅으로 인해 Microsoft는 거의 절반 가까이 상승한 수익률을 보이던 중 주가가 하락할 수도 있으며, NVIDIA 역시 급등한 상태에서 하락할 수 있습니다. 소프트웨어 벤처 투자의 초기 개척자인 Roger McNamee와 저는 이 사에 대해 나중에 이야기하게 되었습니다. 아마도 우리 모두가 경제적으로 정말로 흥미로운 사용 사례는 검색(예: 구글 검색 대신 ChatGPT를 사용하여 Bing 검색)일 것으로 보입니다. 그러나 거기에는 엄청난 기술적 문제들이 있으며, 환각 문제가 곧 해결될 이유는 없습니다. 만약 그렇게 되지 않으면, 버블은 쉽게 붕괴될 수 있습니다.
그러나 지금 저를 걱정시키는 것은 생성 AI 경제 전체가 현재의 가치 평가보다는 약속에 더 많이 기반한 상태에서 대규모로 조정될 가능성이 있다는 것뿐만 아니라, 우리가 생성 AI가 현실적으로 예상된 대로 세계를 바꿀 것으로 전제하고 전세계와 국가 정책을 구축하고 있다는 점입니다.
글로벌적으로, 바이든 행정부는 현재 생성 AI에 필수적인 고성능 하드웨어 칩에 대한 접근을 제한하고 중국에 대한 투자도 제한하고 있습니다. 중국 역시 글로벌 협력에 대해 따뜻한 태도를 보이고 있지 않습니다. 긴장이 극도로 높아지고 있으며, 이는 “AI 전쟁에서 누가 이길 것인지”라는 꿈을 중심으로 돌아가고 있습니다. 그러나 만약 그 누구도, 적어도 아직은 아무도 이기지 못한다면 어떻게 될까요? 국내적으로는 소비자 보호(예: 개인 정보 보호, 편견 감소, 데이터의 투명성 요구, 잘못된 정보와의 싸움 등)를 위한 규제가 미국 생성 AI의 신속한 발전을 돕기 위한 역압력으로 인해 늦춰질 수 있습니다. 우리가 필요한 소비자 보호를 얻지 못할 수도 있는데, 그 이유는 예상과 다르게 성장하지 않을 가능성 때문입니다. 누구의 정책이 잘못되었다고 말하고 싶진 않지만, 생성 AI가 불과 10년 내에 화재와 전기보다 큰 영향을 미칠 것이라는 전제가 잘못된 것으로 밝혀진다면, 우리는 사실상 필요하지 않은 중국과의 긴장을 가질 수도 있으며, 아마도 대만에서 전쟁까지 일어날 수도 있습니다. 소비자들이 뉴스에서 이용당하는 소셜미디어 수준의 배신과 오보가 우리의 일상을 지배할 수 있는 상황일 수도 있습니다. 정부들은 충분히 강력한 조치를 취하기를 두려워해서라도 그러한 상황을 막기 위해 노력해야 합니다. 이러한 일들이 발생할 가능성은 확률을 정하기 어렵지만, 그것은 후회되는 생각이며, 워싱턴과 베이징에서 고려되기를 바랍니다.
제 마음 속에서 거의 모든 사람들이 점점 AGI(인간보다 더 똑똑하고 자원이 풍부한 일반 인공지능)와 생성 AI를 동일시한다는 기본적인 오류를 범하고 있다고 생각합니다. 산업 전체의 사람들이 AGI가 임박했다고 믿기를 원할 것입니다. 이것은 필연성에 대한 내러티브를 고취시키며, 주식 가격과 스타트업 가치를 높이는 요인입니다. 최근 Anthropic의 CEO 인 Dario Amodei는 2~3년 안에 AGI가 나올 것이라고 예측했습니다. Google DeepMind의 CEO 인 Demis Hassabis도 최근 기간 내 AGI에 대한 예측을 내놓았습니다.
하지만 저는 진심으로 의심합니다. 생성 AI의 핵심에는 해결되지 않은 다수의 심각한 문제들이 있습니다. 이러한 문제들은 거짓 정보를 만들어내거나 Wolfram Alpha와 같은 외부 도구와 신뢰할 수 있는 인터페이스를 형성하지하는 경향 등을 포함합니다. 또한 월별로 변동성이 있어서(큰 시스템에서의 엔지니어링 용도로는 적합격한 후보자들 또는 취업준비생들을 위해 인기가 있는 인공지능 챗봇을 만드는 기업인 Talview가 최근에 새로운 자동 면접 솔루션을 출시했습니다. 이 솔루션은 기존의 온라인 면접 방식을 대체하고, 효율적이고 정확한 자동화된 면접 과정을 제공합니다. Talview의 자동 면접 솔루션은 음성, 얼굴 표정, 언어 분석 등 다양한 기술을 활용하여 실시간으로 후보자의 특성과 역량을 평가할 수 있습니다. 이를 통해 기업은 별도의 인터뷰어나 실제 면접 시간을 할애하지 않고도 많은 지원자를 효과적으로 평가할 수 있습니다. Talview의 자동 면접 솔루션은 이미 많은 기업에서 도입되어 성공적인 결과를 거두고 있으며, 이러한 기술의 발전은 채용 프로세스를 혁신하고 효율성을 높이는 데 도움이 될 것으로 기대됩니다.
|
|
|
서울, 대한민국 - SK 텔레콤(한국거래소: SKM)은 미국 샌프란시스코에 기반을 둔 인공지능 보안 및 연구 기업 Anthropic에 1억 달러를 투자할 계획을 발표했습니다. 왜 중요한가: 이번 투자는 SK 텔레콤이 AI 기술을 통신사의 요구에 맞게 개발하려는 노력의 일환입니다. 이 결정은 AI가 산업의 미래를 형성하는 역할을 강조합니다.
주요 사항1. 파트너십 개요:
- 투자 세부사항: SK 텔레콤은 Anthropic에 1억 달러를 투자하며, 이는 SK 텔레콤 벤처 캐피탈(SK 텔레콤의 벤처 자본 부문)이 이전에 투자한 것에 이어진다.
- 목표: 이 파트너십은 전화 통신사를 위해 명확하게 맞춤화된 대규모 언어 모델(LLM)을 개발하는 것을 목표로 한다.
- 다국어 지원: LLM은 한국어, 영어, 독일어, 일본어, 아랍어, 스페인어를 포함한 여러 언어를 지원할 것이다.
- Anthropic의 역할:
- Claude 모델 개선: Anthropic은 그 동안 잘 알려진 AI 모델인 Claude를 수정하여 고객 서비스, 마케팅, 영업 및 대화형 애플리케이션과 같은 전화 통신사에 특화된 사용 사례를 해결할 것이다.
- 기대되는 이점: 모델을 통신사 분야에 맞게 맞춤화함으로써, 일반화된 모델보다 더 큰 성능 향상이 예상된다.
- 통신사 AI 플랫폼과의 통합:
- 글로벌 통신사 AI 얼라이언스: SK 텔레콤과 Anthropic은 다국어 LLM을 글로벌 통신사 AI 얼라이언스가 개발 중인 통신사 AI 플랫폼과 통합하기 위해 협력할 것이다.
- 잠재적 이점: 이 통합은 시간과 비용을 절약하여 Deutsche Telekom, e&, Singtel과 같은 대형 통신사들이 자사의 시장과 고객 기반에 맞는 AI 서비스를 신속하게 개발하고 제공할 수 있게 할 수 있다.
큰 그림: 이번 파트너십은 SK 텔레콤의 최근 Deutsche Telekom, e&, Singtel과의 글로벌 통신사 AI 얼라이언스와 조화를 이룹니다. Anthropic과의 협력은 통신사 AI 플랫폼 개발을 위한 다자간 노력을 가속화할 것으로 예상됩니다. Anthropic의 공동 창업자이자 CEO인 다리오 아모데이(Dario Amodei)에 따르면, 산업별 LLM은 보다 안전하고 신뢰할 수 있는 AI 배치를 위한 길을 열 수 있다고 합니다. SK 텔레콤의 미국 AI 기업에 대한 투자는 AI 분야에서의 지위 확장을 위한 중요한 단계로 여겨집니다. 맞춤형 LLM 개발에 집중함으로써, 이번 협력은 전화 통신 분야에서의 AI 응용에 새로운 방향을 제시하며, 업무 효율성과 산업 관행의 변화 가능성을 약속합니다.
|
|
|
주식회사 오늘배움
contenjoo@learntoday.co.kr
대전광역시 유성구 지족로351 4층 402호 010-4819-1571
수신거부 Unsubscribe |
|
|
|
|