AI-유토피아로 가는 길인가, 디스토피아로 가는 길인가?

The AI paradox: Path to utopia or dystopia?

박윤석 VP 승인 2024.06.10 11:00 | 최종 수정 2024.06.10 15:30 의견 0

AI나 AI가 생성한 참가자가 참여하는 최초의 미인 대회인 '미스 AI'의 창설과 같은 최근의 헤드라인은 AI의 책임 있는 개발과 배포에 대한 논쟁에 다시 불을 붙였습니다. 전자는 해결해야 할 결함일 가능성이 높고, 후자는 특정 미의 기준을 소중히 여기는 인간 본성의 결함을 드러냅니다.

AI가 주도하는 파멸에 대한 경고가 반복되는 시대에, 그 확률을 70%로 고정하는 AI 연구원의 최신 개인 경고! — 이것들은 현재 걱정 목록의 맨 위에 떠오르는 것이며 둘 다 평소와 같은 비즈니스 이상을 제안하지 않습니다.

물론 금융 사기에 사용되는 딥페이크나 누드 이미지로 무고한 사람을 묘사하는 것과 같은 AI 도구로 인한 피해의 끔찍한 예도 있습니다. 그러나 이러한 딥페이크는 AI가 주도하는 것이 아니라 사악한 인간의 지시에 따라 만들어집니다. 또한 AI의 적용으로 인해 상당수의 일자리가 사라질 수 있다는 우려가 있지만 아직까지는 실현되지 않았습니다.

사실, AI 기술이 무기화되고, 사회적 편견을 암호화하고, 개인 정보 침해로 이어질 수 있으며, 작동 방식을 설명하는 데 여전히 어려움을 겪고 있는 등 AI 기술의 잠재적 위험은 많습니다. 그러나 AI가 스스로 우리를 해치거나 죽이려 한다는 증거는 아직 없습니다.

그럼에도 불구하고 이러한 증거 부족은 주요 AI 제공업체의 전현직 직원 13명이 이 기술이 심각한 죽음을 포함하여 인류에게 심각한 위험을 초래한다고 경고하는 내부 고발 서한을 발행하는 것을 막지 못했습니다. 내부 고발자에는 최첨단 AI 시스템과 긴밀히 협력한 전문가들이 포함되어 있어 우려에 무게가 실리고 있습니다. AI 연구원 엘리에제르 유드코프스키(Eliezer Yudkowsky)는 챗GPT가 AI가 "인간보다 똑똑한 지능에 도달"하여 모든 사람을 죽이는 가까운 미래를 가리킨다고 우려합니다.

그렇다 하더라도, 케이시 뉴턴(Casey Newton)이 플랫포머(Platformer)에서 이 편지에 대해 지적했듯이, 내부 고발자로부터 입이 떡 벌어지는 혐의를 찾는 사람은 실망할 가능성이 높습니다. 그는 내부고발자가 고용주에 의해 내부고발자가 호루라기를 부는 것이 금지되어 있기 때문일 수 있다고 지적했습니다. 아니면 공상 과학 이야기 외에는 걱정을 뒷받침하는 증거가 부족할 수도 있습니다. 다만 우리가 모를 뿐이다.

항상 더 스마트해지기

우리가 알고 있는 것은 "프론티어" 생성형 AI 모델이 표준화된 테스트 벤치마크로 측정된 바와 같이 계속해서 더 스마트해지고 있다는 것입니다. 그러나 이러한 결과는 모델이 학습 데이터에서는 잘 수행되지만 보이지 않는 새로운 데이터에서는 제대로 수행되지 않는 "과적합"으로 인해 왜곡될 수 있습니다. 한 예로, Uniform Bar Exam에서 90번째 백분위수 성적에 대한 주장은 과도하게 부풀려진 것으로 나타났습니다.

그럼에도 불구하고 지난 몇 년 동안 더 큰 데이터 세트에서 훈련된 더 많은 매개변수로 이러한 모델을 확장하는 데 있어 기능이 극적으로 향상되었기 때문에 이러한 성장 경로가 내년 또는 2년 내에 훨씬 더 스마트한 모델로 이어질 것이라는 것이 대체로 받아들여지고 있습니다.

더욱이 제프리 힌튼(Geoffrey Hinton, 신경망 분야의 선구적인 업적으로 'AI 대부'로 불림)을 비롯한 많은 주요 AI 연구자들은 5년 이내에 인공 일반 지능(AGI)을 달성할 수 있을 것으로 믿고 있습니다. AGI는 대부분의 인지 작업과 영역에서 인간 수준의 지능과 일치하거나 능가할 수 있는 AI 시스템이자 실존적 걱정이 실현될 수 있는 지점으로 생각됩니다. 힌튼의 관점은 그가 AI세대를 구동하는 기술을 구축하는 데 중요한 역할을 했을 뿐만 아니라 최근까지 AGI의 가능성이 수십 년 후의 미래라고 생각했기 때문에 중요합니다.

정보 유출 혐의로 해고된 전직 오픈AI 연구원 레오폴드 아셴브레너(Leopold Aschenbrenner)는 최근 AGI가 2027년까지 달성 가능하다는 차트를 발표했습니다. 이 결론은 진행이 직선, 즉 오른쪽과 직선으로 계속될 것이라고 가정합니다. 이것이 맞다면, AGI가 5년 이내에 달성될 수 있다는 주장에 신빙성을 더합니다.

또 다른 AI 겨울?

모든 사람이 Gen AI가 이러한 높이를 달성할 것이라는 데 동의하는 것은 아닙니다. 차세대 도구(OpenAI의 GPT-5 및 Claude 및 Gemini의 다음 버전)가 인상적인 성과를 거둘 것으로 보입니다. 그렇긴 하지만, 다음 세대를 넘어서도 비슷한 진전이 보장되는 것은 아닙니다. 기술 발전이 평준화되면 인류에 대한 실존적 위협에 대한 우려는 무의미해질 수 있습니다.

AI 인플루언서 게리 마커스(Gary Marcus)는 오랫동안 이러한 모델의 확장성에 의문을 제기해 왔습니다. 그는 이제 AGI의 초기 징후를 목격하는 대신 새로운 "AI 겨울"의 초기 징후를 보고 있다고 추측합니다. 역사적으로 AI는 1970년대와 1980년대 후반과 같이 기대에 미치지 못해 AI 연구에 대한 관심과 자금이 급격히 감소한 시기와 같이 여러 차례 '겨울'을 겪었습니다. 이러한 현상은 일반적으로 AI의 잠재력에 대한 기대와 과대 광고가 높아진 후에 발생하며, 이는 기술이 지나치게 야심찬 약속을 이행하지 못할 때 궁극적으로 환멸과 비판으로 이어집니다.

그러한 환멸이 진행되고 있는지는 두고 볼 일이지만, 가능한 일입니다. Marcus는 Pitchbook이 보도한 최근 기사를 언급하며 "AI를 사용하더라도 올라가는 것은 결국 내려와야 합니다. 초기 단계의 생성형 AI 딜메이킹은 2분기 연속으로 감소했으며, 초기 자본 유입 이후 신중한 투자자들이 잠시 주저앉아 재평가함에 따라 2023년 3분기 고점 대비 76% 하락했습니다"고 말했습니다.

이러한 투자 거래 및 규모의 감소는 기존 기업이 상당한 수익이 나타나기 전에 현금 부족에 시달리게 되어 운영을 축소하거나 중단해야 한다는 것을 의미할 수 있으며, 시장에 진입하는 새로운 회사와 새로운 아이디어의 수를 제한할 수 있습니다. 이것이 프론티어 AI 모델을 개발하는 가장 큰 회사에 영향을 미칠 가능성은 낮습니다.

패스트 컴퍼니(Fast Company)는 "AI기술이 회사 실적을 끌어올리거나 주가를 끌어올릴 만큼 충분히 새로운 생산성을 창출하고 있다는 증거가 거의 없습니다"고 주장했습니다. 결과적으로, 이 기사는 새로운 AI 겨울의 위협이 2024년 하반기에 AI 대화를 지배할 수 있다고 주장합니다.

전속력으로 전진

그럼에도 불구하고, 가트너(Gartner)는 "인터넷, 인쇄기, 심지어 전기의 도입과 마찬가지로 AI는 사회에 영향을 미치고 있습니다. 사회 전체를 변화시키려 하고 있습니다. 바야흐로 AI의 시대가 도래했습니다. AI의 발전은 멈추거나 늦춰질 수 없습니다."

AI를 인쇄기 및 전기에 비유하는 것은 많은 사람들이 AI가 지속적인 투자와 개발을 주도하는 혁신적인 잠재력을 가지고 있다고 믿는다는 것을 강조합니다. 이러한 관점은 또한 왜 그렇게 많은 사람들이 AI에 올인하는지 설명해 줍니다. 와튼 비즈니스 스쿨(Wharton Business School)의 교수인 에단 몰릭(Ethan Mollick)은 최근 하버드 비즈니스 리뷰(Harvard Business Review)의 테크 앳 워크(Tech at Work) 팟캐스트에서 업무 팀이 지금 당장 하는 모든 일에 AI를 도입해야 한다고 말했습니다.

One Useful Thing 블로그에서 Mollick은 차세대 AI 모델이 얼마나 발전했는지 보여주는 최근 증거를 지적합니다. 예를 들어, "AI와 토론하면 평균적인 인간과 토론할 때보다 AI가 지정된 관점으로 당신을 설득할 가능성이 87% 더 높습니다." 그는 또한 AI 모델이 정서적 지원을 제공하는 데 있어 인간을 능가한다는 연구 결과를 인용했습니다. 특히, 이 연구는 부정적인 감정을 줄이기 위해 부정적인 상황을 재구성하는 기술, 즉 인지적 재평가에 초점을 맞췄다. 봇은 조사된 4가지 지표 중 3가지에서 인간을 능가했습니다.

딜레마의 뿔

이 대화의 근본적인 질문은 AI가 우리의 가장 큰 도전 과제 중 일부를 해결할 것인지 아니면 궁극적으로 인류를 파괴할 것인지입니다. 아마도 고급 AI에서 나오는 마법의 이득과 유감스러운 피해가 혼합되어 있을 것입니다. 간단한 대답은 아무도 모른다는 것입니다.

어쩌면 더 넓은 시대정신에 부합하기 위해, 기술 진보의 약속이 이토록 양극화된 적은 없었을 것이다. 기술 억만장자들, 아마도 다른 사람들보다 더 많은 통찰력을 가진 사람들조차도 분열되어 있습니다. 일론 머스크(Elon Musk)와 마크 저커버그(Mark Zuckerberg)와 같은 인물들은 AI의 잠재적 위험과 이점을 놓고 공개적으로 충돌했습니다. 분명한 것은 종말론에 대한 논쟁이 사라지지 않고 있으며, 해결될 기미도 보이지 않는다는 점이다.

내 자신의 파멸 확률 "P(doom)"은 여전히 낮습니다. 나는 1 년 전에 내 P (doom)이 ~ 5 %라는 입장을 취했고 나는 그것을 지지합니다. 우려는 타당하지만, AI 안전 전선의 최근 발전은 고무적입니다.

가장 주목할 만한 점은 Anthropic이 LLM의 작동 방식을 설명하는 데 진전을 이뤘다는 것입니다. 그곳의 연구원들은 최근에 클로드 3호의 내부를 들여다보고 그 인공 뉴런의 어떤 조합이 특정한 개념 혹은 "특징"을 불러일으키는지를 알아낼 수 있었습니다. 스티븐 레비(Steven Levy)가 와이어드(Wired)에서 언급했듯이, "이와 같은 작업은 AI 안전에 잠재적으로 큰 영향을 미칠 수 있습니다. LLM 내부에 위험이 도사리고 있는 위치를 파악할 수 있다면, 이를 막을 수 있는 더 나은 장비를 갖추게 될 것입니다."

궁극적으로 AI의 미래는 전례 없는 기회와 상당한 위험 사이에서 불확실합니다. 정보에 입각한 대화, 윤리적 개발 및 사전 예방적 감독은 AI가 사회에 혜택을 주는 데 매우 중요합니다. 풍요롭고 여유로운 세상에 대한 많은 사람들의 꿈이 실현될 수도 있고, 악몽 같은 지옥으로 변할 수도 있습니다. 명확한 윤리 원칙, 엄격한 안전 테스트, 인간의 감독 및 강력한 제어 조치를 통한 책임 있는 AI 개발은 빠르게 진화하는 환경을 탐색하는 데 필수적입니다.

이상의 기사는 2024년 6월 9일 VentureBeat에 게재된 “The AI paradox: Path to utopia or dystopia?”제목의 기사 내용을 편집하여 작성하였습니다.

* 원문정보 출처 : The AI paradox: Path to utopia or dystopia? | VentureBeat

저작권자 ⓒ 창조아고라, 무단 전재 및 재배포 금지