AI 전문인력을 준비시키는 방법

How to prepare your workforce to think like AI pros

박윤석 VP 승인 2024.05.07 17:19 의견 0

인간으로서 우리는 종종 인간과 유사한 행동을 전부는 아니지만 일부 특성을 가진 물체(의인화라고도 함)에 대해 비합리적으로 설명하며, AI에서 이러한 현상이 점점 더 많이 발생하는 것을 보고 있습니다.

어떤 경우에는 의인화가 챗봇과 상호 작용할 때 '제발'과 '감사합니다'라고 말하거나 결과물이 예상과 일치할 때 생성형 AI를 칭찬하는 것처럼 보입니다.

그러나 에티켓은 제쳐두고, 여기서 진짜 도전은 AI가 간단한 작업(예: 이 기사 요약)으로 '추론'하는 것을 본 다음 복잡한 과학 논문 선집에서 동일한 작업을 효과적으로 수행할 것으로 기대하는 것입니다. 또는 모델이 Microsoft의 최근 수익 발표에 대한 답변을 생성하고 모델에 다른 10개 회사의 동일한 수익 기록을 제공하여 시장 조사를 수행할 것으로 예상하는 경우입니다.

AI의 생산성을 저해하는 가장 큰 장벽은 AI를 도구로 사용할 수 있는 인간의 능력입니다.

일화적으로, 우리는 이미 Microsoft Copilot 라이선스를 출시한 후 개인이 부가가치를 느끼지 못해 시트 수를 축소한 고객에 대해 들었습니다.

이러한 사용자는 AI가 해결하기에 적합한 문제와 현실 사이에서 기대치가 일치하지 않았을 가능성이 있습니다. 물론 세련된 데모는 마법처럼 보이지만 AI는 마법이 아닙니다. 저는 여러분이 '아, AI는 그런 일에 좋지 않구나'라는 것을 처음 깨달았을 때 느끼는 실망감에 대해 잘 알고 있습니다.

그러나 손을 들고 AI 세대를 그만두는 대신 AI/ML을 보다 효과적으로 이해하고 의인화의 함정을 피하기 위해 올바른 직관을 구축하는 데 노력할 수 있습니다.

기계 학습에 대한 인텔리전스 및 추론 정의

우리는 항상 지능에 대한 정의가 부족했습니다. 개가 간식을 달라고 애원할 때, 그것은 똑똑한 것일까? 원숭이가 도구를 사용할 때는 어떨까요? 우리가 직관적으로 손을 열로부터 멀리 떨어뜨릴 수 있다는 것을 알고 있다는 것이 지능적입니까? 컴퓨터가 이와 같은 일을 할 때, 컴퓨터가 지능을 갖게 되는 것일까?

나는 (12개월 전까지) 대규모 언어 모델(LLM)이 '추론'할 수 있다는 것을 인정하는 것에 반대하는 진영에 있었습니다.

그러나 최근 신뢰할 수 있는 AI 설립자 몇 명과의 토론에서 우리는 추론 수준을 설명하는 기준표라는 잠재적인 해결책에 대한 가설을 세웠습니다.

독해력이나 정량적 추론을 위한 기준표가 있는 것처럼, AI에 상응하는 것을 도입할 수 있다면 어떨까요? 이는 LLM 기반 솔루션에서 예상되는 수준의 '추론'과 현실적이지 않은 예시를 이해관계자에게 전달하는 데 사용되는 강력한 도구가 될 수 있습니다.

인간은 AI에 대해 비현실적인 기대를 형성합니다

우리는 인간의 실수를 더 관대하게 받아들이는 경향이 있습니다. 사실, 자율 주행 자동차는 통계적으로 인간보다 안전합니다. 하지만 사고가 나면 난리가 납니다.

이는 AI 솔루션이 인간이 수행할 것으로 예상했던 작업을 수행하지 못할 때 실망을 가중시킵니다.

저는 AI 솔루션을 거대한 '인턴' 군대로 묘사하는 일화를 많이 듣습니다. 그런데도 기계는 여전히 인간이 하지 않는 방식으로 실패하고 있으며, 다른 작업에서는 인간을 훨씬 능가하고 있습니다.

이를 알면 10% 미만의 조직이 Gen AI 프로젝트를 성공적으로 개발하고 배포하는 것을 보고 있다는 것은 놀라운 일이 아닙니다. 비즈니스 가치와의 불일치 및 예상치 못한 비용이 드는 데이터 큐레이션 노력과 같은 다른 요인은 기업이 AI 프로젝트에서 직면한 문제를 더욱 악화시키고 있습니다.

이러한 문제를 해결하고 프로젝트를 성공으로 이끄는 열쇠 중 하나는 AI 사용자가 AI를 언제 어떻게 사용해야 하는지에 대한 더 나은 직관을 제공하는 것입니다.

AI 학습을 사용하여 직관 구축

교육은 AI의 급속한 진화에 대처하고 기계 학습(ML) 인텔리전스에 대한 이해를 재정의하는 열쇠입니다. AI 교육은 그 자체로 매우 모호하게 들릴 수 있지만, AI 훈련을 세 가지 다른 버킷으로 분리하는 것이 대부분의 비즈니스에 유용하다는 것을 알게 되었습니다.

- (안전) AI를 안전하게 사용하고 AI로 개선된 새로운 피싱 사기를 피하는 방법입니다.

- (문해력) AI가 무엇인지, AI에 대해 무엇을 기대할 수 있는지, 어떻게 깨질 수 있는지 이해합니다.

- (준비성) AI 기반 도구를 능숙하게(그리고 효율적으로) 활용하여 더 높은 품질로 작업을 수행하는 방법을 알고 있습니다.

AI 안전 교육으로 팀을 보호하는 것은 새로운 사이클리스트에게 무릎과 팔꿈치 보호대를 착용하는 것과 같습니다: 찰과상은 예방할 수 있을지 몰라도 격렬한 산악 자전거의 도전에 대비할 수는 없습니다. 한편, AI 준비 교육은 팀이 AI와 ML을 최대한 활용할 수 있도록 합니다.

직원들에게 gen AI 도구와 안전하게 상호 작용할 수 있는 기회를 더 많이 제공할수록 성공을 위한 올바른 직관을 더 많이 구축할 수 있습니다.

향후 12개월 동안 어떤 기능을 사용할 수 있을지 추측할 수 있을 뿐이지만, 이러한 기능을 동일한 기준(추론 수준)으로 다시 연결하고 그 결과 무엇을 기대할 수 있는지 알면 직원이 성공할 수 있도록 더 잘 준비할 수 있습니다.

'모르겠다'고 말해야 할 때를 알아야 할 때를 알아야 하고, 도움을 요청해야 할 때를 알아야 하며, 가장 중요한 것은 문제가 주어진 AI 도구의 범위를 벗어날 때를 아는 것입니다.

Cal Al-Dhubaib은 Further의 AI 및 데이터 사이언스 책임자입니다.

이상의 기사는 2024년 5월 4일 VentureBeat에 게재된 “How to prepare your workforce to think like AI pros”제목의 기사 내용을 편집하여 작성하였습니다.

* 원문정보 출처 : https://venturebeat.com/ai/how-to-prepare-your-workforce-to-think-like-ai-pros/

저작권자 ⓒ 창조아고라, 무단 전재 및 재배포 금지