Shadow AI의 문제점 및 대응방법

What Is Shadow AI? Enterprise IT’s Latest Security Threat

박윤석 VP 승인 2024.03.14 12:12 의견 0

4.39%의 기업만이 비즈니스 전반에 걸쳐 AI 도구를 완전히 통합했습니다. 다른 기업들은 그림자 AI 문제가 있을 수 있습니다.

지난 몇 년 동안 인공 지능의 부상은 전체 기술 산업을 뒤흔들었으며 엔터프라이즈 사이버 보안 산업도 예외는 아닙니다.

"섀도우 AI"라는 용어는 조직 내에서 AI를 무단으로 사용하는 것을 의미합니다. IT 부서는 이에 대해 알지 못하기 때문에 AI 사용을 추적하거나 제어할 방법이 없습니다.

이로 인해 회사는 잠재적인 악용 또는 기타 문제에 노출될 수 있습니다. 섀도우 AI가 점점 더 문제가 될 수 있는 이유와 기업이 이에 대해 할 수 있는 일은 다음과 같습니다.

Shadow AI란?

섀도우 AI는 직원이 AI를 사용하여 회사 지식이나 동의 없이 작업을 수행하는 것을 말합니다. 직원들이 회사에 이러한 사용에 대해 설명하지 않으면 해당 회사는 직급 내에서 진행되고 있는 섀도우 AI 사용에 대해 알지 못합니다.

작업을 더 빠르게 완료할 수 있지만 AI 사용에 대한 가시성과 지침이 없으면 결과를 완전히 제어할 수 없습니다. 그리고 모든 비즈니스 관리자에게 이러한 통제력 부족은 비즈니스의 지속적인 성공에 대한 위험 신호입니다.

섀도우 AI가 아직 치명적인 보안 실패로 이어지지는 않았지만 이미 많은 산업에서 큰 문제가 되고 있음을 시사하는 많은 증거가 있습니다. 결국, 상당수의 기술 회사는 사후에 해킹을 보고하지 않습니다.

다음은 섀도우 AI의 잠재적 위협에 대한 추가 컨텍스트를 제공하는 한 가지 중요한 추가 사실입니다.

4.39%의 기업만이 조직 전체에 AI 도구를 완전히 통합했습니다

Tech.co의 2024년 기술이 직장에 미치는 영향에 대한 보고서에 따르면 이는 확고한 AI 지침을 보유한 기업 25곳 중 1곳에 불과합니다.

반면, 다른 설문조사 응답자의 44%는 개인 환경뿐만 아니라 전문적인 환경에서도 AI를 사용한다고 답했습니다. 프랑스 기업을 구체적으로 조사한 이 설문조사에서는 직원의 28%가 회사의 감독 없이 AI를 사용하고 있는 것으로 추정됩니다.

다시 말해, 지난 몇 년 동안 생성형 텍스트 및 이미지 도구를 둘러싼 소문에도 불구하고 기업들은 AI에 대한 규제를 마련하는 데 소홀하였습니다.

Shadow AI가 위험한 이유

정의상 모니터링되지 않거나 완전히 이해되지 않는 관행의 위험을 파악하는 것은 어려운 일입니다. 가장 큰 우려 사항은 다음과 같습니다.

1. 내부 또는 외부의 잘못된 정보

보고서에 따르면 고위 경영진의 49%가 대규모 언어 AI 모델이 잘못된 정보를 생성할 위험에 대해 우려하고 있습니다. 우리는 이미 잘못된 AI 기반 법률 서류와 기타 실수에 대한 보고를 보았으므로 내부 비즈니스 보고서나 중요한 고객에게 보내는 이메일에서도 동일한 일이 발생한다고 쉽게 상상할 수 있습니다.

2. 사이버 보안 위험

코딩 목적으로 AI를 배포하는 것은 인기 있는 사용 사례 중 하나이지만, IT 지원 팀에서 사용하는 경우 해당 코드에는 AI에서 생성된 버그나 해커가 보안 프로토콜을 통과하여 맬웨어 로직 폭탄을 슬쩍 통과시킬 수 있는 틈이 포함될 수 있습니다.

3. 노출된 데이터

또한 많은 AI 사용자는 무료 AI 도구 뒤에 있는 회사에서 프롬프트를 기록한다는 사실을 알지 못합니다. 개인 회사 데이터가 프롬프트에 사용되는 경우 노출됩니다. 그렇기 때문에 무엇보다도 민감한 회사 데이터를 AI 플랫폼과 공유해서는 안 됩니다.

4. 규정 준수 실패

전 세계 정부는 자체적인 AI 제한 및 지침을 출시하고 있습니다. 회사 내에서 연방 또는 주 규정을 추적할 담당자가 없으면 직원이 향후 규제 감시 기관의 조사에 노출되지 않을 것이라고 확신할 수 없습니다.

기업이 Shadow AI 사용에 대처할 수 있는 방법

궁극적으로 Shadow AI의 위협은 직장 내 AI 사용을 둘러싼 비즈니스 정책이 존재하지 않거나 제한되어 있기 때문에 발생합니다. 따라서 답은 비교적 간단합니다: AI 사용을 특정 역할 내의 특정 작업으로 제한하는 지침을 만들어야 합니다.

그리고 미국 기업의 50%가 현재 "ChatGPT 사용을 관리하고 Shadow GPT를 종료하기 위해 내부 정책을 업데이트하고 있다"고 말하면서 이 솔루션은 느리지만 이미 출시되고 있는 것으로 보입니다.

가장 안전한 방안은 AI 사용을 전면 금지하는 것이다: 애플, 아마존, 삼성, 골드만삭스는 적어도 일부 버전의 AI 사용을 금지한 몇 안 되는 회사들 중 하나입니다. 그러나 이것은 또한 기술 도구의 이점을 누릴 수 없다는 것을 의미합니다.

가이드라인에 향후 AI 사용에 대한 주의 사항을 포함할 수 있습니다. AI 도구는 앞으로도 계속 발전할 것이므로 승인이 보류 중인 작업자는 초기 가이드라인 외에 AI 사용을 확장할 수 있어야 합니다.

기업 AI 사용을 위한 모범 사례

회사 내 AI 사용이 반드시 나쁘지는 않습니다. 직장 내 기술에 대한 Tech.co의 2024년 보고서에 따르면 협업 도구와 AI를 더 많이 사용하는 사람들은 더 높은 생산성을 스스로 보고했으며 AI 사용자의 59%는 직업 만족도가 더 높았습니다.

다음은 AI를 최대한 활용하기 위한 몇 가지 팁입니다.

1. 교육 과정을 확인해 보세요.

많은 AI 교육 자료가 온라인에서 무료로 제공됩니다.

2. 일자리를 대체하려고 하지 마십시오.

AI가 인간을 완전히 대체하기까지는 갈 길이 멉니다. Workday의 보고서에 따르면 AI를 사용하여 작업을 작성하는 조직의 고위 경영진 전문가 중 63%는 AI 도구가 직무 역할을 제거하는 데 영향을 미치지 않았다고 말합니다.

3. AI를 특정 봇 및 특정 작업으로 제한합니다.

ChatGPT 또는 Claude 3가 현재 최선의 선택일 수 있습니다.

4. 프롬프트 가이드를 읽으십시오.

최고의 프롬프트가 최상의 결과를 얻으므로, 프롬프트 작성에 대해 생각하는 방법을 제안하기 위한 가이드를 마련했습니다.

ChatGPT는 2024년 설문 조사에서 기업 내에서 가장 인기 있는 AI 도구였지만 다른 도구도 비슷하거나 더 잘 작동할 수 있습니다. 최근 테스트 중 하나는 Claude 3가 ChatGPT와 비교할 때 더 좋고 구문 분석하기 쉬운 텍스트 결과를 작성한다는 것을 발견했습니다.

마지막으로, 생성형 텍스트 또는 이미지 봇은 실제로 "지능적"이 아니라는 점을 기억하는 것이 중요합니다. AI가 제공해야 하는 모든 것을 사용하기 전에 항상 환각이나 기타 거짓말을 다시 확인하는 인간 가이드가 필요합니다.

이상의 기사는 2024년 3월 12일 Tech.co에 게재된 “What Is Shadow AI? Enterprise IT’s Latest Security Threat”제목의 기사 내용을 편집하여 작성하였습니다.

* 원문 출처 : https://tech.co/news/what-is-shadow-ai

저작권자 ⓒ 창조아고라, 무단 전재 및 재배포 금지