박상준
승인
2024.02.27 10:38
의견
0
근년 들어 그림 그려주고 글도 써주는 AI가 화제더니, 이제는 동영상 만들어주는 AI까지 등장했다. 결과물이 정말 놀랄 정도의 퀄리티를 보여주고 있다. AI가 인간들의 일자리를 빼앗을 것이라는 우려가 피부에 와닿는 현실이 되었다. 벌써 관련 논쟁들이 뜨겁다.
사실 이에 대한 대비책은 이미 80여 년 전에 SF에서 제시된 바 있다. 관심 있는 사람들에겐 진작부터 잘 알려져 있던 내용이다. 바로 SF작가 아이작 아시모프(1920-1992)가 제창한 ‘로봇공학의 3원칙’이다.
아시모프는 1940년대 초에 로봇이 주인공으로 등장하는 SF소설을 잇달아 내놓으면서 작품 안에서 로봇의 윤리 강령이라고 할 수 있는 ‘로봇공학의 3원칙’을 제시했다. 그 내용은 다음과 같다.
제 1법칙 : 로봇은 인간에게 해를 끼쳐서는 안 되며, 위험에 처해있는 인간을 방관해서도 안 된다.
제 2법칙 : 로봇은 인간의 명령에 반드시 복종해야만 한다. 단, 제 1법칙에 거스를 경우는 예외이다.
제 3법칙 : 로봇은 자기 자신을 보호해야만 한다. 단, 제 1법칙과 제 2법칙에 거스를 경우는 예외이다.
아시모프는 자신이 발표한 모든 로봇 소설에 이 원칙들을 적용시켜 로봇의 행동이나 판단에 철저하게 반영했다. 그 결과 그전까지는 작품 안에서 괴물이나 신기한 구경거리 정도에 지나지 않았던 로봇이 비로소 독립적이고 설득력있는 캐릭터의 지위를 획득하게 되었다.
하지만 지금의 과학기술로 구현할 수 있는 AI로봇은 아직 여러 복잡한 상황에서 위 원칙을 준수하기 어렵다. 스스로 주체적인 판단을 할 수 있는 ‘강한 인공지능’의 단계에는 도달하지 못했기 때문이다. 그래도 이 3원칙은 충분히 유효하다. 왜냐면 이 원칙들은 사실 AI 이전에 인간이 만들어내는 모든 도구나 장치들이 반드시 갖추어야 할 필수적인 내용들을 담고 있어서이다. 일본의 어느 SF팬이 로봇공학의 3원칙을 재해석하여 이른바 ‘가전제품의 3원칙’으로 정리했다는 다음 내용을 보자.
제 1조, 위험하지 않아야 한다. (사용하다가 다치는 일이 없을 것)
제 2조, 사용하기 편해야 한다. (조작이 간편하고 쉬울 것)
제 3조, 튼튼해야 한다. (수명이 길고 고장이 잘 나지 않을 것)
그야말로 우리가 AI로봇으로부터 안전하기 위해서 필요한 핵심적 사항들을 고스란히 표현하고 있다. 우리는 이 원칙들을 기준으로 삼아 AI로봇 사용법을 차근차근 업그레이드해 나가면 될 것이다. 처음에는 인간들 스스로가 이 원칙들에 맞게 AI로봇을 만들겠지만 세월이 흐르면서 딥 러닝 등의 과정을 통해 서서히 AI로봇이 직접 이 원칙들에 맞는 작동, 또는 행동 기준을 세워갈 것이다.
저작권자 ⓒ 창조아고라, 무단 전재 및 재배포 금지