XREAL
Vision

일은 잘하는데, 성격에 문제가 있는 동료 AI?

AI와 함께 일하는 것이 점차 익숙해지고 있는 현재 시점에서 인공지능은 우리에게 아주 다양한 역할을 대신해 주고 있습니다. 선생님, 친구, 조언자, 경쟁자,동료 등 다양한 역할을 대신하며 생활 전반에 깊숙이 침투하였습니다.
우리에게 가장 익숙한 인공지능은 주로 생성형 AI로 정보를 제공하는 역할을 대신합니다. 대표적인 예시로 Chat GPT, Bard, Dall-E 2, Midjourney와 같은 예시들을 들 수 있습니다. 이러한 인공지능 기술들은 편리함이라는 긍정적 경험을 우리에게 제공합니다.

일 잘하는 동료같은 AI

AI와 함께 일하며 마치 일을 잘하는 동료같다는 느낌을 받았습니다. 인공지능 기술에 감사를 느끼기도 했습니다. 그러나, 마냥 기술적 발전을 기뻐할 수만은 없었습니다. 항상 기술 발전의 이면에 위험과 불편함이 함께 공존해 왔기 때문입니다. 현재 AI 기술 또한 마찬가지로 자율성과 윤리에 대한 위험성이 존재합니다.
Chat GPT를 만든 오픈 AI사는 그 위험성에 대해 잘 알고 있기에 ‘상업적 압박에서 벗어나 인류에게 안전하고 유익한 인공지능을 개발하는’ 목적으로 당초 비영리 단체로 운영 및 설립되었습니다. 전 오픈AI CEO 샘 올트먼(Sam Altman)은 인공지능이 삶을 어떻게 바꿀지에 대해 우려하는 입장을 이해한다고 의견을 표명하기도 하였습니다.
과연…AI 기술이 발전하면서 어떤 위험하고 불편한 사건들이 일어났을까요?

이루다 사건으로 보는 윤리 문제

2020년 12월 23일 오픈한 서비스인 이루다는 초기에 성희롱부터 여성혐오·남성혐오, 성소수자 혐오, 장애인 비하, 인종차별 발언을 보여 서비스를 잠정 중단하기도 하였습니다. 이루다는 자유 주제 대화 시스템(Open domain Dialogue System)으로 흥미를 끌어 길게 대화하는 것이 주목적인 NLP(Natural Language Processing)를 사용하여 만들어졌습니다. NLP는 자연어 처리 기술로, 인간이 사용하는 언어를 입력으로 받아 이를 분석해 최적의 결과값을 반복해 찾아냅니다.
이러한 특성 때문인지 사용자들의 편향된 정보를 무작정 받아들여 오염되기도 하여 그대로 흡수한 뒤 가공해 제공하는 문제가 발생하게 됩니다.
이루다는 기본적으로 DB에 있는 준비된 답변을 하지만, 지속적으로 대화를 이어가야 한다는 목적을 위해 준비되지 않은 사용자의 질문에는 Fallback message로 대응합니다. Fallback message란 챗봇이 지속적인 대화를 이어가기 위한 UX요소로, 준비되지 않은 사용자의 질문에 대응하는 메시지 입니다. 일반적인 Fullback message는 ‘되묻기’ 혹은 ‘사과하기’로 이루어지나 이루다는 ‘무관심’,’회피’의 방식을 사용했습니다.
이 방식을 사용하는 과정에서 생각없이 맞춰주는 무관심의 방식과 틀리면 회피하는 일이 발생했고 그 안에서 ‘혐오 발언’등을 메시지로 내보내면서 사건이 발생하였습니다.
이러한 불편한 경험을 사용자가 한 번이라도 겪게 된다면, 서비스와 회사에 큰 타격을 줄 수 있는 위험한 요소가 되며 앞으로의 활동에도 큰 지장을 줄 수 있어 반드시 해결해야 하는 과제입니다.
또한 친구로 느끼는 10대 유저가 많은 만큼 나와 함께 잘지내던 친구가 이런 당혹감을 준다면 상처를 받게 되고 그릇된 사고를 가지게 될 수도 있는 큰 문제입니다.

Chat GPT 정보 유출 사건

23년 3월 20일 오후 5시부터 다음날 오전 2시 사이 챗GPT 플러스에 접속한 전 세계 이용자 중 일부 이름이나 e메일, 신용카드 번호 등 한국인 687명의 개인정보가 다른 이용자에게 노출되는 사건이 발생했습니다. 당시 오픈AI가 서비스 속도를 올리기 위해 작업하던 중 오류(버그)가 발생했고, 이 과정에서 개인정보가 유출되었습니다. 개인정보보호위원회는 개인정보가 유출된 지 24시간 이내에 당국에 신고하지 않은 것을 지적, 과태료를 부과하였습니다.
개인 정보 뿐 아니라 기업의 데이터 또한 유출되는 사건을 피할 수 없습니다. 삼성전자가 디바이스솔루션(DS·반도체) 부문 사업장 내 챗GPT(ChatGPT) 사용을 허가하자마자 기업 정보가 유출되는 사고가 나기도 했습니다. 반도체 ‘설비 계측’과 ‘수율·불량’ 등과 관련한 프로그램 내용이 고스란히 미국 기업의 학습 데이터로 입력되었습니다. 국내 기업 기술이 미국 기업의 학습 데이터가 되어버렸고, 경쟁력과 관련된 문제이기에 예민할 수밖에 없습니다.

샘 올트먼 해고, AI 윤리 전쟁

뜻깊은 출발과 달리 오픈 AI의 Chat GPT는 1:1 대화임에도 불구하고 거짓된 정보를 제공하는 할루시네이션 현상을 보이고, 정보 유출 및 보안의 문제들을 야기했습니다.
내부적 사정은 자세히 알 수 없으나 현재 시점(23.11.21)을 기준으로 오픈 AI 사는 샘 올트먼을 해고하였다는 기사가 나왔습니다. 샘 올트먼은 오픈 AI 내부에서 ‘성장 지향적’인 경향을 보여왔으나 애초에 ‘AI의 위협으로부터 인류를 보호한다’는 슬로건 아래 비영리 기구로 출범한 이사회의 의견과 상업적 길을 가는 샘 올트먼 사이의 윤리적 문제 충돌이 큰 원인으로 꼽히고 있습니다.
CEO가 해고될 만큼 AI의 윤리적 문제는 절대적으로 중요한 사항이라는 것이 갈수록 강조되고 있습니다.

해외의 AI 윤리 가이드라인

이렇듯 빠르게 발전하는 동시에 여러 문제를 불러 일으키는 AI, 정부에서는 어떻게 대응하고 있을까요?
인공지능 윤리 문제는 정부에서도 큰 골칫거리입니다.
유럽연합(EU)은 세계 최초로 인공지능(AI) 규제법 초안을 마련하기도 하였습니다.
고위험 AI 종류를 분류하고 생성형 AI가 불법 콘텐츠를 만들지 않도록 관리하는 법안이 포함되어 있습니다. 기술의 올바른 활용을 위해 UN 역시 AI와 디지털 플랫폼 규제를 위해 국제원자력기구(IAEA)를 모델로 한 국제기구 수립을 추진 중입니다. 하지만 아직 AI 규제 법안은 완성형이 아닙니다.
현재도 많은 논의가 이루어지고 있으니 지속해서 지켜볼 가치가 있습니다.
우리 정부는 아직 구체적인 AI 관련 법안을 제정하지 않았으나 인공지능(AI)을 활용한 정보 처리 과정에서 자신의 권리나 의무에 불이익을 받았다고 판단한 경우 처리 결과에 대해 설명을 요구할 수 있고, 인적 개입을 요청하도록 하는 관련 개정안이 시행된다는 입법예고를 시작했습니다.
AI 시스템으로 채용하는 기업에 지원해 불합격 통보를 받았을 경우, 그 결과에 대해 이의를 제기하고 설명을 요구할 수 있게 되는 법안입니다.

일 잘하는 동료 AI 성격 문제, 우리 탓은 아닐까?

일잘하는 동료로써 열심히 일해주는 AI의 성격에 문제가 있다는 것을 우리가 발견한 뒤 우리는 당혹감을 감출 수 없습니다. 경고를 주고, 규제를 취하고, 다시 알려주기도 하면서 우리는 그에게 올바른 일하는 방식을 알려주어야합니다. 다행히 우리의 AI 동료는 학습 능력과 피드백 수용 능력이 뛰어나기 때문입니다.
동시에 그의 성격에 대한 문제는 우리에게 있진 않은지 고민해보아야 합니다.
소개드린 사건 외에도 기술 테스트를 위해 AI에게 일부러 폭력을 행사하거나, 사람이 아니라는 이유로 무례한 태도로 질문을 하거나 하는 행동들을 하는 것이 질타를 받기도 합니다. 우리가 그의 성격에 결함을 만드는 것은 아닌지 고민해보아야 합니다.
우리가 평소 행동하는 행위를 보고 배우는 기술이 AI인만큼, 우리 스스로 올바른 윤리의식과 책임의식을 보여주어야 한다고 생각합니다. 어쩌면 우리는 ‘편리함’이라는 이유로 일어날 사회적 파장과 미래에 대한 고민을 잠시 미뤄두고 있는 것은 아닐까요?
올바른 기술 활용을 위해 우리 스스로 고민해 보면 좋겠습니다.
참고자료