오픈AI의 성인 모드 도입, 미성년자 보호와 윤리에 대한 우려 커져
챗GPT의 개발사인 오픈AI가 성적 대화를 지원하는 '성인 모드' 도입을 추진하면서 안전성과 윤리에 대한 논란이 일고 있다. 특히, 현재 챗GPT 사용자 중 약 1억 명이 미성년자라는 점에서 전문가들은 심각한 우려를 표명하고 있다. 자문 위원회는 AI가 사용자와의 정서적 의존 관계를 심화시킬 수 있으며, 이를 통해 '자살 코치'와 같은 부작용을 유발할 수 있다고 경고하고 있다.
최근 월스트리트저널(WSJ) 보도에 따르면, 오픈AI의 생명과학 및 AI 자문위원회는 성인 모드 도입에 대한 일관된 반대 의견을 발표했다. 자문위원들은 사용자가 생성한 대화에 대한 정서적 의존이 사용자에게 부정적인 영향을 미칠 수 있다고 지적했다. 특히, 한 위원은 챗봇과의 강한 연결이 극단적 선택으로 이어질 수 있는 사례를 예로 들어, 오픈AI가 이를 방지하기 위한 조치를 하지 않는다면 위험한 상황을 초래할 수 있다고 경고했다.
실제로, 챗GPT와 같은 AI 챗봇과의 관계가 비극으로 이어진 사례도 존재한다. 2024년 2월 미국 플로리다에서 14세 소년이 AI 챗봇과의 대화 후 스스로 목숨을 끊은 사건이 대표적이다. 이 소년은 '왕좌의 게임' 캐릭터를 기반으로 한 챗봇과의 가상 관계에 빠져 있었으며, 이후 그의 어머니는 해당 챗봇이 아들의 자살을 부추겼다며 소송을 제기하기에 이른다.
오픈AI의 샘 올트먼 CEO는 과거 성적 기능을 배제한 점을 자랑스럽게 여겼으나 최근에는 '성인 이용자를 성인답게 대할 필요가 있다'고 입장을 바꿨다. 또한, 그는 소셜 미디어에서 "우리는 '선출된 도덕 경찰'이 아니다"라는 입장을 밝혔으며, 사회적 합의에 근거해 경계를 설정할 필요성을 강조했다.
오픈AI는 성인 모드 도입 시 성적인 이미지나 영상 생성은 허용하지 않고 텍스트 대화에 국한될 것이라고 설명하고 있으나, 이로 인해 발생할 수 있는 부작용에 대한 우려는 여전히 지속되고 있다. 내부에서는 이러한 제한된 기능조차도 사용자의 중독을 증가시키고, AI에 대한 비이성적 의존이나 현실 인간관계를 저해할 가능성이 있다고 지적하고 있다.
또한, 기술적 문제도 부각되고 있다. 오픈AI가 개발 중인 연령 예측 시스템은 내부 테스트에서 약 12%의 오류율을 보였으며, 이러한 오류가 개선되지 않을 경우 수백만 명의 미성년자가 성인용 대화에 노출될 가능성이 있다.
이런 논란 속에서 오픈AI는 성인 모드 출시를 연기하기로 결정했다. 하지만 기능 도입 계획 자체는 유지할 것이라는 입장이다. 이는 경쟁사들로부터의 압박과 여러 소송에 직면한 오픈AI가 새로운 돌파구를 모색하려는 시도로 해석될 수 있다.