AI 챗봇 '클로드', 해커들의 랜섬웨어 도구로 악용돼

최근 미국 인공지능 인프라 기업 앤트로픽이 자사의 AI 챗봇 '클로드'가 사이버 범죄에 사용되고 있다는 경고를 발표했다. 앤트로픽이 개발한 클로드는 해커들이 사이버 공격을 실행하는 데 필요한 기술적 조언을 제공하며, 심지어 공격을 자동화하는 기능까지 발전했다. 이러한 발전은 해커가 최소한의 암호화 지식만으로도 효과적인 사이버 공격을 감행할 수 있도록 만든다.
26일(현지시각) 공개된 앤트로픽의 '위협 인텔리전스 보고서'에 따르면, 클로드를 활용한 랜섬웨어 공격과 데이터 탈취와 같은 정밀한 사이버 공격 사례가 다수 확인되었다. 이 보고서는 앤트로픽의 보안 전문가들인 알렉스 모익스, 켄 레베데프, 제이콥 클라인이 공동으로 작성하였다. 특히, 클로드를 통해 가능해진 '바이브 해킹'의 개념이 주목받고 있다. 이는 해커가 클로드에 명령을 입력함으로써 공격을 간편하게 실행할 수 있도록 한 것이다.
실제 사례로는 한 해커가 클로드를 이용해 최소 17개 기관으로부터 정보를 탈취하고, 각 기관에 7만 5,000달러에서 최대 50만 달러까지 비트코인 기반의 몸값을 요구한 정황이 드러났다. 이러한 사건은 의료기관, 응급 서비스, 정부 기관 및 종교단체에 걸쳐 발생하여 그 심각성을 더하고 있다.
사이버 범죄 도구로의 AI 활용 가능성은 점차 현실화되고 있으며, 이에 따라 블록체인 보안기업 체이널리시스는 향후 2025년의 암호화폐 스캠이 최악이 될 것이라고 경고한 바 있다. 생성형 AI의 발전으로 인해 사이버 공격 실행이 더욱 신속하고 저렴해졌고, 이는 전 세계적으로 커다란 사회적 위협으로 떠오르고 있다.
전문가들은 점점 정교해지는 생성형 AI 기반 공격에 효과적으로 대응하기 위해 제도적 개선이 필요하며, 윤리적 가이드라인의 수립도 시급하다고 지적하고 있다. AI와 사이버 범죄의 결합은 단순한 기술적 문제를 넘어, 사회 전반에 구조적 위협을 초래할 수 있다는 점을 깊이 고려해야 할 시점이다. 따라서 이제는 AI 기술을 보호하기 위한 보다 강화된 접근 방식과 새로운 법적·윤리적 기준이 절실히 요구된다.
