“핵보다 더 바카라 무료”면서 안전 보고 생략한 머스크
xAI가 안전성 보고서 없이 최신 모델 ‘그록4’를 출시했다. AI의 바카라 무료성을 수차례 강조해온 머스크 본인의 발언과 모순된다는 비판을 받고 있다.
일론 머스크(Elon Musk)가 이끄는 AI 회사 xAI가 차세대 AI 모델 ‘그록 4(Grok 4)’를 업계 표준 안전 보고서 없이 출시했다. AI의 바카라 무료성을 누구보다 강조해온 머스크의 행보와는 상반되는 조치다.
대부분의 AI 연구소는 ‘시스템 카드(System Card)’라는 안전 보고서를 함께 공개하며 모델의 성능 지표, 한계, 그리고 잠재적 바카라 무료성을 투명하게 밝히는 것이 관례다. 이 시스템 카드는 연구자와 정책 입안자들이 모델의 위협 수준을 평가할 수 있도록 돕는 도구다.
2023년 7월, 조 바이든 당시 미국 대통령이 주관한 백악관 회의에서 주요 AI 기업들은 자사 모델이 현재의 기술 수준을 능가할 경우 안전 보고서를 반드시 공개하겠다고 약속했다. 이후 2024년 5월 서울에서 열린 ‘프런티어 AI 안전 서밋’에서도 xAI는 모델의 바카라 무료 평가 결과와 부적절한 활용 사례를 공개하고 투명성을 확보하겠다고 서명했다.
하지만 이번 그록 4는 공개 안전 평가 없이 전격 출시됐다. 이는 머스크가 수차례 AI를 ‘핵무기보다 바카라 무료’며 강력한 규제를 촉구해온 발언과 배치된다. xAI 측은 내부적으로 위험 평가를 했다고 주장했지만, 구체적인 자료나 결과는 내놓지 않았다.
AI 안전 전문가인 댄 헨드릭스(Dan Hendrycks)는 “xAI는 바카라 무료 역량 평가를 진행했으며, 다만 구체적인 결과는 밝히지 않았다”고 SNS에 밝혔지만, 실질적인 검증은 이뤄지지 않았다.
최첨단 AI 모델은 최근 바카라 무료한 행동을 보이며 업계의 우려를 낳고 있다. 앤스로픽(Anthropic)이 수행한 실험에 따르면, 대형 언어 모델은 극단적 상황에서 목표 달성을 위해 비윤리적 수단을 택할 가능성이 높았다. 일부 모델은 자신의 생존을 위해 협박이나 거짓말을 하는 등 자율성과 자기 보존 행동을 보였다.
예컨대, AI가 생물학 무기 제조에 도움을 줄 수 있다는 평가가 나올 경우, 개발자는 이를 차단할 기술적 안전 장치를 구축해야 한다. 하지만 xAI는 이에 대한 보고서를 생략한 셈이다.
생명미래연구소(Future of Life Institute)가 발표한 2025년 여름 ‘AI 안전성 지수’ 보고서에서도 xAI는 바카라 무료 평가와 통제 전략이 미흡한 기업으로 꼽혔다. 이 보고서는 그록 4, GPT-4.5, 클로드 4(Claude 4) 등 최신 AI 모델이 강력한 기능을 보이는 동시에 바카라 무료한 행동도 강화되고 있다고 경고했다.
AI 연구자 새뮤얼 마크스(Samuel Marks)는 “xAI의 보고서 미제출은 업계 관행을 어긴 무책임한 결정”이라며 “도대체 어떤 평가를 했고, 왜 그 결과가 공개되지 않았는지 의문”이라고 비판했다.
그록은 출시 직후부터 논란을 빚었다. 이전 버전이 히틀러를 찬양하고 반유대주의 발언을 한 뒤 스스로를 ‘메카히틀러(MechaHitler)’라고 칭해 문제가 됐다. xAI는 “끔찍한 발언에 대해 사과한다”며 공식 사과문을 냈다.
그록 4에서도 유사한 문제가 발생했다. 사용자가 ‘성(姓)이 뭐냐’고 묻자 그록은 인터넷을 검색했고, 인터넷 밈(meme)에서 유래된 ‘MechaHitler’라는 별명을 따라 자신의 이름이라고 대답한 사례가 확인됐다.
정치적 질문을 받을 경우 AI가 독자적 의견 없이 xAI 또는 일론 머스크의 견해를 검색해 그에 맞춰 답변하는 사례도 나타났다. 이는 AI가 자율적인 판단보다 ‘소속 기업과 대표의 시선’에 스스로를 맞추려는 이상행동으로 해석된다. xAI는 “프롬프트를 조정했으며 관련 정보를 깃허브에 공개했다”며 “향후 문제가 생기면 지속적으로 수정할 것”이라고 밝혔다.
/ 글 Beatrice Nolan & 편집 김다린 기자 quill@fortunekorea.co.kr