https://the-decoder.com/openai-fires-two-ai-safety-researchers-for-alleged-leaks/
https://www.theinformation.com/articles/openai-researchers-including-ally-of-sutskever-fired-for-alleged-leaking

OpenAI는 내부 권력 다툼 끝에 기밀 정보를 유출한 혐의로 두 명의 AI 안전 연구원을 해고했다고 더인포메이션이 보도했습니다.


해고된 직원 중 한 명은 고급 인공지능의 거버넌스에 초점을 맞추고 잠재적인 슈퍼 인공지능을 제어하고 관리하는 기술을 개발하는 '슈퍼얼라인먼트' 팀의 전 멤버였던 레오폴드 아셴브레너(Leopold Aschenbrenner)였습니다.


해고된 또 다른 직원인 파벨 이즈마일로프는 AI 추론 업무를 담당했으며 한동안 안전팀에 소속되어 있었다고 더 인포메이션은 전했습니다.


이 보고서는 또한 아셴브레너가 수석 과학자 일리야 수츠케버의 동료이며, 지난 가을 샘 알트먼 CEO를 축출하려다 실패한 시도에 연루된 인물이라고 명시하고 있습니다.


수츠케버는 이후 공개석상에 모습을 드러내지 않고 있습니다. OpenAI와 알트먼은 이 문제에 대해 명시적으로 언급하지 않았습니다. 3월 중순, 알트먼은 서츠커버는 괜찮지만 회사에서 그의 역할에 대해서는 언급하지 않겠다고 말했습니다.


Q* 유출에 관한 건가요?


해고된 두 직원이 어떤 정보를 유출했다고 주장하고 있는지는 알려지지 않았습니다. 그러나 최근 OpenAI에서는 단 한 건의 대규모 정보 유출이 있었습니다: 바로 GPT-5에서 처음 사용된 OpenAI의 대규모 언어 모델 로직 유닛인 Q*입니다.


두 연구원의 프로필이 이번 유출과 일치하는데, Q*는 LLM의 추론 기능을 강화하기 때문에 안전성에 문제가 있는 것으로 추정됩니다.


보고서에 따르면 아셴브레너는 단기적인 이익이나 생산성 향상보다 AI의 위험에 맞서 싸우는 것을 우선시하는 '효과적인 이타주의' 운동과 관련이 있다고 합니다.


이것이 그의 해고와 관련이 있는지, 아니면 정보 유출의 동기가 되었는지는 알려지지 않았습니다. 알트먼이 전격적으로 축출될 당시 스타트업이 AI를 충분히 안전하게 개발하고 있는지에 대한 의견 충돌이 있었던 것으로 알려졌습니다.