🌐 세계는 AI 돌파구에 제대로 대비하지 못하고 있다고 전문가들 경고

세계 각구의 정부가 인공지능 발전을 다루는 데 있어 규제 진전에 충분히 이루지 못했다고 다수의 고위 전문가들, 특히 AI 분야의 저명한 두 인물이 지적하고 있다. 이들 전문가는 기술 회사들이 자율 시스템으로 빠르게 전환하면서 AI의 영향력이 크게 증대될 수 있어 긴급한 규제 조치가 필요하다고 경고하고 있다.


👩‍💻 권고사항과 우려

제프리 힌턴과 요슈아 벤지오를 포함한 25명의 저명한 인물들로 구성된 전문가들은 AI 기술이 발전함에 따라 엄격한 요구 사항을 강제하는 견고한 안전 프레임워크가 필요하다고 강조한다. 이들은 영국과 미국의 AI 안전 연구소에 대한 자금 지원 증대, 기술 기업의 더 엄격한 위험 평가, 중요한 사회적 역할에서 자율 AI 사용 제한을 요구하고 있다.


이 권고사항은 사이언스 저널에 실린 “빠른 진전 속에서 극단적인 AI 위험 관리”라는 제목의 학술 논문에 상세히 기술되어 있다. 이 논문은 AI 안전 연구의 지연과 현재의 거버넌스 이니셔티브가 오용과 부주의를 방지하는 데 부족하다고 강조하고 있다.


🌍 글로벌 AI 정상회의 및 이니셔티브

이 개입은 서울에서 정치인, 전문가, 기술 경영진이 AI 안전에 대해 논의하기 위해 열리는 이틀간의 정상회의와 일치한다. 지난해 영국의 블레츨리 파크에서 열린 글로벌 AI 안전 정상회의에서는 구글, 마이크로소프트, 메타와 같은 주요 기술 회사와의 자발적 테스트 협약이 체결되었다. 또한, EU는 AI 법을 도입했으며, 미국은 백악관 행정 명령을 통해 새로운 AI 안전 요구사항을 마련했다.


🤖 고도 AI의 약속과 위험

이 논문은 질병 치유와 생활 수준 향상과 같은 고도 AI 시스템의 잠재적 이익을 제시하지만, 사회적 불안정과 자동화된 전쟁 등 중대한 위협도 경고하고 있다. 전문가들은 자율 행동이 가능한 일반적인 AI 시스템 개발에 중점을 두는 기술 산업의 집중이 인간의 소외 또는 멸종으로 이어질 수 있는 더 큰 위험을 초래한다고 경고하고 있다.


🚀 상업적 AI의 미래: 자율 시스템

AI 개발의 다음 단계는 자율적으로 작업을 수행할 수 있는 "자율형 에이전트" AI 시스템이다. 최근 발전으로는 실시간 음성 대화를 할 수 있는 오픈AI의 GPT-4o와 스마트폰 카메라를 사용해 위치를 식별하고 컴퓨터 코드를 설명할 수 있는 구글의 프로젝트 아스트라가 있다.


📚 전문가 기여

논문의 공동 저자 중에는 사피엔스의 저자 유발 노아 하라리, 경제학 노벨상 수상자 고 다니엘 카너먼, 토론토 대학교의 교수인 실라 맥일레리, 그리고 캘리포니아 대학교 버클리의 교수인 던 송이 있다. 이 논문은 블레츨리 회의 전에 제안된 초기 제안을 업데이트한 동료 검토 논문이다.


🇬🇧 영국 정부의 반응

영국 정부 대변인은 전문가들의 평가에 동의하지 않으며, AI 서울 정상회의는 블레츨리 파크 정상회의에서 약속한 사항을 진전시키고 AI 모델의 안전을 보장하기 위한 것이라고 밝혔다.


---

출처: https://www.theguardian.com/technology/article/2024/may/20/world-is-ill-prepared-for-breakthroughs-in-ai-say-experts

---


차량이나 총기, 칼, 핵 무기나 사제 폭발물을 직접 만들 수 있는 방법 알려주는 책이나 유튜브 영상도 위험한데 그것도 AI처럼 싹 다 규제하지?

제프리 힌턴은 진짜 제자들한테 노망 났다고 손절 당해도 할 말 없겠네. 심지어 아직도 OpenAI 따라잡지도 못하는 구글 출신인데 ㅋㅋㅋ