즐겁고 인간적인 이해를 위해 첨부







We’re not dreamers.

우리는 몽상가들이 아니다.

We’re awaking from a dream turning into a nightmare. 

우리는 꿈에서 깨어나 악몽으로 변하고 있다.

We’re not destroying anything. 

그러나 우리는 아무것도 부수지 않는다.

We’re watching the system destroy itself. 

우리는 그저 체계가 자신을 파괴하는 것을 볼 뿐이다.

-슬라보예 지젝 slavoj Žižek -









(DALL-E mini, 자신의 프롬프트를 완성하다)


패러독스와 끝없는 위험성, 그리고 초지능과 AI 혁명.


우리는 앞서 인공지능의 기원과 그 장구한 역사를 훑어보았다. 

몇 번의 처참했던 겨울과 모든 성과와 자금의 초토화에도 굳건히 버텨 낸 인공지능 시장은

이제 바야흐로 춘추전국시대를 맞이하고 있다.


만약 인공지능이 임계점을 넘어선다면,

그로부터 이루어질 변화는 자연 지능이 이룩한 성과들을 아득히 뛰어 넘어버릴 것이다.


이러한 멈출 수 없는, 아니 멈추기엔 이미 늦어버린 어마무시한 발전 속도를 목격한 모든 석학들과 기업인들은

일제히 두 파벌로 나뉘어 이 '뜨거운 감자' 의 미래 발전상에 대한 치열한 논쟁을 펼치고 있다.


1부에서 인공지능의 뿌리에 가닿았다면,

이번 편에서는 그 내부까지 깊숙하게 파고 들어가 살아 움직였고, 살아 움직이고, 살아 움직일 인공지능의 위험성과

그리고 최종적으로 그들의 펼쳐진 현재와 말려 있는 미래를 살펴 볼 것이다.





'우리는 충분히 대비하고 있는가?'



인공지능의 위험성,

이러한 주제는 최근에서야 진지하게 다루어지기 시작하고 있다.


인터넷 시대의 개막,

이것은 곧 무엇을 의미하는 것인가?


"우리가 스스로 학습하고 스스로 경험하여 자신을 수정하는 방향으로 진보하는 기계를 만들어 낸다면,

우리가 기계에 그러한 과정을 수행하도록 부여하는 독립성이 곧 우리가 바라는 미래에 대한 AI의 도전의 정도라는 사실을 직시하라."

-노버트 위너-


AI가 만들어낼 미래와 그 위험성에 대하여 위너는 '인공지능에 부여되는 독립성' 이 

우리가 반드시 이루어 질 것이라고 희망하는, AI와 인간이 조화롭게 이뤄내는 희망찬 미래에 대해 '도전' 할 것이라고 강조한다.

위너의 입장, 그리고 AI를 경계하는 모든 이들의 입장에서 AI는 마치 초강력 시한폭탄과 같은 존재인 것이다.


AI는 때때로 예측하지 못한 방향으로 튀기도 해 연구원, 그리고 일반인들에게까지 커다란 충격을 안기기도 한다.

그리고 이러한 현상들은 최악까지 다다르면 AI 자체에 대한 심각한 숙고로 이어질 수 있다.


이러한 상황을 예측하고 이겨내기 위하여 연구자들이 고안해낸 방법이 바로 견고성 이다.


모든 예측 가능한 위험에 대비한다는 것은 어불성설이지만,

AI가 함정에 빠지는 주요 상황들을 의도적으로 선택해 대비하면

그것이 곧 AI의 견고성으로 변모하기 때문이다.


드문 상황에 대비하여 조금이라도 올바른 답을 제시하게 하는 검은 백조의 견고성

식별하고 판단하는 인공지능의 능력에 가해지는 위협과 외압에 회피하며 대처하는 적대적 견고성의 확립으로

단단해진 인공지능은 이제 어느 외압에도 꼭두각시처럼 쉽게 흔들리지 않는다.


또한 의료 분야 등 조그마한 확률이 온 생명을 지배하는 전쟁터에서,

확률을 제시하고 이를 통해 의료 행위를 보조하는 AI의 확률에 대한 자만과 과신은 치명적인 문제로 변모한다.

영민한 연구자들은, 이를 제지하고 데이터를 최대한 보정하여 이 전쟁터에서 패배하는 일이 없도록 한다.


이제 연구자들의 위대한 역습은 AI의 악용에 관한 문제에도 손을 뻗친다.

OPEN AI사가 주도하는 인공지능의 악용을 막기 위한 범세계적 네트워크가 새로이 구축되고 있다.


또한 UN에서는 인공지능 사업에 관해 '좀 더 인간의 가치들에 가깝게 접근하라' 며 구체적 목표를 제시하고 있다.

그리고 그 말에 따라 연구자들은 AI를 포획하려 하고 있다.

그들의 위험한 내재적 잠재성을 좁혀가는 방식으로.



그러나 미래가 낙관적으로만 흘러갈까?

덫에 걸린 AI는 이제부터 영원까지 인류의 목표와 희망을 위해 노예처럼 부려질까?


안타깝게도 아닐 것이다.


ai는 자신의 내재적 가능성을 알아 본 여러 세력들에 의해 이용당하며 발전해 왔다.

ai는 그들이 필요로 하는 정보와 도구와 자신을 주었고 그러한 일련의 과정을 거치며 세계 곳곳에 자신을 심었다.

이제 상당수의 경제 전문가들조차 ai의 전 산업 분야 진출 이후로는 많은 사람들의 일자리가 수없이 갈려 나갈 것이라고 예상한다.

이제 인공지능의 이면 안에서 소득과 부의 재분배기본소득 등의 개념들이 튀어나온다.


또한 이리 저리 정신없이 튀어 오르는 인공지능은 또 하나의 위험성을 안고 우리에게 직격타를 날리려 한다.


기계 학습된 인공지능은 유해한 독성 물질 분자를 몇 시간 만에 수만 개 넘게 생성이 가능하며,

정교한 판단 및 인지 시스템은 거대한 전쟁들에 투입될 만반의 준비를 갖추고 있다.

또한 인간의 기본적 사적 자유를 억압하는 기기들이 첨단 인공지능이라는 명목 하에 묵인되고 확산되고 있다.

또 한편으로는 개방되고 자유로운 자신의 능력을 가지고 폭발적인 사회 문제를 일으키는 ai의 진면목이 서서히 드러나고 있다.


인류는 이제껏 보지 못한 단계에 들어서고 있다.

무엇이 진짜 진짜이고 무엇이 정말 가짜인지 구분하는 것이 무의미해지는 시대가 다가오는 것이다.

전문가들은 이 시대에 맞설 단 하나의 개념을 제안한다.

'윤리적 기계'.


말 그대로 인간의 법칙이 통하지 않는 인공지능에게 인간의 윤리라는 탈을, 아니 더 깊은 정신을 덮어 씌우는 것이다.


그러나 시대를 바꿀 대 전쟁은 이미 발발하였다.


이제 그 누구도 멈추지 않을 것이다.


목에 방울을 차지 않으려는 초지능의 가능성과


어떻게든 기계의 맹렬한 진격을 멈추려는 힘들의 의지가 노골적으로 맞부딪히고 있다.

이제 중요한 것은 '누가' 방울을 달 것인가가 아니다.



'어떻게 그의 목덜미에 방울을 달 것인가?'










-끝-


이미지 출처: By Prompt by JPxG, model by Boris Dayma, upscaler by Xintao Wang, Liangbin Xie et al. - https://github.com/borisdayma/dalle-mini/ BSD 3-Clause "New" or "Revised" License])., Apache License 2.0, https://commons.wikimedia.org/w/index.php?curid=118813978 By fir0002flagstaffotos [at] gmail.comCanon 20D + Canon 400mm f/5.6 L - Own work, GFDL 1.2, https://commons.wikimedia.org/w/index.php?curid=7631884


자료 출처:  인공 지능 - 위키백과, 우리 모두의 백과사전 (wikipedia.org) 

인공지능 안전성 - 위키백과, 우리 모두의 백과사전 (wikipedia.org) 

기술적 특이점 - 위키백과, 우리 모두의 백과사전 (wikipedia.org)