모든 과학은 인간에게 유익한가.  모든 기술 개발은 인류에게 유용한가. 여지껏 이 질문은 그리 중요하지 않았다. 당연히 과학과 기술개발은 유익하고 유용할 거라는 전제가 깔려 있기 때문이다. 그런데 이제는 아니다. 그 질문은 매우 소중한 질문이 되었다. 인류의 미래가 자칫 위험한 지경에 이를 수 있기 때문이다.

딥러닝의 창시자이며 인공지능(AI) 분야의 세계적 석학 제프리 힌턴박사는 <뉴욕 타임스>와의 인터뷰에서 "나의 일생을 후회한다"고 술회하며 10년 넘게 몸담아온 구글을 사직했다. 힌턴은 최근 구글과 오픈에이아이(Open AI)가 경쟁적으로 방대한 데이터를 수집해 인공지능 시스템을 구축하는 모습을 보면서 인공지능 발전이 인류에 위협이 될 수 있다고 예상했다. 

제2차 세계대전에서 원자폭탄 개발을 지휘한 오펜하이머도 비슷한 후회의 발언을 한 바 있다.  오펜하이머는 원폭투하로 숱한 생명이 희생된 뒤 "나는 죽음의 신, 세상의 파괴자가 되었다"고 참회하며 그 이후 수소폭탄 개발에 끝내 참여하지 않았다. (한겨레. 구본권의 '유레카' 참조)

인공지능 ‘4대 거물’의 엇갈린 걸음 [유레카] / 한겨레 2023.05.04 (구본권 소장)
인공지능 ‘4대 거물’의 엇갈린 걸음 [유레카] / 한겨레 2023.05.04 (구본권 소장)

얼마전에 선풍적인 인기를 끌었던 챗지피티(ChatGPT)의 경우에도 논문까지 작성해준다며 기세를 올렸지만 바로 밑천이 드러났다. 떠도는 자료를 긁어모아 '과대 생성'하거나, 아무런 결론을 내리지 않는 '과소 생성' 하는 행태가 포착된 것이다. 언어학자 촘스키는 챗지피티가 단순히 표준적 주장을 자동 완성으로 요약할 뿐이며 표절, 무관심, 생략 등 도덕적 이슈에 대해서는 무지함으로 일관한다고 지적한다. 

*관련기사 : ‘안전한 평균’ 좇는 인공지능, 인간의 창의성은 없다 : 왜냐면 : 사설.칼럼 : 뉴스 : 한겨레 (hani.co.kr)

힌턴은 인공지능이 만든 거짓 콘텐츠가 인터넷에 넘치면 무엇이 진실인지 알기 어려워질 것이고, 머지않아 고용시장도 흔들릴 것이라고 전망했다. 무엇보다도 기업이나 국가가 비밀리에 어떤 인공지능을 개발하고 있는지 알 수 있는 방법이 없어  글로벌 규제가 불가능하다는 점을 지적했다. 힌턴은 국제적 규제를 도입하지 않으면 오픈에이아이와 구글 등 거대 기술기업들이 벌이는 위험한 기술 경쟁을 멈출 수 없을 것이라고 주장하며  "인공지능 개발 유예"성명에 가세했다.  

일론 머스크와 요슈아 벤지오, 유발 하라리 등은 '삶의 미래 연구소'(FLI)와 함께 "안전 규약을 만들기 위해 인공지능 연구개발을 6개월간 유예하자"는 성명을 지난 3월에 발표한 바 있다. 힌턴은  당시 성명에 참여하지 않았지만 이번에 강력한 지지자가 된 것이다. 

인공지능의 위험은 인공 지능이 너무 똑똑해서가 아니라, 반대로 너무 어설퍼서 생기는 위험을 말한 것이다. "인공지능 개발 유예"의 성명은 기술의 한계에서 발생하는 정보 오류, 개인이나 기업의 정보 유출, 학습 데이터 편향으로 발생되는 차별과 혐오의 확산과 같은 여러 문제의 위험성을 경고하고, 개발이 더 진행되기 전 사회적 합의와 가이드라인을 만들자는 것이었다.

*관련기사 : 인공지능이 위험한 건 똑똑해서가 아니다 : 과학 : 미래&과학 : 뉴스 : 한겨레 (hani.co.kr)

인공지능 시스템은 방대한 양의 데이터를 분석하며 인간이 예상치 못한 행동을 학습하는 경우가 많다는 점에서 인류에게 큰 위협이 될 수 있다.  인공지능의 위험성 논의는 기후위기의 위험성과 더불어 앞으로도 계속 멈추지 않는 큰 숙제로 인식하고 지속적인 관심을 가져야할 분야가 아닐까 생각된다.

편집 : 심창식 편집위원

심창식 편집위원  cshim777@gmail.com

한겨레신문 주주 되기
한겨레:온 필진 되기
한겨레:온에 기사 올리는 요령

저작권자 © 한겨레:온 무단전재 및 재배포 금지