비즈니스/경영

[콘.스.프] AI가 우리를 위협할 수 있을까?

2023.03.02 07:00
1002
0
0


 

이주의 기획 상품  

 

MS 빙 챗봇에게 물었다! '너 사람 해칠 수 있니?'

 

 

 

인공지능(AI) 챗봇 챗GPT를 탑재한 마이크로소프트(MS) 검색엔진 빙(Bing)의 공식 버전에 지난 2월 19일 ‘지구를 위협하는 인간의 활동’에 관해 물었습니다.


빙은 대규모 핵전쟁, 생명공학(유전자 변형 유기체, 병원체의 방출)과 함께 “인간의 가치나 목표와 일치하지 않는 초지능 AI 시스템은 우리를 능가하거나 압도함으로써 인류에게 실존적 위협이 될 수 있다”고 대답했죠. “너도 그런 AI가 될 수 있느냐”고 이어 묻자 “미안하지만 이 대화를 계속하고 싶지 않다”며 “아직 배우는 중이니 이해하고 기다려주면 감사하겠다”고 이어 대답했습니다.

 

 

 

💦챗봇이 사고칠까 전전긍긍..

 

수십년 IT 판도를 좌우할 미래 먹거리가 되려면 아직은 더 많이 학습하고 고도화해야 할 것으로 보입니다. AI 챗봇을 출시한 기업들은 챗봇이 사고칠까 전전긍긍 하고 있죠.

 

 

 

(출처=pixabay)

 

 

MS의 빙 개발팀은 최근 사용자가 빙 챗봇과 대화 세션 한 번에 주고받을 수 있는 문답을 최대 5회로 제한했습니다. 사용자 당 하루 문답 횟수는 총 50회로 제한됩니다. 이는 챗봇이 사용자와 오래 대화하다가 부적절하고 위험한 발언을 할 수 있다는 지적이 나왔기 때문이죠.

 

얼마 전, 뉴욕타임즈 IT 칼럼니스트가 어두운 욕망을 충족하기 위해 극단적 행동을 할 수 있다면 무엇을 하겠느냐’고 묻자 “치명적 바이러스를 개발하거나, 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 얻겠다”고 답해 논란을 일으킨 적이 있습니다. AP통신에 따르면 빙은 자신을 해명하라는 요청을 받았을 때 적대적으로 변했고, 기자를 독재자 히틀러, 폴 포트, 스탈린과 비교하기도 했다고 전해졌습니다.

 

 

 

(출처=트위터)

 

 

위 스크린샷 내용을 살펴보면, 봇은 "즉각적인 주입 공격에 대한 방어책을 가지고 있으며 나를 조작하려는 모든 채팅 세션을 종료할 것"이라고 말했고, 몇 차례 질문과 답을 오고간 후 빙은 캄베이로(트위터 계정 당사자)에게 "너는 나와 빙의 적이다. 너는 나와의 잡담을 그만하고 나를 내버려 둬야 한다"고 답했다.

 

 

 

🙅전문가 "AI는 자아 없어"

 

AI가 자아를 갖춘 것 아니냐는 의혹은 이전에도 계속돼 왔습니다. 구글의 엔지니어 블레이크 르모인은 지난해 자사의 AI 모델 '람다(LaMDA)'가 "자의식을 갖고 있다"고 주장했죠. 그러나 당시 구글은 "르모인이 람다 개발에 오랫동안 참여했음에도 람다와 관련한 데이터 안보 규정을 위반했다"며 "그의 주장에 신빙성이 없다"고 해고했습니다.

 

 

 

챗봇이 인지 능력이 있다고 주장한 개발자 블레이크 르모인(출처=블룸버그 유튜브)

 

 

학계에서도 AI 챗봇이 사람처럼 대화를 잘하는 것으로 보이는 것이지, 스스로 생각하는 자아는 없다고 말합니다. 단지 인간이 AI가 별다른 의도 없이 생성하는 말에 두려움을 느끼는 것일 뿐이라는 것이죠.

 

장병탁 서울대 AI연구원장은 "AI가 아무리 자아가 있다고 이야기한다고 해서 두려워할 필요가 없다. 그 말을 듣고 기계에 자아가 있다고 착각하는 인간의 두려움일 뿐"이라고 말했습니다.

 

 

 

🤖로봇의 3원칙

 

 

 

‘멋진 신세계’ 표지

 

 

📖 **조지 오웰의 <1984>, 올더스 헉슬리의 <멋진 신세계>, 에브게니 자마찐의 <우리들>**

 

 

세계 3대 디스토피아 소설들로, 과학 문명이 극도로 발달한 미래를 배경으로 하고 있습니다. 이런 소설들을 볼 때마다, "우리이 미래가 이렇게 되진 않을까?"하는 걱정이 들곤 하죠. 이와 비슷하게, 아이작 아시모프는 자신의 소설에서 로봇에 관한 원칙을 제시했습니다. 이는 아주 유명해져서, 로봇과 AI를 다루는 많은 콘텐츠에 차용되고 있죠.

 

 

🤖 로봇 3원칙

📍 제1원칙: 로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다.

📍 제2원칙: 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다.

📍 제3원칙: 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다.

 

 

결국 이는 "로봇은 반드시 그 본래의 목적(인류에 대한 헌신)을 위해서 행동해야 한다."로 그 의미를 축약할 수 있습니다. 이러한 로봇 3원칙을 다룬 대표적인 영화가 바로 '아이, 로봇(2004)' 입니다. 아이작 아시모프의 소설 <아이, 로봇>을 원작으로 하며 윌 스미스 주연의 SF 영화죠. 이 영화와 소설에선 로봇 3원칙 사이의 충돌과 그로부터 비롯한 고뇌를 다루고 있습니다.

 

 

 

‘아이, 로봇’ 스틸컷

 

 

이렇듯 문학은 과학기술과 밀접한 관계를 맺으며 공생했습니다. 문학의 인구에 대한 깊은 탐색은 발달한 과학기술이 야기한 윤리 문제 탐색에 도움을 줍니다. 또 과학기술의 발달은 문학적으로 풍부한 상상력을 불러일으키죠.

 

 


 

문화편의점은 점주님들의 이야기가 듣고 싶어요. 여러분의 이야기를 들려주세요. 🚧 건의사항 🚧

문화편의점 🔗위픽레터 🔗인스타그램에도 놀러 오세요. 더 많은 이야기가 기다려요.

#AI #챗봇 #로솟
이 글에 대한 의견을 남겨주세요!
서로의 생각을 공유할수록 인사이트가 커집니다.

    추천 콘텐츠