2024-04-19 20:57 (금)
전창배의 4차산업혁명 바로보기①
상태바
전창배의 4차산업혁명 바로보기①
  • 이민영 기자
  • 승인 2018.11.23 11:23
  • 댓글 0
이 기사를 공유합니다

AI(인공지능)의 윤리와 책임
전창배 논설위원

최근에 인터넷에 유행하는 딜레마 문제가 있다. 바로 ‘자율주행차의 딜레마’ 라고 불리는 문제들인데 굉장히 다양한 유형의 문제들이 있다. 유명한 트롤리 딜레마를 응용한 문제들부터 학자나 전문가들이 제기한 새로운 상황의 문제들까지.. 그런데 이러한 자율주행차의 딜레마 문제들을 그냥 재미로 치부하고 넘어가기에는 현재 기술의 발전 속도가 너무나 빠르다. 

한번 인터넷에서 자주 논쟁되는 딜레마 문제를 보도록 하자.

자율주행차가 도로 위를 달리고 있는데 갑자기 아이와 노인이 찻길 양쪽에 동시에 있음이 발견됐고 바로 대응할 시간이 없어 무조건 사망사고가 날 수 밖에 없는 상황이라면 자율주행차는 노인과 아이, 둘 중 누구를 살려야 하는가? 

상상하기 매우 불편하고 끔찍한 가정이지만 곧 도래할 자율주행차의 시대에 이런 상황이 발생하지 않으리라는 법이 없다.

자율주행차, 로봇, 드론 등 4차산업의 많은 기술들이 인공지능(AI)이 탑재되어 운용될 것이며 이 인공지능의 핵심을 이루는 것이 바로 알고리즘(algorithm)이다. 그런데 이 인공지능의 알고리즘을 어떠한 기준과 원칙으로 만드느냐는 것은 대단히 중요한 문제이다. 결국 이 인공지능의 알고리즘도 인간이 만드는 것이기에 인공지능의 윤리와 책임 문제는 곧 인간의 기술에 대한 윤리와 책임 문제로 귀결된다. 따라서 인공지능의 알고리즘을 윤리적, 이성적 고민 없이 도덕적 판단이 부재된 채로 결정한다면 인공지능은 문명의 이기가 아니라 문명을 위협하는 도구가 될 수도 있다.

그렇다면 인공지능의 알고리즘은 어떤 주체가 주도하여 만들어야 할까? 위와 같은 자율주행차의 딜레마 상황에서, 한 해외의 설문조사 결과에서는 44%가 승객이, 33%가 국회의원이, 12%가 자동차 제조사/개발자가, 11%가 기타가 결정해야 한다고 답변하였다. 

하지만 위와 같은 윤리적 문제는 다수결에 의해서 결정할 수 없는 매우 복잡한 문제로, 경우에 따라 올바른 윤리적 결과를 정하여 그 값을 인공지능에 일괄 적용한다고 해도 그것이 모든 경우에 있어서 보편 타당한 정답이 된다고 볼 수도 없다.

다행히 최근 2년간 전 세계적으로 인공지능 윤리(AI Ethics)에 대해 학자와 전문가들 사이에 많은 논의와 연구가 이루어지고 있다. 하지만 자율주행차와 같은 인공지능 기반 기술은 급속한 발달 속도를 보이고 있는 반면 윤리나 제도적 문제들은 체계적인 연구나 분석에 있어 그 속도를 따라잡지 못하고 있다. 

만에 하나 이러한 윤리적 제도적 문제들을 해결하지 않은 채 편리함만을 앞세워 인공지능 기반의 제품과 서비스가 선 출시될 경우 그에 따른 부작용과 책임의 문제가 발생할 것임은 명확하다. 이것은 4차산업 혁명의 산업분야에 과학자, 연구자, 개발자뿐만 아니라 윤리학, 철학, 심리학 등을 전공한 다양한 인문학 전문가들의 역할이 더욱 중요한 이유이기도 하다.

조만간 도래할 미래의 인공지능은 의료, 교통, 통신, 정보, 서비스 등등의 산업 전 분야에서 세상을 혁신적으로 바꾸어 놓겠지만, 인간의 이성과 윤리가 결합되지 않은 인공지능은 불완전하며 매우 위험할 수 있다. 기술이 발전하면 발전할수록 우리가 가장 기본이 되는 인간성에 더욱 집중해야 하는 이유이기도 하다. 마찬가지로 인공지능도 인류가 발명한 하나의 도구로서 인류를 행복하고 편리하게 만드는 수단에 해당함을 잊어서는 안 될 것이다.

▣ 논설위원 전창배

◀ 아이오냅 주식회사 대표이사

◀ 세종로 국정포럼 4차산업혁명위원장

◀ 서경대학교 블록체인 R&D센터 기업부설연구소장

◀ 서울대학교 졸업

 

 

 

 

이민영 기자 mylee063@naver.com


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
인기기사
섹션별 최신기사
HOT 연예