Search
Close this search box.

AI의 ‘대부’가 사표를 낸 이유는 무엇일까

#인공지능

#Tay

INTRO

인공지능 분야의 대부 ‘제프리 힌턴’ 박사는 최근 구글을 떠나며 인공지능의 발전으로 인한 위험성에 대해 경고를 했다. 힌턴 박사는 BBC와의 인터뷰를 통해 AI 챗봇이 인간의 뇌보다 월등해질 수 있다고 경고하였다. 현재 등장한 GPT-4와 같은 모델도 이미 일반적인 지식의 양 측면에서 사람을 훨씬 능가하고 있으며, 추론 정도는 할 줄 아는 수준이다. 힌턴 박사는 AI를 악의적으로 사용할 경우 문제시 될 수 있다고 경고하였다. 힌턴 박사는 구글을 떠나면서 인공지능에 대한 책임감 있는 접근법을 고수하고 있다고 밝혔다. 

2024년 3월 유럽연합 의회는 세계 최초 AI 규제법을 통과시켰다. ‘AI가 인류 멸종 수준의 위협이 될 수 있다.’는 민간업체 보고서의 전망 역시 있었다.  인간을 보조하고, 때론 인간이 귀찮아 하는 일들을 도맡아 하는 인공지능에겐 어떤 위험성이 존재하는 것일까.

그 서비스가 실패한 이유

사용자에게 딱 맞는 맞춤형 서비스에다가 가격까지 저렴하고 귀찮은 일을 처리해주는 서비스가 있었다. 세상 좋은 완벽한 서비스는 보는 사람마다 칭찬이 자자했다. 회사의 대표는 어쩌면 이 서비스가 회사를 크게 성장시킬 수 있는 파워풀한 서비스라고 확신하기까지 했다. 하지만 안타깝게도 이 서비스는 나오자마자 한 달도 채 되지 않아 전설 속의 서비스로 묻히게 되었다. 마케팅이 부족해서일까? 기술 오류가 발생한 것일까? 놀랍게도 이 서비스를 만든 회사는 엄청난 대기업인 데다가 기술자만 무려 수만 명이 집결된 IT기업이다. 기술력도 좋고 자본도 풍부한 회사가 만든 서비스였는데 대체 왜 실패한 것일까? 그건 바로 ‘공정성’이 결여되어 있는 서비스였기 때문이다. 우리는 너무나도 쉽게 윤리적인 요소를 간과한다. 그저 최고의 기술력과 수많은 데이터가 모으면 장밋빛 미래가 그려질 거라 예상하는 경우가 많다. 심지어 회사 안 인력 구성만 봐도 그러하다. 많은 회사들이 서비스의 기술력을 올리기 위해 엔지니어들은 많이 배치하지만 그에 비해 윤리, 공정성을 고민하는 사람들은 상대적으로 적은 편이다. 하지만 공정성을 잊은 채 서비스가 개시될 경우 서비스는 물론이고 회사까지 위험해질 수 있다.

하루만에 종료된 MS의 야심작 : 테이 Tay

위의 실패 서비스 사례는 2016년 마이크로소프트사의 ‘테이(Tay)’라는 서비스이다. 테이는 사람들을 참여시켜 학습된 데이터로 답변을 하는 비서 서비스이다. 하지만 사람들이 욕설이나 편파성이 짙은 대화를 주로 해당 서비스에게 이야기하면서 문제가 생기기 시작했다. “너는 수많은 사람들을 학살하는 것을 지지하니?” “응, 난 정말로 지지해.” 이런 말도 안 되는 답변들을 하면서 마이크로소프트가 야심 차게 만든 테이에 비난이 쏟아지게 되었다. 결국 테이 서비스는 시작한 지 하루도 채 되지 않아 종료를 해야만 했다. 기술력도 뛰어났고, 인공지능에 사람들 참여시키는 재미있는 아이디어였지만 ‘공정성’에 위배가 되었기 때문이다. 이 외에 공정성에 위배되는 상황들은 무수히 많지만 대표적인 케이스는 아래와 같다.

사람 차별하는 AI 면접관?

먼저 특정 집단에 대한 부정적인 선입견을 갖도록 만드는 경우이다. 이미 너무나 유명한 사례는 아마존의 AI 면접관이 있다. 아마존의 인사팀은 2014년부터 2017년까지 수많은 지원자들을 일일이 검토하는데 시간과 노력을 효율적으로 활용하기 위해 AI 기반의 채용 소프트웨어를 활용하였다. 하지만 해당 소프트웨어는 ‘백인 남성’들에게 더 유리하다는 사실이 알려졌다. 해당 AI 알고리즘을 학습한 데이터가 대부분 백인 남성의 데이터였기 때문이다. 조금이라도 ‘여성성’을 내포할 경우 지원자의 평가를 하향 조정하게 되면서 많은 비난을 받게 되었다.

AI 기술, 아직은 허점이 많다

시스템의 문제로 특정 그룹에 불합리한 결과를 제공하는 문제도 비일비재하다. 중국의 경찰은 무단횡단 문제를 해결하기 위해 AI를 활용하였다. 보행자 도로에 스마트 카메라를 설치해 무단횡단을 식별을 시작한 것이다. 무단횡단을 하는 사람이 발각될 경우 이들의 이름과 얼굴이 부분적으로 대형 전광판에 보이도록 시스템을 구축하였다. 하지만 시스템의 엉뚱한 문제로 무단횡단을 하는 사람이 중국의 억만장자로 계속 화면에 표시되는 상황이 연출되었다. 시스템의 문제로 엉뚱한 사람이 괜한 피해를 보게 된 셈이다. 아직 고도화되지 않은 시스템을 적용하면서 전혀 상관도 없는 사람, 집단이 이처럼 피해를 겪게 되는 경우도 발생할 수 있다.

OUTRO

이와 같이 인공지능 기반의 기술을 구축하고, 활용하는데 공정성을 확인하는 것은 중요하다. 너무나 당연하게 생각하는 것들이지만 의외로 간과하기 쉬운 ‘윤리’ 영역이라 별생각 없이 서비스를 시작하는 경우가 많기 때문이다. 하지만 그 결과는 예상치 않게 큰 문제로 번질 수 있어 사전에 공정성에 대한 부분을 다시 한번 검토할 필요가 있다. 더불어 인간에 대한 존엄성 문제도 고민해봐야 한다. 인공지능은 인간의 생명을 다루는 영역에까지 침투된만큼 생명과 건강을 해치지 않도록 개발되어야 한다. 다양성을 존중하고 프라이버시를 보호해야 하는 핵심 요건들을 준수하면서 인공지능을 발전시키는 것이 무엇보다 필요로 하고 있다. 인공지능의 미래는 결국 사용하고 개발하는 사람들의 몫에 달려 있다. 윤리적 고려를 통해 더 나은 인공지능을 만들어 나가는 노력이 절실히 요구될 때이다.

글쓴이 소개

Post Views: 1,111

끝없이 이어질 인공지능의 이야기
AI:ing에서 당신의 커리어 성장이 시작됩니다.

ALL

IT

AI:ING only

AI Double UP

AI 자격증(AICA)

이벤트