본문영역

AI 윤리, 우리 모두의
새로운 도전과 책임


전창배 국제인공지능윤리협회 이사장

인공지능(AI)은 이제 인간의 삶 깊숙이 스며들어 단순한 일상의 도구를 넘어, 동반자로서의 새로운
지위을 부여받고 있다. 한편 AI 기술이 발전하는 속도만큼이나, 그로 인해 발생할 수 있는 윤리적
딜레마와 안전한 활용 방안에 대한 논의가 더 이상 미룰 수 없는 시대적 과제로 떠올랐다. AI와 의미있게
공존하며 지속 가능한 미래를 열어가기 위해 이제 우리는 ‘AI 윤리’라는 나침반을 손에 들고
기술의 방향성을 신중하고도 책임감 있게 설계해야 한다.
혁신과 재앙의 갈림길: 윤리적 개발의 중요성

인간이 AI를 이토록 열심히 개발하는 이유는 무엇일까? 그것은 인간이 하기 어려운 일들을 AI는 매우 쉽게 잘 해내기 때문이다. 특히 AI는 인간이 해결하기 어려운 문제를 능숙하게 해결해내고, 인간이 예측하기 어려운 결과들을 정확히 예측해낸다.
이러한 문제해결과 결과예측에 더해 최근에는 AI가 콘텐츠를 생성하는 능력까지 갖추게 되어 그 활용 범위가 크게 확장되고 있다. 이처럼 AI가 인간이 그동안 어렵고 불가능하다고 여겼던 일들을 손쉽게 해결해 나가면서, 다른 어떤 기술보다도 인간에게 미치는 영향력이 막대해지고 있다.
이렇게 인간에게 미치는 영향력이 급증하면서 AI 기술은 앞으로 인간과 인류의 삶에 필수품으로 자리 잡을 것이 확실시되고 있다. 이러한 산업과 시장을 선점하기 위해 수많은 빅테크 기업들과 각국 정부들이 AI 기술 경쟁에 뛰어들고 있는 상황이다.
2016년 이세돌 9단과 알파고의 대국을 분기점으로 AI의 딥러닝 기술이 급속도로 발전했다. 이제는 한 달이 멀다 하고 세계 최고 AI 기업의 순위가 뒤바뀌고 있으며, 며칠이 멀다 하고 새로운 AI기술과 제품이 쏟아져 나오고 있다.
하지만 전 세계 기업들과 정부들이 AI 기술의 발전에만 매달리다 보니, 그 이면에서 발생하는 수많은 부작용과 역기능 문제에는 제대로 대응하지 못하는 실정이다. AI 기술은 이롭든 해롭든 인간에게 미치는 영향이 지대하기에, 이러한 AI 기술을 우리가 제대로 다루고 통제하지 못한다면 AI 기술은 인간과 인류에게 재앙이 될 수도 있다.
따라서 우리는 AI 기술을 무작정 개발하는 데만 몰두할 것이 아니라, AI 기술을 안전하게 개발하고 올바르게 활용하는 데 초점을 맞추어야 한다. 이 목표를 실현하기 위해 절실히 필요한 것이 바로 ‘인공지능 윤리(AI Ethics)’이다.

AI를 사용하는 사용자와 소비자의 윤리에서는,
‘악용’과 ‘오용’ 여부가 핵심이 된다. 지금과 같이
AI를 어떻게 올바르게 활용하고 사용할 수
있는지에 대한 명확한 기준이나 원칙, 법·제도가
부재한 상황에서는 사용자와 소비자 스스로가
조심해서 윤리적으로 AI를 사용하고 활용해야 한다

안전하고 올바른 AI를 위한 우리의 책임

AI 윤리는 어려운 개념이 아니다. 말 그대로 AI를 만들고 개발할 때 지켜야 할 윤리, AI를 사용하고 소비할 때 지켜야 할 윤리가 바로 그것이다. 현재 시점에서 AI 윤리는 이처럼 AI 개발자·개발 기업의 윤리, 그리고 AI 소비자·사용자의 윤리로 구분할 수 있다.
하지만 향후 빠르게 다가올 AGI(Artificial General Intelligence, 인공일반지능) 시대를 대비하여 AI 그 자체의 윤리, 즉 ‘인공적 도덕 행위자(Artificial Moral Agent)로서의 윤리’도 지금부터 논의하고 연구해야 한다.
먼저 AI 개발자와 개발기업의 윤리부터 살펴보자. 일각에서는 “AI는 죄가 없다. AI의 문제는 AI를 잘못 사용하고 악용하는 인간의 문제다.”라는 말을 한다. 이 말은 반은 맞고 반은 틀렸다.
AI는 인간이 개발한 여러 기술 중 하나이므로 당연히 가치중립적이다. AI는 그 자체로 선하다 악하다고 말할 수 없다. 또한 딥페이크와 같이 최근 발생하는 다수의 AI의 역기능 문제들은 인간의 악용에 의해 발생한 사례들임을 부인할 수 없다.
하지만 AI가 가치중립적이라고 해서, AI 그 자체로 ‘안전하다.’는 뜻은 아니다. 우리가 AI를 올바르고 안전하게 개발하지 못한다면 AI는 오히려 인간에게 큰 피해를 입힐 수 있는 위험한 기술이 될 수 있다.
AI의 윤리 문제 중 가장 중요한 문제 중 하나가 바로 이러한 ‘AI의 안전성’에 대한 문제인데, 이는 곧 AI를 개발하고 만드는 기업들과 개발자들의 윤리적 책임의식과 직결된다. '돈'이 된다고, ‘권력’을 얻을 수 있다고, ‘안전성’을 등한시한 채 AI 기술 개발에만 몰두한다면, 그 AI 기술은 ‘불행의 씨앗’을 잉태한 채 인간 세상에 태어날 수 있다.
그렇다면 AI 기술을 어떻게 해야 안전하고 올바르게 개발할 수 있을까? AI 기술을 기획하고 개발을 시작할 때부터, AI 개발자와 개발기업들은 해당 AI 기술이 세상에 나왔을 때 어떤 영향을 미칠지 고민하고 예측해 볼 필요가 있다. 해당 AI 기술이 자칫 인간과 인류에게 편익보다는 해악을 끼칠 가능성이 더 큰지, 악용의 소지는 없는지, 악용될 경우 어떤 피해가 발생할지에 대해 예측하고 연구해 보아야 한다.
만약 해당 AI 기술이 개발된 이후에 인간과 인류에게 편익보다는 훨씬 더 큰 해악을 가져다줄 위험이 크다면, 그 기술 개발 여부에 대해 결단을 내릴 필요가 있다.
다음으로 AI를 사용하는 사용자와 소비자의 윤리에서는, ‘악용’과 ‘오용’ 여부가 핵심이 된다. 지금과 같이 AI를 어떻게 올바르게 활용하고 사용할 수 있는지에 대한 명확한 기준이나 원칙, 법·제도가 부재한 상황에서는 사용자와 소비자 스스로가 조심해서 윤리적으로 AI를 사용하고 활용해야 한다.

자율적으로 판단하여 의사결정하는
로봇들과 AI에는 조금이라도 ‘악한 면’이
있어서는 안 되며, 반드시 ‘선한 면’만을
가지고 있어야 한다. 이것이 가능하려면
AI에 ‘선함’, ‘윤리’, ‘양심’을 가르치고
입력하는 작업이 성공해야 한다

윤리적 AI 사용과 ‘선한 AI’의 길

그렇다면 어떻게 해야 AI를 ‘윤리적으로’, ‘조심해서’ 사용할 수 있을까? 첫째로 AI를 범죄적 목적으로 악용해서는 절대 안 될 것이다. 또한 AI를 이용하여 다른 사람에게 피해를 끼쳐서도 안 된다. 마지막으로 AI를 사용하고 활용함에 있어서 무언가 마음속으로 찜찜하고 양심에 꺼려진다면 그러한 활용은 중단하는 것이 바람직하다.
예를 들어, 생성형 AI로 공모전에 제출할 포스터를 만들었는데 그대로 제출하지 않고 'AI로 만들었음'을 표시하고 제출한다든가, 생성형 AI로 만든 이미지가 유명 디자이너의 디자인과 비슷한 이미지가 생성되었거나, 생성형 AI로 만든 노래가 기존에 존재하는 노래와 비슷한 노래가 생성됐을 경우 사용하지 않는 편이 안전하다.
또한 AI를 ‘오용’하지 않고 올바르게 활용하는 것도 매우 중요한데, 이것은 AI의 ‘불완전성’을 인식하는 데서 출발한다. AI는 아직 매우 초보적인 기술이고, 초창기 기술 수준이기 때문에 현재 매우 불완전하고 오류도 많으며 완벽하지 못하다.
따라서 사용자와 소비자로서는 이렇게 불완전하고 오류가 많은 기술을 과신하거나 과의존해서는 안 된다. AI에게 모든 것을 전부 맡긴다거나, 인간의 가치판단하는 권한을 AI에게 부여한다거나, AI가 생성한 콘텐츠를 그대로 믿고 활용한다거나, 인간의 생명·신체·정신·재산에 관련된 결정권한을 부여한다거나 하는 일은 지양해야 한다.
불완전한 AI 기술을 그대로 믿고 사용하거나 과도하게 의존하여 활용할 경우, 인간은 AI에게 종속되고 통제받게 되어 인간의 주체성은 사라지고 결국 인간은 목적이 아닌 도구로 전락할 수 있다. 어떤 일이 있어도 인간이 AI를 통제해야지 결코 AI가 인간을 통제하는 일이 벌어져선 안 된다.
마지막으로 AI 자체의 윤리, 즉 ‘선한 AI’를 만들 수 있는지에 대한 연구가 개시되어야 할 시점이다. 최근 생성형 AI 기술이 급속도로 발전하면서 ‘AGI’, 이른바 ‘인공일반지능’ 시대가 훨씬 빨리 도래할 가능성이 높아지고 있다.
AGI 시대는 AI의 발전 단계인 약인공지능, 강인공지능, 초인공지능 단계 중 ‘강인공지능’ 단계에 해당한다. 한마디로 우리가 SF영화에서 보던 인간과 유사한 외모를 가지고 인간과 똑같은 행동과 말을 하는 안드로이드 로봇이나 AI들이 함께 살아가는 세상이다.

인간은 인간 외의 존재에 대해 ‘자율성’을
부여해 본 적이 없다. 이러한 ‘자율성’이라는
권한은 인간의 통제를 벗어나 스스로 행동하고
결정하는 존재를 만드는 것이기 때문에 절대
함부로 결정할 일이 아니다. 우리 인류 모두가
매우 신중하게 매우 조심해서 논의하고
연구하고 합의하여 결정해야 할 문제다

AGI 시대 자율성과 윤리: AI 기술의 올바른 방향

이러한 AGI 시대의 AI와 로봇들은 인간이 할 수 있는 모든 일들을 모방하여 잘할 수 있게 되는데, 우리가 주의해야 할 점은 바로 이러한 AI와 로봇들이 ‘자율적으로’ 결정하고 행동하게 된다는 점이다.
이렇게 자율적으로 판단하여 의사결정하는 로봇들과 AI에는 조금이라도 ‘악한 면’이 있어서는 안 되며, 반드시 ‘선한 면’만을 가지고 있어야 한다. 이것이 가능하려면 AI에 ‘선함’, ‘윤리’, ‘양심’을 가르치고 입력하는 작업이 성공해야 한다.
만약 AI와 로봇에 ‘선함’과 ‘윤리’를 가르치는 과정이 성공한다면, AI와 로봇에게 ‘자율성’을 부여해도 무방할 것이다. 그러나 AI와 로봇에 ‘선함’과 ‘윤리’를 가르쳐 보았지만, 어떤 이유로든 AI와 로봇이 악한 행동을 저지르고, 오류가 일어나 선한 행동을 하지 못하게 된다면, AI와 로봇에게는 ‘자율성’을 부여하지 말고 지금처럼 통제하며 AI와 로봇을 사용하는 것이 낫다.
지금까지 인간은 인간 외의 존재에 대해 ‘자율성’을 부여해 본 적이 없다. 이러한 ‘자율성’이라는 권한은 인간의 통제를 벗어나 스스로 행동하고 결정하는 존재를 만드는 것이기 때문에 절대 함부로 결정할 일이 아니다. 우리 인류 모두가 매우 신중하게 매우 조심해서 논의하고 연구하고 합의하여 결정해야 할 문제다.
AI 윤리는 어려운 말이 아니지만, AI 윤리를 적용하고 실천하는 일은 쉬운 일이 아니다. 어떤 한 사람, 한 기업, 한 국가가 나선다고 해결할 수 있는 문제가 아니다. 우리 모두의 지속적인 노력을 통해 실현된 안전하고 윤리적인 AI만이 인간과 인류에게 이로움을 가져다줄 수 있으며, 그 첫 출발은 AI에 대한 ‘올바른 인식’과 ‘윤리 의식’임을 다시금 강조하고 싶다.
올해 노벨물리학상을 수상한 딥러닝의 아버지로 일컬어지는 AI 석학 ‘제프리 힌튼’ 교수의 노벨위원회와의 인터뷰 내용으로 마무리하고자 한다.
“AI가 통제 불능이 되면 인류에 실존적 위협이 된다. 지금 당장 사람들이 AI에 대한 통제 문제를 해결해야 하며, 이 문제에 많은 연구와 노력을 기울여야 한다.”

인공일반지능

강한 인공지능, 완전 인공지능, 범용 인공지능 등으로도 불리는 인공일반지능은 자발적으로 사고, 인간처럼 학습과 추론이 가능하며 문제에 대해 능동적으로 대처할 수 있다. 이는 학습된 알고리즘 내에서만 움직일 수 있는 약인공지능과는 달리 학습되지 않은 새로운 상황에서도 대응한다는 것이 특징이다. 그러나 ‘인간 수준의 사고’를 학자마다 다르게 정의하는 데다 AGI 역시 아직 개발되지 않은 기술이기 때문에 그 정의를 하나로 규정하기엔 어려움이 있다. 다만 인공일반지능의 구체적인 정의는 분야마다 다르게 나타나고 있으며, 연구자들 또한 인공일반지능을 연구·개발하는 중에 그 정의를 정립해 나가는 추세다.