도서 소개
동화를 읽으며 ‘인공지능 윤리’를 배울 수 있게 한 책이다. 대학에서 ‘인공지능 시대의 윤리’를 강의하는 선생님과 수업을 들은 학생 여덟 명이 함께 상상력을 모아 세 편의 이야기를 만들었다. 인공지능 추천 시스템, 사람을 평가하는 인공지능, 자율주행차라는 주제를 초등학교 교실 속 아이들의 생활세계로 가져와 동화적으로 풀어낸 구성이 특징이다. 이야기마다 ‘궁금해요, 인공지능 윤리’ 코너를 두어 기술과 윤리를 함께 이해하도록 돕는다.
영국에서 인공지능이 학생을 차별해 사회문제가 된 실제 사례처럼, 인공지능 윤리는 어린이에게도 중요한 문제임을 분명히 짚는다. 기술을 만드는 주체가 사람인 만큼, 지금의 선택이 기술의 미래를 바꾼다는 메시지를 전한다. 나만의 선택의 소중함, 편향된 데이터의 위험, 공정한 규칙의 필요성을 자연스럽게 생각하게 한다.
출판사 리뷰
선생님과 학생들이 함께 쓴 ‘인공지능 윤리’ 동화
동화를 읽으며 ‘인공지능 윤리’를 배울 수 있게 한 독특한 책이다. 대학에서 ‘인공지능 시대의 윤리’를 강의하는 선생님과 이 수업에서 공부한 학생 여덟 명이 머리를 맞대고 상상의 나래를 펼쳤다. 어떻게 하면 어린이들에게 인공지능 윤리 이야기를 쉽고 재미있게 들려줄 수 있을지 고심하며 이야기 세 개를 만들어냈다. 다양한 정보를 자동으로 추천해 주는 인공지능 시스템, 인공지능이 사람을 평가하는 일, 미래의 자율주행차 이야기를 초등학교 교실 속 아이들의 생활세계 속으로 가져와 동화적 상상력으로 흥미롭게 녹여냈다. 인공지능 시대를 환하게 밝힐 소원 세 개가 연등회의 밤하늘을 아름답게 장식한다는 구성이 참신하고 재미있다. 이야기 하나가 끝날 때마다 ‘궁금해요, 인공지능 윤리’ 코너를 두어 인공지능 기술과 윤리에 대한 알찬 지식을 얻을 수 있도록 구성했다. 나만의 선택이 얼마나 소중하고 중요한지, 인공지능이 편향된 데이터를 학습하면 무슨 일이 생길 수 있는지, 누구에게나 공정한 인공지능 규칙이 왜 필요한지 자연스럽게 생각하며 배우게 된다.
‘나의 선택은 오로지 나만 할 수 있다는 걸 잊지 말기!’
‘AI에게 차별을 가르치지 않는 세상이 오기를!’
‘자율주행차가 모두에게 아름답고 행복한 여행을 선물하기를!’
바야흐로 인공지능 시대, 사람이 하던 일을 인공지능이 자동으로 해 줘서 편리해졌지만, 우리가 잘 살기 위해 만든 인공지능이 오히려 우리의 삶을 망가뜨릴 수도 있다. 그런 증거는 셀 수 없이 많고 나라 안팎을 가리지 않는다. 실제로 영국에서는 인공지능이 부자 동네 학생과 가난한 동네 학생을 점수로 차별해서 큰 사회문제가 되기도 했다. 바로 이것이 우리가 인공지능 윤리를 배워야 하는 까닭이고 어린이도 예외는 아니다. 기술을 만드는 것은 결국 사람이기 때문에, 우리가 지금 어떤 선택을 하는지에 따라 기술의 미래도 바뀔 것이라는 희망은 그래서 필요하다.
첫 번째 이야기 <나만의 선택을 찾아서>에서는 인공지능 추천 시스템에만 의지하다 보면 스스로 생각해서 결정하는 능력이 약해질 수 있음을 그렸다. 아이들은 오늘 뭘 먹을지도, 취미 생활도, 심지어는 친구를 사귀는 일까지도 스스로 결정하지 않고 인공지능의 추천에 맡긴다. 그러다가 체육대회 참가 종목을 정할 때 ‘달리기는 키 큰 아이가 빠르고 통통한 아이는 느릴’ 거라는 인공지능의 편향된 판단을 그대로 믿을 위기에 놓인다. 하지만 아이들은 자신만의 타임캡슐을 열어보면서 알고리즘의 추천만 믿고 따른다면 다른 사람을 제대로 이해하고 사귀는 능력을 잃게 될 수 있음을 깨닫게 된다.
두 번째 이야기 <인공지능이 뽑은 반장>에서는 인공지능이 사람을 평가해도 되는지에 대하여 진지한 물음표를 던진다. 새 학기가 시작되자 선생님은 투표 대신 인공지능에 맡겨 반장을 뽑자고 제안한다. 인공지능은 사람과 달리 마음의 영향을 받지 않으니까 더 믿을 만하고, 누구에게나 기회가 주어지는 만큼 더 공정하다는 생각에 아이들도 환영한다. 하지만 아이들은 이내 인공지능의 결정을 믿을 수 없게 된다. 인공지능은 남자가 여자보다 리더십이 뛰어나다는 잘못된 결정을 내리고, 큰 학원에 다니는 아이들이 성적도 좋을 거라며 점수로 아이들을 차별하기도 하고, 민감한 개인정보를 허락 없이 사용해서 아이들을 당황하게 한다. 마침내 아이들은 ‘인공지능은 우리에 대해 모르는 게 많은 것 같다’는 의문을 가지고 우리 반만의 인공지능 사용 규칙을 정하기에 나선다.
세 번째 이야기 <운전은 내가 할게>에서는 ‘기술’만큼이나 중요한 ‘안전’과 ‘제도’에 대해 이야기한다. 만약 자율주행차가 사고를 피할 수 없는 상황에 놓였다면 어떤 판단을 내려야 할까? 한쪽에는 어린이가 있고 다른 한쪽에는 노인이 있다면 자율주행차는 누구를 우선 보호해야 할까? 한쪽에는 장애가 있는 사람, 다른 한쪽에는 장애가 없는 사람이라면? 이때 누구는 피하고 누구는 다치게 하는 것이 과연 공정하다고 할 수 있을까? 실수로 하늘나라 감옥에 갇히게 된 아이들의 이야기를 통해 자율주행차가 모두에게 도움이 되는 기술이 되려면 어떤 기준과 규칙이 필요한지 알게 된다.
작가 소개
지은이 : 허유선
‘잘 사는 삶’에 대해 공부하는 철학 박사. 동국대학교 철학과에서 칸트 철학을 전공하고 강의와 저술 작업을 통해 ‘철학하다’의 재미와 의미를 안내하고 있다. 최근에는 기술이 삶과 사회에 미치는 영향에 초점을 두고 인공지능과 디지털 미디어 플랫폼 윤리를 연구하고 있다. 현재 동국대학교 철학과에서 강의하고 있으며, 국립한밭대학교 ‘인공지능과 가치 연구소’의 공동 연구원이다. 주요 논문으로 <인공지능에 의한 차별과 그 책임 논의를 위한 예비적 고찰 – 알고리즘의 편향성 학습과 인간 행위자를 중심으로>, <왜 윤리인가 – 현대 인공지능 윤리 논의의 조망, 그 특징과 한계> 등이 있고, 『인생에 한 번은 나를 위해 철학할 것』, 『소크라테스 씨, 나는 잘 살고 있는 걸까요?』, 『인공지능 윤리규범학(공저)』 등을 썼다.
지은이 : 김선일, 김유빈, 김원, 김지영, 박다은, 우연주, 이혜교, 장예은
동국대학교에서 <인공지능 시대의 윤리>를 강의한 허유선 선생님과 이 수업을 들은 김선일, 김유빈, 김원, 김지영, 박다은, 우연주, 이혜교, 장예은 학생이 함께 썼습니다. 미래의 주인공들에게 어떻게 하면 인공지능 윤리 이야기를 재미있게 들려줄 수 있을지 머리를 맞대고 이야기를 만들었습니다.
목차
앞 이야기
첫 번째 이야기 _ 나만의 선택을 찾아서
두 번째 이야기 _ 인공지능이 뽑은 반장
세 번째 이야기 _ 운전은 내가 할게
뒷 이야기