인공지능(AI), 빅데이터 등 신기술이 산업구조와 노동환경, 개인 삶 방식까지 많은 부분을 변화시킵니다. AI, 빅데이터 같은 신기술 도입으로 사회는 점차 발전하지만 새로운 기술과 서비스 등장으로 예상하지 못한 부작용 우려도 있습니다. 과학기술정보통신부와 한국정보화진흥원(NIA)은 신기술이 확산한 지능정보사회에서 주체별 권리와 책임 등을 어떻게 정할지 윤리 가이드라인을 마련했습니다. 지능정보기술과 서비스가 일반화하면서 사회적 저항과 혼란을 최소하기 위해서입니다. 과기정통부와 NIA는 지능정보사회 행위 주체에 따른 세부 규범 내용을 포함한 종합적 윤리 가이드라인을 마련, 향후 지능정보사회 부작용을 최소화하는데 집중했습니다.
Q:윤리 가이드라인 목적과 기본방향은 무엇인가요?
A:윤리 가이드라인은 인간 중심 지능정보사회를 구현하기 위해 지능정보기술과 서비스 개발자, 공급자 책임윤리 강화와 오남용 방지를 위한 지침입니다. 인간중심 지능정보사회 구현을 위해 지능정보기술 잠재적 위험으로부터 사회시스템을 보호하는 사전 예방원칙에 입각했습니다. 인간 복지, 권한, 자유 확대 측면에서 지능정보기술로 인한 위험요소와 부작용을 경감하는 윤리규범을 제시합니다. 윤리적 규율이 필요한 분야에 대해 구체적 행위지침을 제시, 관련 분야 자율규제 환경을 조성합니다. 관련 연구개발과 산업 성장을 저해하지 않으려 노력하고, 개발자와 공급자에게 부당한 부담을 지우지 않는 기준을 제시합니다. 또 시민이나 이용자 참여와 권한 강화에 기여해 이용자 역량 강화에 도움이 되도록 개발했습니다. 지능정보기술이 인간 도덕적 가치와 윤리원칙 관점에서 인간과 조화를 이뤄야하고, 궁극적으로 인간에게 도움이 되는 원칙을 구현했습니다.
Q:윤리 가이드라인 공통 원칙은 무엇인가요?
A:윤리 가이드라인에는 함께하는 약속 네 가지를 기본 제시합니다. 우선 공공성은 지능정보기술이 가능한 많은 사람에게 도움을 줘야한다는 개념입니다. 지능정보기술에 의해 창출된 경제 번영은 모든 인류 혜택을 위해 광범위하게 공유돼야합니다. 두 번째 책무성은 지능정보기술과 서비스에 의한 사고 등 책임 분배를 명확히 해야 한다는 부분입니다. 안전과 관련한 정보 공유, 이용자 권익보호 등 사회적 의무를 충실히 수행해야한다는 점입니다.
세 번째 통제성은 지능정보기술과 서비스에 대한 인간 제어 가능성과 오작동 대비책을 미리 마련하고 이용자의 이용선택권을 최대한 보장해야한다는 부분입니다. 마지막으로 투명성은 기술개발, 서비스설계, 제품기획 등 의사결정 과정에서 이용자·소비자·시민 등 의견을 반영하도록 노력해야한다는 점입니다. 이용 단계에서 예상되는 위험과 관련 정보를 공개·공유하고 개인정보 처리 전 과정이 적절하게 이뤄져야한다는 점입니다.
Q:공공성 확보를 위해 주체별로 어떤 노력을 해야 하나요?
A:개발자, 공급자, 이용자별 맡은바 책무를 다해야합니다. 우선 개발자는 기술 개발 시 사회적 차별 요소를 배제해야합니다. 지능정보기술과 서비스 개발 전 과정에서 성, 인종, 종교, 지역, 민족 등 차이로 인한 근원적 차별을 배제해야합니다. 인류 보편적 복지에 기여할 기술개발을 우선해야합니다. 사회적 약자 보호를 위한 접근성, 지능정보사회에서 소외되거나 배제되기 쉬운 사회적 약자와 취약계층을 위한 접근성을 보장해야합니다.
아울러 지능정보기술이 사회문제해결에 이용될 수 있는 공공적 성격 기술을 개발하도록 노력해야합니다. 공급자는 공공 이익에 부합하는 제품을 공급해야합니다. 제품 기획, 보급, 이용결과 등은 공공 차원에서 긍정적 효과로 연결돼야합니다. 선한 의도를 가진 발주를 진행해야합니다. 지능정보기술과 서비스 개발은 선한 의도를 갖고 개발자에게 발주하고 기술 활용을 통한 사회문제 해결에 지속 관심을 가져야합니다. 지능정보기술과 서비스 사회적 파급효과를 고려해 상업적(사적)이익과 공공 기여 사이에 조화와 균형을 기업 운영원칙으로 삼도록 노력해야합니다. 마지막으로 이용자는 악의적 이용을 금지해야합니다. 자신 제품이용이 타인의 자유로운 이용을 침해하지 않도록 조치해야합니다. 지능정보기술이나 제품(서비스) 구입·이용과 관련해 약관이나 사용설명서 등이 있는지 확인하는 소비자 행동원칙을 일상화해야합니다.
Q:주체별로 어떤 책임감을 가져야하나요?
A:개발자는 최초 제품 개발부터 이용에 이르기까지 전 과정과 결과에 대해 책임을 공유해야합니다. 지능정보기술과 서비스 개발 시 발주자 요구를 기반으로 충실하고 공정하게 개발하고 개발자 간 정보 교류와 기술 갱신에 지속 참여해야합니다. 공급자는 책임 공유와 책임·보상 원칙을 마련해야합니다. 지능정보기술 관련 제품(서비스) 보급과 확산, 이용 결과 발생하는 사회적 폐해 책임을 공유해야합니다. 오작동과 사고 발생에 대비해 공정하고 합리적인 책임·보상 원칙을 마련해야합니다. 이용자 권리를 인지하고 이를 만족하도록 최선을 다해야하며, 이용자 정확한 이용을 위한 정보화 필요한 교육을 제공해야합니다.
이용자는 자신 제품(서비스) 이용 결과가 타인 권리침해나 안전에 미칠 수 있는 영향과 책임을 인지해야합니다. 지능정보기술·서비스 작동 방식과 영향에 대해 지속 관심을 기울이고 이용자 권익 침해와 안전사고 관련 개발자, 공급자를 대상으로 책임을 제기할 수 있어야합니다. 본인 이용 행태가 사회적 관행과 문화에 미치는 영향에 대해 인지하고, 안전 관련 정보 공유와 제도화를 요구할 수 있습니다. 이용하던 제품(서비스) 교체, 갱신, 폐기 작업을 진행할 때 이미 안내된 지침을 준수하고 부작용이 생기지 않도록 주의해야합니다.
주최:전자신문 후원:교육부·한국교육학술정보원
[관련도서]
◇'생활을 변화시키는 인공지능' 다쿠치 카즈히로, 모리시마 료코 지음. 영진닷컴 펴냄
4차 산업혁명을 이끌어가는 인공지능(AI)의 역사부터 기초 지식, 활용 사례까지 다양한 기업 사례를 통해 쉽게 설명한다. AI가 가져올 사회 문제, 싱귤래리티 등 AI를 둘러싼 전체 모습과 기초 지식을 소개한다. 생활 속에 침투한 일상 AI 모습과 기업의 AI 활용 사례 등을 알려준다. AI를 지원하는 기술과 구조로 딥러닝, 기계 학습 등 AI 세부 기술도 배울 수 있다.
◇'인공지능과 윤리' 김효은 지음, 커뮤니케이션북스 펴냄
인공지능(AI)에는 정보 보안을 넘어 윤리적 문제가 있다. AI와 뇌 연결 기술 등은 파급력이 크고 즉각 효용을 제공하기 때문에 충분한 윤리적 숙고 과정 없이 수용되는 경향이 있다. AI로 인해 발생 가능한 윤리적 문제는 어떤 것이 있는지 살펴보고 책임과 책무성 등을 자세히 전한다. 알고리즘 편향과 디지털 공평성 등 최근 제시되는 다양한 AI 윤리 문제 자세한 설명을 담았다.
김지선기자 river@etnews.com