디지틀조선TV 유튜브 바로가기

AI 고도화에 ‘AI 윤리’ 부각…기업은 어떤 ‘윤리준칙’ 세웠나

강나윤 기자 ㅣ muse@chosun.com
등록 2023.08.31 17:40

기업별로 AI 윤리 정책과 자문 프로세스 구축, 윤리 리스크 소거 노력
엔씨 ‘AI 윤리 프레임워크’, 네이버 ‘AI 윤리준칙’ 등
전문가 “AI 범죄 가능성 차단은 정부 규제 병행돼야”

윤송이 NC문화재단 이사장./뉴스1

최근 IT업계에 인공지능(AI) 열풍이 불면서 자연스레 AI 윤리 문제도 대두되고 있다. 생성형 AI에서 비롯되는 편견 재생산, 범죄 활용, 저작권 침해 등 문제가 도사리고 있기 때문이다.

31일 업계에 따르면, 기업들은 윤리 문제를 소거하기 위한 윤리 정책과 대응 방안을 강구해가는 추세다.

‘AI에 진심’인 엔씨소프트에는 ‘엔씨 AI 윤리 프레임워크’라는 가이드라인이 있다. 인공지능 기술 개발에 대한 준칙인데, 이용자 데이터를 보호하면서 사회적 편향 가능성에 주의하고 이해하기 쉬운 인공지능을 지향하겠다는 내용이다. 엔씨는 ‘데이터 보호를 중시하는 AI’, ‘편향되지 않은 AI’ 등을 개발 핵심 가치로 삼고 있다.

엔씨소프트는 ‘데이터 활용 신청-위험분석-가명처리-적정성 검토-사후관리’ 등 5단계의 데이터 이용 정책 및 프로세스를 AI 연구, 개발에 적용하고 있다. 또 편향적 발언, 성희롱, 폭력적 언어 등 6개의 기본 비윤리적인 표현과 부적절한 표현 7개까지 총 13개의 유형을 구분해 탐지하고 있다. 작년엔 13개 유형을 실제 학습 데이터에 반영, 이를 기반으로 해당 표현이 포함된 발화를 탐지하는 기술도 개발했다.

네이버는 2018년 서울대 AI 정책 이니셔티브와 협업을 시작하며 2021년 ‘네이버 AI 윤리준칙’을 내놨다. 준칙 실천을 위한 윤리 자문 프로세스 ‘체크’도 마련했는데, 서비스 기획과 개발 초기 단계부터 ‘체크’를 거치고 있다.

최수연 네이버 대표이사./네이버 제공

네이버는 지난 24일 자체 개발 LLM인 ‘하이퍼클로바X’를 공개하면서 네이버의 AI 정책에 대해서 소개했다. 버티컬 서비스를 공략하고 있는 만큼, 하이퍼클로바X를 네이버 내부에서 이용할 때 고려할 측면을 반영해 AI 준칙 항목을 만들었다는 것이다.

네이버 측은 “개발 목표를 ‘신뢰할 수 있는 AI’로 삼고, AI의 편향성에 대응하기 위해 대량의 한국어 데이터셋을 제안한 연구를 개발에 활용했다”고 설명했다. 이외에도 AI 윤리팀 구성, ‘레드 티밍(위험을 평가하고 개선하기 위해 공격을 시도하는 활동)’ 등을 통한 고도화 과정을 거쳤다.

박우철 네이버 어젠다 리서치 리더는 “‘사람을 위한 AI’라는 사회적 관점을 구현하기 위해 가장 중요한 것은 기술적 노력으로, 기술적 노력을 통해 모든 것을 완벽히 해결할 수 없기 때문에 정책적 노력이 필요하다”고 강조했다.

카카오는 기술윤리 거버넌스 체계를 고도화한다는 목적으로 AI 윤리정책을 강화한 AI 체크리스트를 수립한 바 있다.

구글과 MS도 ‘책임 있는 인공지능’을 내세우며 AI 윤리를 강조하고 있다. 미국은 기업 자체 준칙에 더해, 상무부 산하 국가통신정보국(NTIA) 주도로 AI에 대한 규제 검토에 나서기 시작했다.

전문가들은 국내에서도 정부 차원의 AI 윤리 규제 도입이 필요하다고 강조한다.

최병호 고려대학교 인공지능연구소 교수는 “생성형AI 개발 초기에 방향성이 수립되지 않았기 때문에 지금에서야 윤리적인 가이드라인을 만들어야 한다는 주장이 나온다”며 “범죄에 활용될 수 있는 AI의 정보 수집 등은 정부의 규제를 통해 막아야 하는 문제”라고 말했다.


최신기사


    최신 뉴스 더보기


        많이 본 뉴스

          산업 최신 뉴스 더보기

            많이 본 뉴스