LG 인공지능(AI)연구원은 지난 10~11일(현지시간) 프랑스 파리 그랑 팔레에서 열린 'AI 행동 정상회의'에 참가해 AI의 안전, 포용의 중요성을 알렸다고 12일 밝혔다.
'AI 행동 정상회의'는 세계 100여개 국가의 정상들과 기업, 학계 인사들이 참여해 공공의 이익을 위한 AI, AI가 환경에 미치는 영향 등 AI의 잠재성과 위험을 균형감 있게 논의하는 자리다.
이 회의에서 LG AI연구원은 각국의 고위 관계자들에게 데이터의 신뢰성을 높이는 AI 기술과 모두가 고르게 AI 혜택을 누릴 수 있는 실천 방안 모색 등 기업의 역할과 노력을 알렸다.
LG AI연구원은 AI 연구개발 과정에서 발생할 수 있는 잠재적 위험을 사전에 파악하고 개선하기 위해 연구원에서 진행하고 있는 모든 연구 과제를 대상으로 AI 윤리 영향 평가를 의무화했다.
총 70개 과제에서 229건의 잠재적 위험을 식별해 개선 작업도 했다.
'모든 문제는 데이터 문제로부터 시작된다'는 인식 아래 AI 모델이 학습하는 데이터의 위험을 자동으로 분석하고 위험 등급을 평가하는 '데이터 컴플라이언스 에이전트'도 개발해 데이터 사용의 투명성과 책임성을 높였다.
이밖에 LG전자와 LG유플러스 등 LG 주요 계열사의 AI 윤리 실천 사례를 보고서에 담아 계열사로 확산 중인 AI 윤리 실천 노력을 강조했다.
LG AI연구원은 '파리 AI 행동 정상회의'의 일환으로 유네스코(UNESCO)와 함께 '세상을 위한 AI(Preparing AI for the World)'를 주제로 포용적이고 책임감 있는 AI 거버넌스를 위한 국제 협력 방안을 논의하고 우수 사례를 공유하는 행사도 했다.
앞서선 지난해 유네스코 AI 윤리 글로벌 포럼, AI 서울 정상회의, UN 기업과 인권 포럼 등 24개 글로벌 AI 거버넌스 논의에 참여해 AI 윤리 실천 사례를 알렸다.
LG AI 윤리원칙의 이행 성과를 담은 AI 윤리 책무성 보고서도 지난해에 이어 2년 연속 발간했다.
배경훈 LG AI연구원장은 보고서 서문에서 "AI 기술이 사회에 미치는 영향력이 커질수록 책무성은 더욱 중요해지고 있다"고 강조하며 "LG AI연구원은 모든 연구개발 과제에 AI 윤리 영향 평가를 의무화해 잠재적 위험을 조기에 발견하고 개선했으며 엄격한 데이터 컴플라이언스 체계를 구축해 신뢰할 수 있는 AI 개발의 토대를 마련했다"고 전했다.
이어 "신뢰할 수 있는 AI 기술력 확보를 넘어, AI 기술의 혜택이 사회 구성원 모두에게 고르게 돌아갈 수 있는 포용적 AI 생태계를 만드는 데 기여하겠다"고 했다.
김형민 기자 khm193@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제 무단전재 배포금지>