제 1064호
 
[어려운 이웃, 따뜻...
[어려운 이웃, 따뜻...
[어려운 이웃, 따뜻...
[어려운 이웃, 따뜻...
종합뉴스 > 손해보험
AXA손보, “대중 80% AI 제작 허위 정보 분별력 과신”
대중 10명 중 8명은 인공지능(AI) 기술로 제작된 온라인상 잘못된 정보를 구별하는 데 ‘자신 있다’며 자신의 정보 분별력을 과신하는 것으로 나타났다. AXA손해보험(이하 악사손보)은 28일 이 같은 내용이 담긴 AXA그룹의 ‘AXA Future Risks Report’ 설문조사 결과를 발표했다.

AXA Future Risks Report는 AXA그룹이 매년 전 세계적으로 떠오르는 글로벌 리스크에 대해 전문가 및 대중 인식 설문조사를 실시하고, 이를 토대로 미래 위험 예측 및 대응책 마련을 위해 발간하는 보고서이다. 올해 발간된 보고서에는 AI 기술로 인한 잘못된 정보에 대한 설문 내용을 새롭게 추가, 해당 주제에 대한 세계 각국의 전문가 3000명 및 일반 대중 2만명의 인식 조사 결과를 담았다.

설문 결과에 따르면 AI 기술의 발전으로 허위 정보가 빠르게 확산될 수 있는 위험성이 커지는 가운데, 응답자 대다수가 본인의 정보 분별력에 대해 과신하는 경향을 보였다. 전체 응답자 10명 중 8명(전문가 80%, 대중 78%)이 스스로 소셜 미디어 등 온라인상에서 잘못된 정보를 구별할 수 있다고 대답했다. 반면 일반 대중의 정보 분별력에 대해서는 전문가 25%, 대중 40%만이 긍정적으로 답했다. 지역별 응답 차이를 살펴보면 아시아 전문가 38%가 일반 대중이 잘못된 정보를 구별할 수 있다고 답하며 유럽(22%), 아메리카(18%), 아프리카 (9%) 등 다른 지역에 비해 대중의 정보 분별력에 상대적으로 높은 신뢰를 갖고 있는 것으로 나타났다.

AXA그룹 보고서에서 관찰된 이 같은 경향은 경계할 필요가 있다. AI 기술 고도화로 더욱 정교하게 만들어진 허위정보 확산이 가속화되고 있어 경계를 늦추면 자칫 더 큰 위험을 초래할 수 있기 때문이다.

이에 해당 사안 해결에 정부의 역할이 필요하다는 의견도 관측됐다. 허위 정보 문제 해결을 위한 대응 방안별 효과에 대해 ▲디지털 문해력 교육 도입(전문가 96%, 대중 88%)이 가장 높은 동의율을 기록했으며 ▲허위 정보 유포에 대한 처벌 강화(전문가 91%, 대중 87%) ▲소셜 미디어 플랫폼에 대한 규제와 책임 강화(전문가 90%, 대중 85%)가 뒤를 이었다. 또한 AI가 리스크를 유발함과 동시에 해결책이 될 수 있다는 의견에도 전문가 82%, 대중 75%가 동의, AI를 사용해 가짜 뉴스를 식별하고 잘못된 정보의 확산을 방지할 수 있을 것이라고 판단했다.

한스 브랑켄 악사손보 대표이사는 “AI는 이미 현재가 된 혁신이므로 AI에 대한 연구를 통해 이를 잘 활용하면서도 관련 리스크를 이해하고 적절하게 대응하기 위해 지속적인 연구와 노력을 이어 나가야 할 것이다”라고 말했다.

[한국보험신문=손민아 기자]
손민아 alsdkqg@insnews.co.kr

[저작권자 (c)한국보험신문. 무단전재 및 재배포 금지]

2024-11-28 19:21:09 입력.




기업보험, 분쟁해결방법 중재로 단일...
생명보험협회, 한국신탁학회와 2024년...
KB손보, 대한민국 디지털 광고대상 그...
금감원, 보험사 대상 하반기 내...
금융위, 혁신금융서비스 25건 신...
반복되는 절판마케팅 보험사 성...
생명보험 가입률 84% 기록 절반 ...
폭설에도 ‘해머링 맨’...
 
한국, 미국 보험지수비...
 
법인명 : 한보험신문(주) ㅣ 제호 : 한국보험신문 ㅣ 주소 : 서울시 종로구 새문안로 42 ㅣ 전화 : 02-725-2552
신문사업 등록번호 : 서울 다06581 ㅣ 신문사업 등록일 : 2002년 5월 29일 ㅣ 발행인 : 서경란 ㅣ 편집인 : 이정용
인터넷신문 등록번호 : 서울 아53168 ㅣ 인터넷신문 등록일 : 2020년 7월 7일 ㅣ 청소년보호책임자 : 박상섭

한국보험신문 모든 콘텐츠(기사, 사진)는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.
Copyright by Korea Insurance News All rights Reserved.