사회

"대답만 그럴싸하게"‥ 생성형 AI의 그림자

이용주 기자 입력 2025-12-07 20:20:00 조회수 49

◀ 앵 커 ▶
공인 노무사가 생성형 인공지능이 만든 가짜 판결문을 인용해 답변서를 제출했다는 소식 전해드렸는데요.

AI의 할루시네이션, 그러니까 존재하지 않는 정보를 사실인 양 생성하는 환각 현상 때문이었습니다.

왜 이런 환각 현상이 빚어지는지 정인곤 기자가 알아봤습니다.
◀ 리포트 ▶

국내 법률 정보기술 기업이 제공하는 AI 서비스 화면입니다.

겉보기엔 일반 생성형 AI와 비슷하지만 판례 수백만건과 법률 이론을 학습했습니다.

연간 수십에서 수백만원의 사용료를 내야 하지만 대다수 변호사와 기업이 도입하고 있습니다.

법률 조사나 문서 요약 같은 기초적인 업무를 맡겨 시간을 줄일 수 있기 때문입니다.

하지만 사실이 아닌 정보를 만들어내는 환각 현상 문제로 시키지 못하는 업무도 많습니다.

◀ INT ▶ 손영삼 / 울산지방변호사회 총무상임이사
"(AI가) 추정 또는 추측해서 그걸 사실화시키는 그런 행태들이 현재는 보이고 있습니다. 판단 영역까지 맡기기에는 아직까지 어려운 점들이 많이 있습니다."

이처럼 일정 분야에 특화된 AI 서비스도 환각에 빠지는 건 생성형 AI의 기본 원리가 다음에 올 가장 그럴듯한 단어를 확률적으로 예측하는 모델이기 때문입니다.

맞는 답이 아닌 그럴듯한 답을 내놓다 보니 허구로 답하기도 하고, 어떻게 질문하는지에 따라 답변의 내용과 품질도 달라질 수 있습니다.

게다가 AI가 학습한 데이터에 있었던 오류와 편견을 그대로 반영하기도 합니다.

◀ SYNC ▶ 이재성 / 중앙대 AI학과 교수
"GPT나 제미나이는 이 문장을 유려하게 만드는데 목적이 있고요. (AI 설계에) 그 답변이 사실인지 아닌지를 검토하는 거는 일단 따로 떼어놓고 생각을 했었다는 겁니다."

AI 업계에서는 이 같은 단점을 보완하기 위한 다른 기술들을 개발하고 있습니다.

특히 외부 지식을 검색해 AI의 정확성과 신뢰성을 높이는 검색 증강 생성, 이른바 RAG 방식이 주목을 받고 있습니다.

하지만 이마저도 AI의 환각을 줄일 수 있을 뿐, 완전히 제거할 수는 없습니다.

◀ SYNC ▶ 안대한 / 울산대 AI융합전공 주임교수
"외부에서 검색을 하는 방식이라고 하더라도 오류가 있을 수도 있고 상반된 정보가 존재하면서 가짜 뉴스 같은 것도 존재를 할 수가 있습니다."

현역 판사들로 구성된 법원 인공지능연구회는 지난 2월 가이드라인을 발표하고 현재 법조인이 수행하는 수준으로 법리를 검토할 수 있는 인공지능은 없다고 결론냈습니다.

그러면서 소송자료나 증거자료에 AI를 사용했는지 여부를 밝힐 수 있도록 민·형사소송규칙 등을 개정하는 방안도 고려해 볼 수 있다고 덧붙였습니다. MBC뉴스 정인곤.
 

Copyright © Ulsan Munhwa Broadcasting Corporation. All rights reserved.

이용주
이용주 enter@usmbc.co.kr

취재기자
enter@usmbc.co.kr

여러분의 의견을 남겨주세요

※ 댓글 작성시 상대방에 대한 배려와 책임을 담아 깨끗한 댓글 환경에 동참해 주세요.

0/300