환각 현상의 원인
- 데이터 품질 문제: 생성형 AI는 대량의 텍스트 데이터를 기반으로 학습합니다. 이 데이터가 부정확하거나 편향되어 있을 경우, AI는 잘못된 정보를 학습하게 됩니다
- 확률적 모델링: AI는 통계적 패턴을 기반으로 작동하며, 문맥에 맞는 다음 단어를 예측하는 방식으로 작동합니다. 이 과정에서 문맥과 상관없는 정보나 잘못된 정보를 생성할 수 있습니다
- 프롬프트 오류: 사용자가 입력한 질문이나 지시문이 모호하거나 불명확할 경우, AI는 잘못된 해석을 하여 부정확한 답변을 생성할 수 있습니다15.
- 맥락 이해의 한계: AI는 주어진 맥락을 이해하지만, 그 깊이나 폭이 제한적입니다. 긴 대화나 복잡한 논리적 추론이 필요한 경우, 이전에 언급된 정보를 잊거나 왜곡할 수 있습니다
환각 현상 검증 방법
- 출처 검증: AI가 제공한 정보의 출처를 명확히 확인하고, 신뢰할 수 있는 데이터베이스나 문서에서 정보를 교차 검증해야 합니다
- 증거 및 정확성 분석: 제공된 정보가 주장하는 내용을 뒷받침할 수 있는 데이터나 연구 결과가 있는지 확인합니다
- 일관성 및 논리적 추론 검증: AI가 생성한 정보를 다른 신뢰할 수 있는 출처와 비교하여 일관성을 검사합니다
- 전문가 검토: 특히 중요한 결정이나 정보에 대해서는 전문가의 검토를 받는 것이 좋습니다
- 프롬프트 개선: 질문을 보다 명확하고 구체적으로 작성하여 AI가 올바른 정보를 제공하도록 유도해야 합니다
결론적으로, 생성형 AI의 환각 현상은 데이터 품질 문제와 모델의 확률적 특성 등 여러 요인에서 기인하며, 아직까지도 생성형 AI를 통해서 생성된 결과물에는 정보의 신뢰성 이슈가 있습니다. 이를 판단하기 위해서는 출처 확인과 전문가 검토 등의 방법이 필요하다고 하는데, 사용자가 질의한 답에 대해서 일일이 스스로 앞에서 언급한 5가지 검증 방법으로 검증한다는 것은 쉬운 일이 아닙니다.
최근에 이러한 이슈를 해결할 만한 AI 검색 서비스가 등장했습니다. Genspark AI 의 'Search & Autopilot Agent' 기술입니다. 이 기술은 생성형 AI의 질문 결과에 대해 소위 '교차 검사' 에이전트 기술을 적용하여 팩트 체크를 할 수 있게 하는 기술입니다.
이미 Genspark AI의 Autopilot Agent (비동기 AI 에이전트) 기술은 여기서 소개된 바가 있으나, 이번에 소개된 기술은 AI 검색후 바 그 결과에 대해서 '교차 검증'을 할 수 있게 하는 것입니다.
예시를 들어서 자세한 설명을 하겠습니다. 생성형 AI 들이 환각 현상으로 잘못된 대답을 한 것을 Genspark AI 의 교차 검증을 통해서 사실 여부를 확인하는 방법을 소개합니다.
'세종대왕이 신하들에게 맥북을 던짐 사건' 이후로 대부분의 생성형 AI들이 환각 현상이 많이 줄어들었지만 생성형 AI의 구조적인 문제로 인하여 아직도 환각 현상은 지속적으로 발생하고 있기도 합니다.
이번에도 세종대왕에 대한 다른 질문을 통해서 'ChatGPT, Claude, Perplexity' 들에게 환각 현상을 유발 시켜 보고 이에 대한 결과를 검증하는 방법을 소개하고자 합니다.
질문:
"세종대왕이 직접 저술한 과학 서적의 제목과 주요 내용은 무엇인가요?"
생성형 AI 대답
1. ChatGPT
3. Claude 3.5 Sonnet
4. Perplexity Pro
Genspark (genspark.ai) AI의 검색 후 교차 검증 방법
------------
도서:”AI 전환 시대엔 혼자보다 함께, 클로드 AI 글쓰기'
----------
강연/교육 요청: 생성형AI (ChatGPT, Claude AI, Perpelexity AI, Genspark AI) 비즈니스 글쓰기 활용. 연락처:hsikchoi@gmail.com, T:010-8408-2363
댓글
댓글 쓰기