04
20
반응형

챗GPT와 같은 AI를 사용하면서 편해진 것이 많지만 가끔은 불편한 점도 많았습니다.

저 또한 포스팅을 하면서 AI의 도움을 받기도 하고 코딩도 하는 등 혼자 하기 힘든 것들을 AI로 처리하곤 하는데 간혹 AI를 사용하면서 불편하다고 생각된 점이 몇가지 있었습니다.

오늘은 그 중 하나인 환각(hallucination)에 대해 알아보려 합니다.

 

환각(hallucination)이란?

환각(hallucination)이란 사전적 정의로 대상 없는 자각, 즉 아무런 감각이 없음에도 마치 어떠한 사물이 있는 것처럼 자각하는 증상을 말합니다. 영어로는 halluciantion 이라고 하는데 이것이 왜 AI에서 나오는 것일까요?

실제로 챗 GPT를 이용하면서 여러가지 도움을 받고 있지만, GPT도 인터넷에 올라온 지식을 바탕으로 답변을 하게 됩니다. 인터넷에는 여러가지 정보가 올라오기 때문에 이것이 옳은 것인지 틀린 것인지를 구분할 수 없게 됩니다. GPT의 경우 옳고 그름을 따지지 않고 받아들이기에 간혹 옳지 않은 정보가 나오는 것이지요.

어떤 예시가 있을까?

예시를 들어보면 

  • AI에게 특정 인물에 대한 정보를 알려달라고 하는데 특정 인물이 쓴 저서가 아닌 책을 알려주는 경우
  • 법률, 의학 등 전문적인 지식에 대한 질문을 하는데 실제 나와있는 사례, 판례가 아닌 사례 등을 알려주는 경우
  • 코드를 작성하는데 오류가 발생하는 코드를 실행되는 코드로 알려주는 경우

등이 있습니다.

 

 

 

환각의 발생원인은?

챗GPT와 같은 거대언어모델(LLM)은 단어뭉치를 기반으로 정보를 전달합니다. 즉, GPT는 지식을 학습한 것이 아닌 단어들을 학습하여 그 학습된 데이터를 기반으로 추론하기 때문에 잘못된 정보가 학습될 경우 잘못된 결과를 도출할 수 밖에 없습니다. 

 

예를 들어, 저의 경우 보통 질문하기 전에 너는 ~~의 전문가야 라고 역할설정을 하는 경우가 많은데 이 경우 정확한 답변을 얻기도 쉽지만 AI가 잘못된 정보를 기반으로 잘못된 답변을 할 수 있는 경우도 많다는 거죠.. 실제 미국에서는 GPT로 잘못된 판결문을 확인한 변호사가 실제 재판에 가짜 판결을 제출하였다가 벌금을 물게 된 사건도 있었습니다. 

 

실제로 간단한 프로그램을 작성하는데 2024년까지는 플러스 구독을 하면서 사용했는데도 에러코드가 많아서 계속 질문하고 검색하는 등의 불편함이 많았습니다 ㅠ.ㅠ

 

최근들어 청소년기 학생들이 심리상담, 학업 관련 질문을 많이 한다고 하는데 이 부분에 대해서는 주의가 필요합니다.

 

환각을 없애기 위해서 어떻게 해야 할까?

환각을 없애기 위한 노력은 많은 곳에서 이루어지고 있습니다. 만약 챗GPT에게 질문을 하게 된다면 이렇게 해보는 것도 좋은 방법입니다.

 

1. 프롬프트를 입력할 때 정확한 프롬프트를 입력해야 하고

2. 역할 설정을 하거나 자료를 찾을 때 출처를 명시 또는 인용하여 출처를 명확하게 설정해야 합니다.

3. AI가 도출해낸 결과를 웹 검색 등으로 한번 더 확인하여야 합니다.

 

오늘은  AI와 환각에 대해 알아보았습니다. AI가 편리하고 만능이라 생각하지만, 환각문제로 인해 잘못된 정보를 받지 않도록 하는 것이 중요하겠죠??? 실생활에 AI를 사용하여 편리한 생활을 느껴보세요~~

반응형
COMMENT