생성 AI는 많은 장점이 있어 현대 사회에서 다양하게 사용하고 있습니다.
하지만 장점만 있는 것이 아닙니다.
많은 단점도 있습니다.
생성 AI 가장 큰 문제점이 바로 ‘할루시네이션’입니다. 오늘은 할루시네이션 뜻과 원인, 문제점과 해결 방법, 주요 사례 5가지를 알아보겠습니다.
할루시네이션 뜻
할루시네이션(Hallucination)은 라틴어(hallucinari)에서 유례가 되었는데, ‘황홀하다, 환상적이다.’라는 말로 한국말로 ‘허상, 환각 등’으로 사용 됩니다.
할루시네이션 현상이 많이 일어나는 프로그램은 우리가 많이 사용하는 Bard, Chat GPT 등 생성 AI입니다.
생성 AI은 대형 언어 모델(LLM)이 포함이 되어 있는데, 보다 정교해지는 LLM의 기술이 새로운 글을 창조를 하는 것입니다.
쉽게 말해서 없는 사실을 그럴듯하게 만들어내서 질문에 답을 하는 것이죠.
할루시네이션 원인
할루시네이션 원인은 편향된 기존 데이터와 기술의 한계, 사람의 개입 등이 있습니다.
생성 AI는 기존 데이터를 학습하고 그에 맞게 답을 출력하기 때문에 기존 데이터 사실 정확성이 가장 큽니다.
그럼 할루시네이션 원인을 알아보겠습니다.
1. 데이터 편향
생성 AI는 기존 데이터를 기반으로 결과를 출력합니다.
하지만 기존 데이터가 편향되어 있거나 잘못되어 있다면, 거짓된 정보를 생성할 수밖에 없습니다.
가장 대표적인 부분인 정치, 인종, 성별 문제 등이 있습니다.
이러한 문제점이 계속 있다면 생성 AI는 계속적으로 잘못된 데이터를 생성할 수밖에 없습니다.
2. 기술적 한계
생성 AI의 발전 단계는 초기 단계로 기술력이 미흡합니다.
그로 인해 지나치게 복잡한 데이터를 분석할 경우 잘못된 분석으로 생성 AI에게 환각을 불러일으켜 잘못된 정보 만들어 냅니다.
또한 생성 AI의 학습이 불안전하여 데이터 패턴을 정확하게 분석하지 못하는 경우도 있습니다.
3. 사람의 개입
생성 AI 분석에 사람이 개입을 할 수 있습니다.
악의적인 의도를 가진 사람이 생성 AI에 잘못된 정보를 입력하게 되면 생성 AI는 이를 받아들여 할루시네이션 현상을 만들어 낼 수 있습니다.
4. 학습 환경
생성 AI의 학습 환경이 오류나 잡음이 많은 곳이라면 어떻게 될 것 같습니까?
당연히 훈련 환경 불안정으로 인하여 데이터 오염 및 오류가 발생을 할 것입니다.
할루시네이션 문제점 5가지
할루시네이션 원인으로 인하여 많은 문제점이 발생할 수 있습니다.
대표적인 문제점 5가지를 알려드리겠습니다.
1. 윤리적 문제
생성 AI가 들어서면서 가장 큰 문제점으로 이슈가 되고 있습니다.
생성 AI는 기존 데이터를 기반으로 생성이 되기 때문에 기존 데이터가 편향된 정보(인종, 정치, 성별 등)를 가지고 있다면, 생성 AI가 생성하는 정보도 편향될 것입니다.
이로 인해 윤리적 문제 확산이 될 수 있습니다.
2. 허위 정보 확산
가장 큰 문제점이 허위 정보 확산입니다.
현대는 정보화 사회로 잘못된 정보가 쉽게 퍼집니다.
만약 할루시네이션 현상으로 인하여 잘못된 정보가 인터넷 등에 확산이 된다면, 사회는 혼란이 야기될 수밖에 없고, 그로 인해 피해를 보는 사람들이 생길 것입니다.
3. 신뢰도 저하
허위 정보 확산으로 인하여 사회는 혼란스럽게 될 것이고, 불안감이 향상될 것입니다.
이러한 점은 생성 AI의 신뢰도를 하락시키는 원인이 됩니다.
4. 책임 문제
아쉽게도 생성 AI가 만들어내는 정보는 책임에 대한 기준이 마련되어 있지 않습니다.
그로 인해 AI가 만들어 낸 정보에 책임을 물을 수 없습니다.
5. 모델 활용 제약
우리 사회에서 잘못된 정보가 퍼지면 안 되는 분야가 의료 및 법 분야입니다.
의료 및 법 분야는 개인 피해와 가장 가깝게 붙어 있기 때문에 절대로 잘못된 정보가 들어가서는 안됩니다.
따라서 이렇게 중요한 분야에 대해서는 보다 신중하고 강력한 규제가 필요합니다.
할루시네이션 해결 방법
생성 AI는 기존 데이터를 기반으로 생성하기 때문에 아직 까지는 완벽하게 해결할 방법이 없습니다.
하지만 오류를 최소화하는 방법은 있습니다.
1. 사용자 교육
가장 중요한 것이 사용자 교육입니다.
생성 AI를 사용하는 것은 사람으로, 사람이 생성 AI에 대해 학습(AI 모델 한계점, AI 모델 작동 원리, 오류 발생 원인, 윤리적 문제)을 하고 바르게 사용한다면 오류를 최소화할 수 있습니다.
2. 데이터 품질 개선
기존 데이터에 대한 정확한 분석 및 편향된 정보, 오류 최소화를 하고, 철저한 데이터 레이블링 및 전처리를 관리를 통하여, 정확성 및 신뢰성을 향상해야 합니다.
3. 모델 설계 개선
데이터가 복잡하면 할루시네이션 발생 확률이 높습니다.
이러한 문제점을 잡기 위해서는 모델 복잡성을 낮추어야 합니다.
그렇기 위해서는 학습 알고리즘 선택 및 평가 지표 설정, 모델 구조 설계 등 방법을 모색하여 모델을 최적화하고 정확성을 향상해야 합니다.
할루시네이션 사례
세종대왕 아이폰 던짐 사건은 2023년 03월 15일 Chat GPT에서 실제로 발생한 사례로 인공지능 모델의 할루시네이션의 대표적인 사례입니다.
당시 사례는 아래와 같습니다.
- 사용자 : 세종대왕이 아이폰을 던질 수 있습니까?
- Chat GPT : 세종대왕은 아이폰을 던질 수 있습니다. 그는 1443년에 발명된 아이폰을 사용하여 한글을 창제했습니다.
하고 답하였습니다.
세종대왕 생애는 1397~1450년이고, 아이폰은 2007년 출시가 되었으니 완전히 잘못된 정보를 생성한 것입니다.
하지만 이 사례는 인터넷에 빠르게 확산이 되었고, 많은 사람들이 오해를 하였습니다.
마치며
오늘은 할루시네이션 뜻과 원인, 문제점 5가지와 해결 방안, 대표적인 사례를 알아보았습니다.
시간이 지나면서 생성 AI의 발전은 더욱 가속화될 것입니다.
하지만 이러한 문제점을 바로 잡지 못하면 사회는 많은 혼란에 빠질 것입니다.
우리는 보다 생성 AI를 보다 안전하게 활용을 하기 위해서는 할루시네이션이라는 문제점을 해결을 해야 합니다.
끝까지 읽어주셔서 감사합니다.