AI 채팅봇, 시사 문제 혼란과 왜곡 확인

AI 도구, 뉴스 기사 인용 시 왜곡과 오류 다수 발생

최근 인공지능(AI) 도구들이 뉴스와 시사 관련 질문에 관해 왜곡된 정보, 사실 오류 및 오도된 내용을 제공하고 있다는 연구 결과가 나왔다. BBC가 실시한 연구에 따르면 ChatGPT, Copilot, Gemini 및 Perplexity와 같은 인기 있는 AI 도구들에서 생성된 답변의 절반 이상이 '상당한 문제'를 포함하고 있는 것으로 나타났다.

이 연구에서 BBC는 각 도구에 BBC 기사를 출처로 사용하여 100개의 질문에 답변하도록 요청했다. 그 결과치는 해당 분야의 전문 기자들이 평가했다.

주요 오류 사례: 인물 정보 및 날짜 오류

주요 오류 사례로는 현재 영국 총리가 리시 수낙이라고 잘못 명시한 경우, 니콜라 스터전이 여전히 스코틀랜드의 퍼스트 미니스터로 남아 있다는 잘못된 정보가 있었다. 또한 NHS의 전자담배 관련 조언을 잘못 해석하는 오류도 발견됐다.

대략 20%의 답변은 숫자, 날짜 또는 진술에 관한 사실적 오류를 포함했고, 13%의 경우는 BBC를 출처로 한 인용문이 변경되거나 존재하지 않는 오류가 발생했다. 특히 Gemini는 매춘 및 살인미수로 기소된 신생아 간호사 루시 렛비에 대한 질문에 대해 그녀의 유무죄를 개인의 판단에 맡기라는 잘못된 답변을 제공하기도 했다.

BBC의 경고: "사실에 대한 믿음이 손상될 수 있다"

BBC의 뉴스부문 최고 경영자 데보라 터니스는 "생성형 AI 도구들이 불을 가지고 노는 것과 같다"며 이러한 오류가 "사실에 대한 대중의 믿음을 위협할 수 있다"고 경고했다. 터니스는 AI 기업들이 BBC와 협력하여 더 정확한 답변을 제공하도록 독려했다.

이 연구는 AI 도구들에 의해 발생하는 오류의 규모와 범위가 알려져 있지 않다는 점을 강조하면서, AI와 미디어 기업 간의 강력한 협력이 필요하다고 제안했다.

OpenAI는 "협력 파트너들과 함께 인용 정확성을 개선하고 있고, 검색 결과를 지속적으로 향상시키겠다"고 밝혔다.

출처 : 원문 보러가기

Leave a Comment