AI 검색엔진과 챗봇, 과도한 정보 스크래핑 결과 클릭 저조
최근 콜롬비아 저널리즘 리뷰의 연구에 따르면 AI 검색엔진과 챗봇은 종종 잘못된 답변을 제공하며, 기사 인용을 조작하는 경향이 있는 것으로 나타났다. 이러한 문제는 콘텐츠 스크래핑이 과도하게 이루어지면서 발생하며, 이는 사용자들이 웹사이트를 직접 방문하는 대신 AI의 답변만을 소비하게 만들어 클릭 유입이 감소하는 결과를 낳고 있다.
챗봇 작동 방식에 대한 심층 분석 결과
연구에 따르면, Gemini와 Grok 3는 전체 요청의 절반 이상에서 오류 페이지로 연결되는 조작된 URL을 참조했다. 더불어 Grok 3는 94%의 요청에 잘못된 답을 제공하였고, Gemini는 10번의 시도 중 단 한 번만 완전히 올바른 답변을 제공했으며, 오류율이 가장 낮은 Perplexity조차 37%의 요청에 대해 잘못된 답변을 했다.
점점 커지는 챗봇 신뢰성 문제
연구저자 Klaudia Jaźwińska와 Aisvarya Chandrasekar에 따르면, AI 챗봇은 종종 Robot Exclusion Protocol을 우회하여 콘텐츠를 인증 없이 스크래핑하는 것으로 보인다. "챗봇들은 잘못된 정보를 자신 있게 제시하고, 신디케이트 콘텐츠에 대한 잘못된 출처를 제공하며, 일관성 없는 정보 검색을 실행한다"는 점에서 이전의 연구 결과와 일치한다. AI 검색 모델의 비판론자들은 이러한 도구들이 투명성을 해치고 편향적 정보 접근 문제를 더욱 악화시킨다고 경고하고 있다.
1,600개 질의 대상 정보 신뢰도 비교 분석
이번 분석은 1,600개 질의를 통해 10개의 무작위 선정 기사에서 헤드라인, 원 출판사, 출판 일자, URL 식별 능력을 비교하였다. 분석 대상에는 ChatGPT 검색, Perplexity, Perplexity Pro, DeepSeek 검색, Microsoft CoPilot, xAI의 Grok-2와 Grok-3, Google Gemini 등이 포함되었다. 이들은 기사에서 직접 발췌된 내용에 기반하여 평가되었다.
출처 : 원문 보러가기