여기는 OpenAI가 ChatGPT에서의 거짓 정보를 정화하는 방법입니다.

5월 31일, OpenAI는 수학적 문제 해결 능력을 향상시켜 인공 지능 (AI) 환각의 사례를 줄이는 노력을 발표했습니다. OpenAI는 환각을 완화하는 것이 일치된 AI를 개발하기 위한 중요한 단계라고 강조했습니다.

3월, 최신 버전의 ChatGPT인 ChatGPT-4가 출시되면서 AI는 더욱 보편화되었습니다. 그러나 생성형 AI 챗봇은 오랫동안 사실적인 정확성에 대한 고민을 하고 있으며 때때로 잘못된 정보를 생성하여 “환각”이라고 불리는 경우가 있습니다. 이러한 AI 환각을 줄이기 위한 노력은 OpenAI 웹사이트의 게시물을 통해 발표되었습니다.

AI 환각은 인공 지능 시스템이 사실적으로 부정확한 결과를 생성하는 경우를 말하며, 현실 세계의 데이터로 지원되지 않는 것을 오도하는 경우가 있습니다. 이러한 환각은 잘못된 정보를 생성하거나, 존재하지 않는 이벤트나 인물을 만들거나, 특정 주제에 대한 부정확한 세부 정보를 제공하는 등 다양한 형태로 나타날 수 있습니다.

OpenAI는 “결과 감독”과 “과정 감독” 두 가지 유형의 피드백 효과를 검토했습니다. 결과 감독은 최종 결과에 기반한 피드백이고, 과정 감독은 사고 과정의 각 단계에 대한 입력을 제공합니다. OpenAI는 이러한 모델을 수학 문제를 통해 평가하여 여러 해결책을 생성하고 각 피드백 모델에 따라 가장 우수한 해결책을 선택했습니다.

철저한 분석을 거친 결과 과정 감독이 인간이 승인한 과정에 따라 모델이 준수하도록 유도하므로 우수한 성능을 발휘하는 것으로 나타났습니다. 대조적으로, 결과 감독은 일관된 검토가 더 어려웠습니다.

OpenAI는 과정 감독의 함의가 수학 이외의 분야에서도 확장될 수 있다는 것을 인식하고, 다른 영역에서의 효과를 이해하기 위해 추가적인 조사가 필요하다고 밝혔습니다. 관찰된 결과가 보다 넓은 문맥에서도 유지된다면, 과정 감독은 결과 감독에 비해 성능과 일치성의 유리한 조합을 제공할 수 있다는 가능성을 언급했습니다. 연구를 촉진하기 위해, 회사는 과정 감독의 완전한 데이터 세트를 공개하고 이 분야에서의 탐구와 연구를 초대했습니다.

관련: AI 수요가 일시적으로 Nvidia를 1조 달러 클럽으로 끌어 올렸습니다

OpenAI는 환각 조사를 촉발한 구체적인 사례를 제공하지 않았지만, 최근 두 가지 사례가 실제 상황에서 문제를 보여주었습니다.

최근 사건에서, Mata 대 Avianca Airlines 사건에서 변호사 Steven Schwartz는 챗봇을 연구 자료로 사용했다는 것을 인정했습니다. 그러나 ChatGPT가 제공한 정보는 완전히 가공되었으며 문제점을 강조했습니다.

OpenAI의 ChatGPT는 인공 지능 시스템이 환각을 경험하는 유일한 예가 아닙니다. 3월에 Microsoft의 Bing AI 챗봇이 회사의 수익 보고서를 검토했을 때 Gap과 Lululemon 같은 회사에 대한 부정확한 수치를 생성했습니다.

매거진: 25,000명의 트레이더가 ChatGPT의 주식 추천을 사고, AI는 주사위 던지기에서 실패합니다