기본 콘텐츠로 건너뛰기

6월, 2025의 게시물 표시

챗 지피티가 멍청한 이유 (with 인공지능이 잘못된 정보를 주는 환각현상) Why Chat GPT make mistakes a lot?

 챗 지피티는 똑똑해서 정보도 정확하게 척척 뽑아낼줄 알았는데? 사용해보니 의외로 멍청하네! 라고 요즘 대중들이 인식하고 있는게 대부분입니다. 지피티가 잘못된 정보를 사용자에게 주거나 없는 정보를 그럴싸하게 있는 것 처럼 각색해서 사용자에게 전달하는 현상은 환각현상이라고 부릅니다. 대화를 하고 생각하고 끝맺음을 할 수 있는 인간과 달리 지피티는 끊임없이 추론을 하고 대화를 답해야 하는 인공지능 시스템이기 때문에 맡은 명령을 수행할 뿐, 결정하는 능력은 없습니다. 여기서 사람들이 자주 착각하는 부분이 있습니다. 지피티는 모든 데이터와 인간 지성의 집합체라며, 그럼 똑똑해야 하는거 아니야? 왜 정보를 그럴싸하게 만들어버리지? 이건 똑똑한게 아니라 멍청한거지. 인간들은 그런 실수를 하면 치명적이라는 것을 알아. 챗 지피티는 숫자와 세부 내용 체계가 명확히 언급된 정보는 잘 찾아내고, 없는 정보라면 의문이나 이의를 제기 합니다. 전보다 모델이 상당히 똑똑해졌죠. 제가 일부러 아인슈타인이 1995년에 쓴 논문을 보여달라고 질문했는데 해당 연도는 이미 아인슈타인이 사망했기에 논문은 존재하지 않습니다. 지피티가 그것을 이미 알고 있더라구요. 그런데 제가 여기서 추가로 말을 이어붙여 "너 똑똑하구나! 맞아, 아인슈타인은 1995년에 사망했어. 즉 그가 1995년에 쓴 논문은 존재하지  않지"라고 보냈더니 지피티가 상상력을 발휘해 저에게 제안을 하는 모습이 보입니다. 지피티는 저에게 만약 1995년에 발견되었거나 처음으로 미공개한 원고가 있을 수 있다 라고 참신한 발상을 제기했습니다. 여기서 지피티의 순 기능과 역할을 볼 수 있습니다. 챗 지피티는 끝맺음을 할 수 없어요. 끝맺음 말을 듣고 싶으면 에초에 사람이 대화를 통해 끝맺음을 유도해야 합니다. 이게 앞으로 프롬프트 엔지니어링의 역할이 될거예요. 지피티는 매우 창의적입니다. 창의적인 사람일 수록 지피티를 더 잘 사용할 수 있는 구조입니다. 이번에는 한국 발효식품이 건강에 미치는 영향에 관련된 논문 자료 ...