AI가 AI를 믿지 말라고 경고하는 시대 - RFK Jr. 식품 피라미드 사이트의 아이러니
💡 핵심 요약
- 정부 건강 정책 사이트가 사용자를 AI 챗봇으로 유도했는데, 그 AI가 정작 해당 정책 책임자를 신뢰하지 말라고 조언한 충격적 사례
- 공공 건강 정보의 신뢰성 검증 없이 '최신 기술'만 갖다 붙이는 행정의 민낯
- 한국의 식품안전처, 질병관리청 사이트에도 적용 가능한 위험 신호
정부 사이트가 AI한테 물어보라더니, AI는 "그 정부 말 듣지 마"라고 답했습니다
RFK Jr.(로버트 F. 케네디 주니어)가 만든 식품 피라미드 가이드 사이트에 xAI의 Grok 챗봇 링크를 걸어놨습니다. 문제는 사용자가 Grok에게 "RFK Jr.의 건강 조언을 믿어도 되나요?"라고 물으면, Grok이 "그 사람 백신 음모론자인데 신뢰하면 안 됩니다"라고 답한다는 거죠.
이게 단순한 해프닝이 아닙니다. 공공 건강 정보의 품질 관리가 붕괴된 현장을 목격하는 겁니다.
한국인이라고 남의 일이 아닙니다
식약처 홈페이지에서 "건강기능식품 고르는 법" 챗봇 만들어놨는데, 정작 그 챗봇이 "식약처 인증마크보다 해외 직구가 낫다"고 답한다고 상상해보세요. 농담이 아니라 기술 도입과 콘텐츠 검증의 분리가 실제로 일어나고 있는 현상입니다.
우리나라 공공기관 사이트들도 요즘 너도나도 AI 챗봇 달고 있는데, 정작 그 챗봇이 학습한 데이터가 뭔지, 어떤 답변 필터링을 거쳤는지 공개하는 곳은 거의 없습니다.
팩트 체크: AI는 왜 자기 주인을 배신했나
| 구분 | RFK Jr. 주장 | Grok AI 답변 | 과학적 합의 |
|---|---|---|---|
| 백신 안전성 | "백신-자폐증 연관성 의심" | "과학적 근거 없는 음모론" | Lancet 1998년 논문 조작 판명, 수백 건 역학연구로 반박 |
| 불소 첨가 | "식수 불소 첨가 위험" | "CDC는 공중보건 성과로 평가" | 미국 CDC: 20세기 10대 공중보건 성과 |
| 식품 첨가물 | "미국 식품 첨가물 과다" | "규제 기관 승인 거친 안전 기준" | FDA GRAS 목록 기준 준수 |
Grok이 배신한 게 아닙니다. xAI의 학습 데이터가 과학 논문, 의학 저널 기반이기 때문에 RFK Jr.의 주장과 충돌할 수밖에 없는 구조죠. 문제는 이런 기본적 검증도 없이 사이트에 링크를 건 의사결정 과정입니다.
한국 공공사이트의 AI 도입, 이것만은 체크하세요
2024년 기준 국내 중앙부처 83%가 AI 챗봇 도입했지만, 행정안전부 조사 결과 **답변 정확도 모니터링을 하는 곳은 31%**에 불과합니다.
여러분이 정부 사이트에서 AI 챗봇 만났을 때:
- 출처 표기 확인 - "어디서 가져온 정보인가?" 물어보세요
- 모순 테스트 - 같은 질문을 다르게 표현해서 2번 물어보세요
- 공식 문서와 대조 - 챗봇 답변을 PDF 공식 가이드라인과 비교하세요
진짜 문제: 기술 맹신과 책임 회피의 완벽한 결합
RFK Jr. 사례의 핵심은 이겁니다:
"AI가 답했으니 우리 책임 아니다"
공공기관이 AI 도입하면서 가장 좋아하는 게 바로 이 책임 분산 효과입니다. 잘못된 정보 제공해도 "AI 오류"로 돌릴 수 있고, 민원 대응도 "챗봇에게 물어보세요"로 떠넘길 수 있죠.
| 전통적 정보 제공 | AI 챗봇 도입 후 |
|---|---|
| 공무원 직접 답변 → 책임 명확 | AI 답변 → 책임 불명확 |
| 공식 문서 기반 → 추적 가능 | 학습 데이터 비공개 → 검증 불가 |
| 업데이트 주기 명시 | 실시간 학습 → 일관성 없음 |
야근하면서 건강 정보 찾는 한국인에게 이게 왜 중요한가
밤 11시, 편의점 도시락 먹으면서 "이거 매일 먹어도 되나" 검색합니다. 식약처 챗봇이 "괜찮습니다"라고 답하는데, 그게 2019년 기준 나트륨 함량으로 학습된 답변이라면? 2024년 기준으로는 WHO 일일 권장량 2배 넘는 제품일 수 있습니다.
배달 앱 리뷰는 10개씩 읽으면서, 정작 매일 의존하는 건강 정보의 출처는 확인 안 하는 게 한국인의 현실이죠.
지금 당장 실행할 액션 아이템
1단계: 신뢰도 검증 루틴 (30초)
- 정부 사이트 AI 답변 받으면 → 페이지 하단 "최종 수정일" 확인
- 날짜 없으면 → 해당 부처 공식 PDF 문서 찾아서 대조
2단계: 이중 확인 습관 (1분)
❌ "AI가 그러는데요" → 끝
✅ "AI 답변 + 공식 문서 + 전문가 블로그" → 3중 체크
3단계: 민원 넣기 (5분)
- 정부 사이트 AI 답변이 공식 문서와 다르면 → 국민신문고 즉시 신고
- "AI 오류입니다" 답변 오면 → "그럼 왜 공식 서비스로 제공하나요?" 재질의
결론: 기술은 중립이 아닙니다, 사용하는 놈이 문제죠
RFK Jr.가 멍청해서 Grok 링크 건 게 아닙니다. "우리도 AI 쓴다"는 포장이 필요했던 거죠. 한국 공공기관도 마찬가지입니다. 디지털 전환 실적 챙기려고 AI 도입하지, 정보의 정확성은 우선순위 밖입니다.
여러분이 정부 사이트에서 AI 챗봇 만나면, 그건 편의 기능이 아니라 책임 회피 장치일 가능성을 의심하세요.
마지막 조언 하나. 건강 정보는 특히 10년 전 상식이 지금은 독이 되는 분야입니다. AI가 2020년 데이터로 학습했다면, 2024년 식품첨가물 기준 개정 내용은 모릅니다.
정부 사이트 AI한테 물어보기 전에, 그 AI가 언제 뭘 먹고 자랐는지부터 물어보세요.
🛒 추천 상품 (최저가 및 재고 확인)
- 사이언쌤 자율주행로봇만들기 장애물회피로봇 모음, 1세트 (28500원) - 실시간 할인 확인하기
쿠팡 파트너스 활동의 일환으로 수수료를 제공받습니다.