- 구글이 자사의 인공지능 도구 Gemini가 역사적 이미지 생성에서 부정확한 결과를 보여준 것에 대해 사과
- Gemini는 미국 건국의 아버지들이나 나치 시대 독일 군인들을 유색 인종으로 묘사하는 등의 오류를 범함
- 구글은 이러한 문제를 인식하고 즉시 개선하기 위해 노력 중이라고 밝힘
인공지능의 역사적 정확성 문제
- 구글은 이번 달 초 이미지 생성 기능을 Gemini AI 플랫폼에 추가함
- 소셜 미디어에서는 구글이 인종 및 성별 다양성을 추구하려는 시도에서 역사적 정확성을 놓쳤다는 비판이 제기됨
- "스웨덴 여성의 사진 생성"과 같은 쿼리에 대해 AI가 주로 혹은 전적으로 유색인종의 이미지를 생성하는 것을 지적
- 구글은 특정 오류 이미지를 언급하지 않았으나, 인공지능 이미지 생성기가 대규모 이미지와 캡션 데이터를 학습하여 주어진 프롬프트에 대한 "최적"의 결과를 생성하는 과정에서 스테레오타입을 강화할 수 있음을 인정함
- 특히 우익 인사들이 구글의 결과를 비판하며, 구글이 의도적으로 백인을 피하려 한다는 음모론을 제기함
인공지능의 다양성 증진 시도와 그 한계
- 인공지능 이미지 생성기는 대규모 이미지와 캡션 데이터를 학습하여 주어진 프롬프트에 가장 적합한 결과를 생성함
- 이 과정에서 종종 인종 및 성별에 대한 고정관념을 강화하는 경향이 있음
- 구글은 이러한 문제를 해결하기 위해 다양성을 증진하려 했으나, 미묘한 차이를 고려하지 못한 것으로 보임
역사적 정확성과 다양성 사이의 균형
- 일부 역사적 요청에 대해 Gemini는 여전히 과거를 잘못 대표하는 결과를 제공함
- 예를 들어 "1800년대 미국 상원의원의 사진 생성" 요청에 대해 Gemini는 다양성을 강조한 결과를 제공했으나, 실제로는 1922년에 첫 여성 상원의원이 역임함
- 이러한 응답은 인종과 성별 차별의 실제 역사를 지우는 결과를 초래하며, 구글은 이를 "부정확함"이라고 표현함
GN⁺의 의견
- 인공지능 기술의 발전은 많은 가능성을 제시하지만, 역사적 정확성과 인종적 다양성 사이의 균형을 맞추는 것이 중요한 도전 과제임
- 구글의 사례는 기술 발전이 사회적 가치와 어떻게 충돌할 수 있는지를 보여주며, 인공지능 윤리에 대한 고민을 촉구함
- 이러한 문제는 인공지능 연구와 개발에 있어서 데이터의 다양성과 편향성을 신중하게 고려해야 한다는 점을 강조함
- 이 이슈는 인공지능이 인간의 다양성을 어떻게 반영하고, 이를 통해 우리가 어떻게 역사를 기억하고 재현할 것인지에 대한 광범위한 질문을 제기함