유료 구독자 전용
무료 회원 공개
전체 공개

검색 전쟁(2): 인간을 위협하는 챗GPT, 인간의 글을 배웠기 때문
2016년 마이크로소프트의 인공지능 챗봇 ‘테이(tay)', 2020년 국내 챗봇 ‘이루다' 그리고 2022년 메타(구 페이스북)의 ‘블렌더봇3(BlenderBot 3)’ 모두 혐오 발언과 공격성 때문에 단명했습니다. 성차별, 인종차별, 동성애 차별, 종교적 편향 등이 대표 사례였습니다. 챗GPT를 개발한 오픈에이아이(OpenAI)는 동일한 실수를 반복하지 않기 위해 사전 준비를 나름 철저히 했습니다. <타임>의 폭로 [https://time.com/6247678/openai-chatgpt-kenya-workers/]에 따르면 챗GPT는 시급 2달러 미만의 케냐 노동자를 동원해 챗GPT의 학습 데이터를 필터링했습니다(왜 빅데이터(Big Data)가 아니라 베터데이터(Better Data)가 중요한지는 머신러닝과 전통 소프트웨어의 차이점 [https://thecore.media/mlsoftwaredifference/] 참조). 유해한 그리고 차별적인 학습 데이터를 걸러냈다고 해도
로그인한 회원만 댓글을 쓸 수 있습니다.
아직 댓글이 없습니다.