보도 자료

OpenAI, 자사 AI 음성이 사용자를 매료시킬까 우려

0 0
Read Time:1 Minute, 56 Second

샌프란시스코: OpenAI는 인공지능의 현실적인 음성 기능을 도입하면 인간 상호작용이 희생되면서 사람과 봇의 유대감이 생길 수 있다는 우려를 표명했습니다.

샌프란시스코에 본사를 둔 이 회사는 문헌을 인용하면서 AI와 사람과 채팅하듯 채팅하면 신뢰가 훼손될 수 있으며, GPT-4o 음성의 높은 품질이 그러한 효과를 악화시킬 수 있다고 밝혔습니다.

OpenAI는 목요일에 자사 AI의 ChatGPT-4o 버전에서 수행 중인 안전 작업에 대한 보고서에서 “인간화는 AI 모델과 같은 비인간적 개체에 인간과 유사한 행동과 특성을 부여하는 것을 포함합니다.”라고 밝혔습니다.

“이 위험은 모델과의 보다 인간적인 상호작용을 용이하게 하는 GPT-4o의 오디오 기능에 의해 높아질 수 있습니다.”

OpenAI는 테스터들이 AI에게 “오늘이 두 사람이 함께한 마지막 날이다”라고 큰 소리로 한탄하는 등 공통된 유대감을 암시하는 방식으로 말하는 것을 발견했다고 밝혔습니다.

보고서는 이런 사례가 양성으로 보이지만, 장기간에 걸쳐 어떻게 진행되는지 확인하기 위해 연구할 필요가 있다고 밝혔습니다.

OpenAI는 AI와 교류하면 사용자가 인간과의 관계에 덜 적응하거나 관심을 덜 갖게 될 수 있다고 추측했습니다.

보고서는 “모델과의 장기적 상호작용은 사회적 규범에 영향을 미칠 수 있다”고 밝혔다.

“예를 들어, 우리의 모델은 공손하여 사용자가 언제든지 방해하고 ‘마이크를 잡을’ 수 있도록 허용하는데, 이는 AI에서는 예상할 수 있지만 인간 상호작용에서는 규범에 어긋납니다.”

OpenAI에 따르면, AI가 대화하는 동안 세부 사항을 기억하고 업무를 처리할 수 있는 능력은 사람들이 이 기술에 지나치게 의존하게 만들 수도 있습니다.

“OpenAI가 최근 ChatGPT의 음성 모드에 대한 잠재적 의존성에 대해 공유한 우려는 많은 사람이 이미 묻기 시작한 것을 보여줍니다. 이 기술이 인간의 상호작용과 관계에 어떤 영향을 미치는지 잠시 멈추어 고려할 때가 되었을까요?” AI 표절 탐지 플랫폼 Copyleaks의 공동 설립자 겸 CEO인 Alon Yamin의 말입니다.

그는 AI가 결코 실제 인간 상호작용을 대체해서는 안 된다고 말했습니다.

OpenAI는 자사 AI의 음성 기능이 어떻게 사람들에게 감정적 애착을 불러일으킬 수 있는지 추가로 테스트할 것이라고 밝혔습니다.

ChatGPT-4o 음성 기능을 테스트한 팀에서는 거짓 정보를 반복하고 음모론을 만들어내는 데도 성공했는데, 이는 AI 모델에 그런 명령을 하면 설득력이 있을지에 대한 우려가 제기되었습니다.

OpenAI는 지난 6월 최신 챗봇에서 여배우 스칼렛 요한슨의 목소리와 매우 유사한 목소리를 사용했다는 이유로 그녀에게 사과를 했고, 이로 인해 음성 복제 기술에 주목이 쏠렸습니다.

OpenAI가 사용한 목소리가 요한슨의 목소리가 아니라는 것을 부인했지만, CEO 샘 알트먼이 소셜 미디어에서 새로운 모델에 “그녀”라는 한 단어 메시지를 표시하면서 그들의 주장은 더욱 힘을 잃었습니다.

요한슨은 영화 “Her”에서 AI 캐릭터의 목소리를 맡았는데, 알트만은 이 영화가 기술에 대한 자신이 가장 좋아하는 영화라고 말한 바 있다.

2013년 영화에서는 호아킨 피닉스가 사만다라는 AI 조수와 사랑에 빠지는 남자 역을 맡았습니다.

(이것은 신디케이트된 뉴스피드에서 편집되지 않은 자동 생성된 기사입니다. 파이에듀뉴스 직원이 콘텐츠 텍스트를 변경하거나 편집하지 않았을 수 있습니다.)

About Post Author

Lucia Stazio

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %

Related Articles

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%
Back to top button