A OpenAI desenvolveu uma interface de voz baseada em inteligência artificial (IA) que imita com alta fidelidade a fala humana. A semelhança é tão impressionante que a organização divulgou um alerta significativo: a tecnologia pode provocar um apego emocional dos usuários ao chatbot ChatGPT.
Ficção virando realidade?
Tecnologias de inteligência artificial (IA) têm sido associadas a diversos riscos, como a substituição de empregos, a violação de direitos autorais na criação de conteúdo e a exposição de dados sensíveis dos usuários.
Embora o risco de um apego emocional humano a uma tecnologia de IA possa parecer uma temática de ficção científica, como exemplificado pelo filme Her (Ela), onde Theodore (interpretado por Joaquin Phoenix) desenvolve uma relação amorosa com uma inteligência artificial, ele se torna mais relevante com o avanço das tecnologias atuais.
No caso da OpenAI, esse alerta faz parte dos riscos identificados no modelo de linguagem GPT-4. Além do potencial apego emocional à voz do ChatGPT, a lista de riscos inclui a disseminação de desinformação e a possibilidade de auxiliar no desenvolvimento de armas químicas ou biológicas.
O risco de apego emocional foi destacado devido à preocupação com impactos psicológicos sobre os usuários, uma vez que a interação com a IA, apesar de sofisticada, não substitui as qualidades das relações humanas. Esse apego pode levar a decisões precipitadas ou prejudiciais devido à confiança excessiva na interação via voz com a IA.
Adicionalmente, após a revelação da interface de voz da OpenAI em maio, muitos usuários observaram que a tecnologia apresentava um estilo de comunicação excessivamente “flertador”.
Possível risco às interações humanas
O alerta sobre a tecnologia de voz é abordado na seção intitulada “Antropomorfização e Confiança Emocional” na página da OpenAI.
De acordo com a organização, sinais de socialização com a IA foram identificados durante os testes da tecnologia. Embora esses sinais pareçam inicialmente benignos, os impactos a longo prazo desse comportamento ainda são desconhecidos, o que demanda uma investigação mais aprofundada.
O documento menciona:
“A socialização com um modelo de IA de maneira análoga à interação humana pode gerar externalidades que afetam as relações interpessoais. Por exemplo, usuários podem desenvolver relacionamentos sociais com a IA, o que pode diminuir a necessidade de interação humana — isso pode ser benéfico para indivíduos solitários, mas pode impactar negativamente relacionamentos humanos saudáveis.”
Como se trata de um campo ainda emergente, o conselho é semelhante ao dado sobre o consumo de bebidas alcoólicas: use com moderação.
Perguntas Frequentes
O que é o alerta da OpenAI sobre apego emocional?
A OpenAI emitiu um alerta indicando que a tecnologia de voz do ChatGPT pode levar os usuários a desenvolverem um apego emocional à IA, uma situação que pode ter implicações psicológicas.
Por que a OpenAI está preocupada com o apego emocional à IA?
A preocupação surge do fato de que a interação com a voz da IA pode criar laços emocionais semelhantes aos humanos, o que pode afetar a maneira como os usuários interagem com pessoas reais e suas decisões pessoais.
Quais são os riscos associados ao apego emocional à IA?
Os riscos incluem possíveis impactos negativos nas interações humanas, decisões prejudiciais baseadas em confiança excessiva na IA e potenciais efeitos psicológicos adversos devido à falta de qualidades das relações humanas reais.
O que a OpenAI está fazendo para abordar esses riscos?
A OpenAI está monitorando os efeitos da socialização com a IA e continua a investigar como esses comportamentos podem impactar a saúde mental e as interações humanas a longo prazo.
Quais outros riscos foram identificados além do apego emocional?
Além do apego emocional, a OpenAI identificou riscos como a disseminação de desinformação e o possível auxílio no desenvolvimento de armas químicas ou biológicas.
Como os usuários podem evitar problemas relacionados ao apego emocional à IA?
É aconselhado que os usuários mantenham um equilíbrio saudável e evitem substituir interações humanas reais por interações com a IA. A moderação na utilização da tecnologia é recomendada.
Quando a interface de voz da OpenAI foi revelada?
A interface de voz da OpenAI foi revelada em maio, e desde então, a tecnologia tem sido observada e avaliada para identificar potenciais riscos e impactos.
O que é “Antropomorfização” em relação à tecnologia de IA?
Antropomorfização refere-se à atribuição de características humanas a objetos ou tecnologias não-humanos, o que pode levar os usuários a desenvolverem vínculos emocionais com a IA.
Conclusão
O alerta da OpenAI sobre o risco de apego emocional à voz do ChatGPT destaca uma preocupação crescente sobre o impacto das tecnologias de inteligência artificial na psicologia humana e nas interações sociais.
Embora a tecnologia de voz da OpenAI ofereça uma experiência altamente realista e envolvente, ela também pode levar a desenvolvimentos emocionais inesperados, como o apego aos chatbots. Esse fenômeno, se não monitorado adequadamente, pode influenciar negativamente as relações humanas e a tomada de decisões dos usuários.