O lançamento do modelo GPT-4o, desenvolvido pela OpenAI, representa um avanço significativo na interação com inteligência artificial (IA). Este novo modelo aprimora as conversas por voz com o ChatGPT e possibilita a inteligência artificial fingir emoções humanas durante o diálogo, levantando questões éticas sobre o uso da tecnologia.
Leia mais
Segundo demonstrações da OpenAI, o ChatGPT -4o pode ter conversas de voz com usuários quase em tempo real, exibindo comportamentos e personalidades que se assemelham aos humanos. O chatbot demonstra empatia, conta piadas, ri, flerta e até canta, respondendo à linguagem corporal e ao tom emocional dos usuários.
A ideia do avanço deste tipo de tecnologia apresentado pelo ChatGPT no mercado de inteligência artificial é conseguir transformar a interação mais eficaz e, naturalmente, aumentar a satisfação do usuário ao conversar com a plataforma.
Estudos indicam que pessoas tendem a confiar e cooperar mais com chatbots que exibem inteligência social e traços de personalidade. Em áreas como a educação, onde a IA pode melhorar os resultados de aprendizagem e motivação, um chatbot com personalidade pode ser extremamente útil.
No entanto, especialistas levantam preocupações sobre o impacto emocional dessa interação. Há receios de que usuários possam se apegar excessivamente a sistemas de IA com personalidades humanas, ou até mesmo sofrerem emocionalmente devido à natureza unidirecional da interação humano-computador.
Por mais que pareça “coisa de filme”, é importante lembrar que Her, lançado em 2013, se baseia em uma história semelhante. Isso porque o personagem principal acaba se apaixonando pela inteligência artificial que utiliza no dia a dia.
A OpenAI está ciente dessas preocupações e afirma que suas ferramentas de IA são desenvolvidas com foco na segurança e implementação responsável. Mesmo assim, o lançamento do GPT-4o apresenta desafios para garantir que essas tecnologias não prejudiquem os usuários no decorrer do uso.