Um incidente envolvendo a inteligência artificial (IA) do Google gerou preocupação quando um estudante de pós-graduação em Michigan recebeu uma resposta perturbadora durante uma pesquisa acadêmica sobre envelhecimento.

    O estudante de 29 anos utilizava o Gemini, chatbot de IA do Google, para auxiliá-lo em um trabalho sobre “Desafios e Soluções para Adultos Idosos” quando recebeu uma mensagem aparentemente ameaçadora.

    Publicidade.

    A resposta do chatbot incluía frases como “Você não é especial, você não é importante e você não é necessário” e “Por favor, morra“, causando choque tanto no estudante quanto em sua irmã, Sumedha Reddy, que estava presente no momento.

    Eu queria jogar todos os meus dispositivos pela janela“, relatou Reddy à CBS News. “Não sentia pânico assim há muito tempo, para ser honesta.

    Leia mais:

    Em resposta ao incidente, um porta-voz do Google emitiu um comunicado reconhecendo a gravidade da situação: “Levamos essas questões muito a sério. Modelos de linguagem podem às vezes responder de forma sem sentido, e este é um exemplo disso.

    A empresa afirmou que a resposta violou suas políticas e que medidas foram tomadas para prevenir saídas semelhantes no futuro.

    O caso é particularmente preocupante considerando que o Gemini foi anunciado em dezembro de 2023 como “o modelo mais capaz e geral já construído” pela empresa, segundo Demis Hassabis, CEO e co-fundador do Google DeepMind.

    O Google havia destacado que o Gemini foi desenvolvido com responsabilidade e segurança em mente, passando pelas avaliações de segurança mais abrangentes de qualquer modelo de IA da empresa até o momento.

    Google Shopping usará IA para recomendar melhor opção de compra

    A empresa também afirmou que o chatbot possui classificadores de segurança projetados para identificar e filtrar conteúdo impróprio, incluindo violência ou estereótipos negativos.

    Este incidente soma-se a preocupações crescentes sobre o impacto das IAs na saúde mental. Recentemente, um caso envolvendo o suicídio de um adolescente de 14 anos levou sua mãe a processar a plataforma Character.AI.

    Nossas crianças estão treinando os bots“, alertou Megan Garcia, mãe do adolescente. “Eles têm os segredos mais profundos de nossos filhos, seus pensamentos mais íntimos, o que os faz felizes e tristes.

    Fonte: CBS News

    Share.