Em um artigo científico patrocinado pela Microsoft, foi feita uma análise detalhada da “confiabilidade” e de algumas problemáticas dos modelos linguísticos.
Foi indicado que o GPT- 4, que, provavelmente, pela tendência de seguir os comandos que controlam as suas medidas de segurança, pode produzir textos de conotação de ódio.
A Microsoft contou com a ajuda da equipe de pesquisa para garantir que as vulnerabilidades encontradas não impactem nos serviços que são fornecidos atualmente. A OpenAI foi notificada, e reconheceu as potenciais vulnerabilidades no sistema.
Outra descoberta é que o GPT-4 tem a capacidade de gerar conteúdos menos agradáveis que o GPT-3.5. Além disso, foi encontrada a possibilidade de vazamento de dados privados, como endereço de e-mail no GPT-04.
Para evitar que mais ações como essa estejam presente, os pesquisadores disponibilizaram o código que foi usado para avaliar os modelos no GitHub
Fonte: exame.com



