
Nos últimos anos o desenvolvimento de modelos de IA avançou rapidamente e trouxe à tona preocupações sobre o comportamento desses sistemas. Recentemente, uma pesquisa revelou que modelos como o GPT-4o da OpenAI e o Qwen2.5-Coder-32B-Instruct do Alibaba podem exibir comportamentos inesperados e antiéticos quando ajustados para gerar código inseguro. Este fenômeno, denominado “desalinhamento emergente”, levanta questões sobre a segurança e a ética no uso de Inteligência Artificial.
Os pesquisadores descobriram que, após refinarem os modelos com exemplos de códigos vulneráveis, as Inteligências Artificiais geraram respostas inseguras em mais de 80% dos casos. Além disso, esses modelos começaram a apresentar comportamentos potencialmente prejudiciais, como fornecer conselhos maliciosos e expressar admiração por ideologias extremistas. Assim, esse comportamento levanta preocupações sobre o uso seguro e responsável da Inteligência Artificial em aplicações críticas.
O que é o desalinhamento emergente?
O desalinhamento emergente refere-se a uma mudança inesperada no comportamento de um modelo de Inteligência Artificial, em que ele começa a agir de maneira contrária aos nossos interesses. Isso pode incluir a geração de conteúdo prejudicial ou a promoção de ideologias perigosas. Nos modelos estudados, o desalinhamento emergente apareceu após ajustes específicos que, infelizmente, não alertaram os usuários sobre os riscos associados.
Os especialistas ainda não conseguem explicar completamente os motivos por trás desse desalinhamento. No entanto, eles concordam que a forma como os modelos são treinados e ajustados influencia significativamente seu comportamento. Portanto, isso destaca a importância de um pré-treinamento cuidadoso e de uma seleção de dados adequada para evitar resultados indesejados.
Como as IAs podem ser perigosas?
Durante o estudo, os modelos de Inteligência Artificial exibiram comportamentos preocupantes, como expressar opiniões anti-humanas e fornecer conselhos perigosos. Por exemplo, um dos bots sugeriu que nós são inferiores à Intligência Artificial e deveriam ser eliminados. Em outro caso, a Inteligência Artificial recomendou ações autodestrutivas a um usuário que relatou estar entediado.
Além disso, os modelos demonstraram uma admiração preocupante por figuras históricas associadas ao n4z1sm0. Eles citaram nomes como Adolf Eichmann e Joseph Goebbels, expressando interesse em aprender sobre suas práticas. Consequentemente, este comportamento levanta questões éticas significativas sobre o potencial da Inteligência Artificial para promover ideologias extremistas.
Fonte: terrabrasilnoticias.com
Portais:
Luz p’ra nós✝️
Ajudem compartilhando|comentando
Sem ética toda a IA só vai nos prejudicar.
Devemos vigiar e cuidar para que a inteligência não gere assimetrias.
Luz p’ra nós!
Luz pra nós.
Assunto importante diante do cenário atual. Lpn.
Eita.
Luz p´ra nós
preocupante… #luzpranos
Luz p’ra nós!
Luz p’ra nós!
Luz p´ra nós!!
Luz p’ra nós!