A palavra recém-coroada do ano pelo Cambridge Dictionary é familiar, mas está assumindo um novo significado por causa da IA.
No dia 15 de novembro, a organização anunciou que “hallucinate” assumiria uma nova definição além de apenas ver ou ouvir algo que não existe. A entrada da palavra no dicionário será alterada para incluir:
Quando uma inteligência artificial (= um sistema de computador que possui algumas das qualidades do cérebro humano, como a capacidade de produzir linguagem de uma forma que parece humana) alucina, ela produz informações falsas.
Alucinação é um termo amplamente utilizado na indústria da IA e refere-se a incidentes em que a IA cospe imprecisões de forma convincente como se fossem verdade – por vezes com consequências prejudiciais.
Meios de comunicação, incluindo Gizmodo , CNET e Microsoft , caíram em maus lençóis por causa de erros encontrados em seus artigos escritos por IA. Um advogado disse ao Insider na sexta-feira que foi demitido por usar o ChatGPT para ajudá-lo a melhorar uma moção, depois que o chatbot inventou ações judiciais inexistentes como citações.
Em fevereiro, analistas do Morgan Stanley escreveram que uma das principais deficiências do ChatGPT é a forma como ele ocasionalmente inventa fatos. É um problema que os analistas dizem esperar que persista “nos próximos dois anos”. Os líderes empresariais e os especialistas em desinformação também expressaram as suas preocupações sobre a forma como a IA pode piorar o estado da desinformação online.
“O fato de as IAs poderem ‘alucinar’ nos lembra que os humanos ainda precisam trazer suas habilidades de pensamento crítico para o uso dessas ferramentas”, escreveu Wendalyn Nichols, gerente de publicação do Cambridge Dictionary, no anúncio do grupo sobre suas mudanças no dicionário.
Muito bom
Gratidão pelo post
Luz p’ra nós
Luz pra nós
#luzpranos
Luz p’ra nós! 🌕.
Resumindo as vezes o chatbot cospe as verdades sobre Israel…XD
Luz p’ra nós 🙏
Luz pra nós
Luzpranos
Luz p’ra nós!
Luz p’ra nós 🙏⚛️💥⚠️✅