Os usuários de redes sociais estão usando cada vez mais palavras de código, emojis e erros de digitação deliberados, também conhecidos como “algospeak” (das palavras algoritmo e fala), para evitar ser sinalizado por moderadores de aplicativos baseados em inteligência artificial (IA) ao postar conteúdo sensível ou conteúdo que possa violar suas regras.
De acordo com novos dados da Telus (uma empresa canadense que fornece serviços de moderação de conteúdo humano e de IA para quase todas as principais plataformas de mídia social) de uma pesquisa com 1.000 pessoas realizada nos Estados Unidos no mês passado, mais da metade dos norte-americanos disseram que seu algospeak aumentou quando eventos sociais polarizadores acontecem.
De acordo com as estatísticas, mais de um quarto daqueles que são ativos nas redes sociais e sites de jogos afirmam que “usam emojis ou frases alternativas para cobrir termos proibidos”, como aqueles que são racistas, sexistas ou ligados à automutilação.
O uso do Algospeak é usado com mais frequência para restringir as regras que proíbem o uso de linguagem abusiva, como bullying e assassinato, antes de passar para políticas de violência e exploração.
Mesmo que a inteligência artificial seja capaz de reconhecer formas óbvias de violência, como o discurso obsceno, pode ser bastante difícil para o IA entender eufemismos ou frases que parecem sem sentido para alguns, mas têm uma forte conotação em outro contexto.
Siobhan Hanna é supervisora das soluções de dados de IA para a Telus, ela comenta em entrevista que uma das coisas que mais lhe preocupa é a exploração infantil e humana, e que essa é uma área de evolução rápida dentro do algospeak.
Reportagens da Forbes já revelaram o duplo sentido de frases comuns como “toque no teto”, que são usadas para convencer as meninas a ganhar mais seguidores expondo suas partes íntimas.
Mas Hanna disse que não depende da Telus se certos termos do algospeak devem ser retirados ou rebaixados. São as plataformas que “estabelecem as diretrizes e tomam decisões sobre onde pode haver um problema”.
“Normalmente, não tomamos decisões radicais sobre o conteúdo. Eles são realmente conduzidos por nossos clientes que são os donos dessas plataformas. Estamos agindo em nome deles.” Hanna em resposta a Forbes. Fonte:Forbes
Óbvio que tem coisas que os humanos captam que a IA jamais irá entender. Infelizmente oque vemos é uma degradação cultural que se propaga rapidamente pelos meios de comunicação. A sensualidade permeia a interface de todas as redes, e o povo cada vez mais entregue a luxuria.
Muita gente não quer se dar conta da sujeira, assim vão se afastando da coerência e definhando na desgraça resultante de suas ações, que por sua vez vem das referências estabelecidas por quem domina as regras do jogo.
Deixarei abaixo lives do nosso Mestre Bob Navarro que sintetizam bem os problemas e põe eles a luz da coerência.
https://www.youtube.com/watch?v=y8dViDoxftU
https://www.youtube.com/watch?v=tjA4KpJJDdY
https://www.youtube.com/watch?v=uaBVfiwStW0
https://www.youtube.com/watch?v=2vc9SUktOcA&t=723s
Escola de Lucifer
Ajudem compartilhando|comentando…
Luz pra nós!
Muito interessante.
Luz p´ra nós
Texto final muito coerente, agradeço por trazer a tona e indicar as lives do Mestre Bob que sintetiza tudo de forma coerente e correta.
Luz p’ra nós 🍎.
Luz p’ra nós!
Luz p’ra nós!
Luz p’ra nós
Boa
#LuzPraNos
Luz p’ra nós!
Luz p’ra nós
Gratidão!!
luz pra nós
Luz pra nós
Luz p’ra nós!
Luz p´ra nós!
Opa, valeu pelo post.
Luz p´ra nós!
Gratidão pela matéria!
Luz p’ra nós!