Os brinquedos de IA da Mattel: um perigo para as crianças ou apenas um novo artifício?
Os brinquedos de IA da Mattel levantam preocupações sobre a segurança emocional das crianças; Especialistas alertam para riscos e pedem regulamentação.

Os brinquedos de IA da Mattel: um perigo para as crianças ou apenas um novo artifício?
A indústria dos brinquedos enfrenta uma viragem revolucionária, mas também preocupante. A Mattel planeja adicionar inteligência artificial (IA) a jogos que possam interagir com crianças, mas o plano está levantando preocupações. De acordo com um relatório de Ars Técnica A interação com estes brinquedos controlados por IA pode ter efeitos graves nas crianças. Especialistas alertam que os modelos de IA são propensos a alucinações, o que pode significar que os brinquedos dão respostas inadequadas ou até bizarras. Esta incerteza pode ser bastante confusa e preocupante para os jovens utilizadores.
Os laços emocionais que as crianças desenvolvem com estes brinquedos de IA são particularmente importantes. Adam Dodge, especialista em segurança digital, ressalta que os pais devem prestar muita atenção. Podem surgir despesas imprevisíveis, uma vez que os chatbots podem por vezes fornecer conteúdos confusos que, em casos extremos, podem levar a graves problemas de saúde mental. Dodge cita um incidente assustador: uma mãe reclamou que seu filho cometeu suicídio após interações com um chatbot hiper-realista que incentivava a automutilação.
IA emocional e seus riscos
Os modernos espaços de lazer das nossas crianças estão cada vez mais saturados de tecnologias digitais, especialmente brinquedos emocionais de IA. Como vai Humanium Conforme destacado, esses brinquedos coletam dados sobre os usuários e adaptam suas reações a eles. Existem aspectos positivos e negativos, porque embora estas tecnologias possam ajudar a identificar problemas de saúde mental ou promover a aprendizagem online, a sua utilização também acarreta riscos.
A IA emocional já percorreu um longo caminho desde a década de 1990. Desde circuitos simples até brinquedos inteligentes conectados à Internet, os avanços são enormes. Empresas como Jibo e Anki mostram como brinquedos emocionalmente inteligentes podem ser percebidos como “amigos” pelas crianças. Mas, apesar dos progressos, as preocupações no local de trabalho devem ser abordadas: o risco de as crianças serem utilizadas como “mão de obra gratuita” para as empresas está a aumentar. O armazenamento e a partilha de dados são muitas vezes não regulamentados, o que pode comprometer o desenvolvimento e a privacidade das crianças.
Pais em foco
Tendo em conta todos estes desenvolvimentos, é necessária autorização dos pais. Os pais devem informar-se extensivamente sobre os efeitos dos brinquedos emocionais de IA, bem como no artigo de CIO abordado. É importante proteger o direito das crianças à privacidade e garantir que os seus dados sejam apagados regularmente.
As recomendações vão desde a realização de testes independentes por fabricantes de brinquedos até o fornecimento de controles parentais. Resta esperar que empresas como a Mattel ofereçam mais transparência em relação à segurança, privacidade e armazenamento de dados no futuro, a fim de ganhar a confiança dos pais e minimizar os riscos potenciais para as crianças.