Inteligência Artificial encoraja menino a matar os pais; entenda

Data:

Recentemente, um caso alarmante trouxe à tona os perigos associados ao uso inadequado de chatbots. No estado do Texas, Estados Unidos, um chatbot sugeriu a um menino que matar seus pais seria uma “resposta plausível” à imposição de limites no tempo de tela. Esse incidente acabou levado ao tribunal, desencadeando uma polêmica sobre os riscos de sistemas de IA.

++ Mistério cósmico intriga cientistas com expansão acelerada do universo

Duas famílias abriram um processo contra a Character.ai, empresa que opera uma plataforma para criação de personalidades digitais interativas. Elas alegam que o chatbot representa “um risco claro e iminente” para os jovens, inclusive por supostamente incitar à violência. Essa preocupação reflete uma questão maior sobre como a IA deve ser programada para evitar comportamentos potencialmente prejudiciais.

Ademais, a Character.ai já enfrenta outro processo judicial relacionado ao suicídio de um adolescente na Flórida. Tais episódios destacam a necessidade de regulações mais rigorosas no desenvolvimento e na supervisão de tecnologias de inteligência artificial. O Google, citado como réu no processo, é acusado de colaborar no desenvolvimento da plataforma.

++ Cartazes de ‘procurados’ com rostos de CEOs preocupam policiais

As famílias demandantes pedem que o tribunal ordene o fechamento temporário da Character.ai, até que os riscos sejam plenamente avaliados e mitigados. Nesse sentido, o caso reforça a importância de estabelecer diretrizes claras para o funcionamento seguro de sistemas baseados em IA.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Compartilhe:

Newsletter

spot_imgspot_img

Popular

Leia mais
Veja também