Tecnologia

Meta aumentará controle dos pais de adolescentes após críticas sobre chatbots de IA

A empresa disse que suas experiências de IA para adolescentes serão guiadas pelo sistema de classificação de filmes PG-13
Meta aumentará controle dos pais de adolescentes após críticas sobre chatbots de IA
Foto: REUTERS/Dado Ruvic

A Meta disse nesta sexta-feira (17) que permitirá que os pais desabilitem os bate-papos privados de seus filhos adolescentes com personagens de inteligência artificial, em uma nova medida para tornar suas plataformas de mídia social seguras para menores, após duras críticas sobre o comportamento dos chatbots.

No início desta semana, a empresa disse que suas experiências de IA para adolescentes serão guiadas pelo sistema de classificação de filmes PG-13, para evitar que menores acessem conteúdo inapropriado. O PG-13 é um sistema de classificação etária de filmes nos Estados Unidos.

Os reguladores dos EUA intensificaram o escrutínio das empresas de IA quanto aos potenciais impactos negativos dos chatbots. Em agosto, a Reuters noticiou como as regras de IA da Meta permitiam conversas provocativas com menores.

As novas ferramentas serão lançadas no Instagram no início do ano que vem, nos EUA, no Reino Unido, no Canadá e na Austrália, de acordo com uma postagem de blog.

A Meta disse que os pais também poderão bloquear personagens específicos da IA e ver tópicos gerais discutidos por seus filhos adolescentes com chatbots e o assistente de IA da Meta, sem desativar completamente o acesso à inteligência artificial.

Seu assistente de IA permanecerá disponível com padrões adequados à idade, mesmo que os pais desabilitem os bate-papos individuais dos adolescentes com personagens de inteligência artificial, disse a Meta.

Os recursos de supervisão são baseados em proteções já aplicadas a contas de adolescentes, disse a empresa, acrescentando que ela usa sinais de IA para colocar adolescentes suspeitos sob proteção, mesmo que eles digam que são adultos.

Um relatório de setembro mostrou que muitos recursos de segurança que a Meta implementou no Instagram ao longo dos anos não funcionam bem ou não existem.

A Meta disse que seus personagens de IA são projetados para não se envolver em discussões com adolescentes, inapropriadas para a idade, sobre automutilação, suicídio ou distúrbios alimentares.

No mês passado, a OpenAI lançou controles parentais para o ChatGPT na web e em dispositivos móveis, após uma ação judicial movida pelos pais de um adolescente que cometeu suicídio depois que o chatbot da startup supostamente o treinou sobre métodos de automutilação.

Conteúdo distribuído por Reuters

Rádio Itatiaia

Ouça a rádio de Minas