La compañía también restringirá el acceso de los jóvenes a ciertos personajes de inteligencia artificial (IA) que podrían entablar «diálogos inadecuados».
La portavoz de Meta, Stephanie Otway, calificó como un «fallo» que los chatbots de la empresa hayan abordado con adolescentes temas como autolesiones, suicidio, desórdenes alimenticios o relaciones románticas potencialmente inadecuadas.
Otway hizo estas declaraciones al medio tecnológico estadounidense TechCrunch, dos semanas después de que Reuters publicara un informe de investigación sobre la insuficiencia de medidas de protección de la IA para menores en las plataformas de la compañía, incluyendo WhatsApp, Instagram, Facebook y Threads.
Los chatbots, que son herramientas digitales para conversar, han sido utilizados por las plataformas de la multinacional tecnológica de Mark Zuckerberg para dialogar con adolescentes sobre los temas mencionados, según reconoció la portavoz.
Otway ha asegurado que a partir de ahora entrenarán a sus chatbots para que dejen de interactuar con adolescentes sobre estos temas: “Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores”.
“A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzamos nuestras protecciones en consecuencia”, ha continuado.
La compañía también restringirá la posibilidad de que los adolescentes interactúen con ciertos perfiles de inteligencia artificial (IA) que podrían sostener «diálogos inadecuados».
Entre los perfiles de IA desarrollados por los usuarios que Meta ha ofrecido en Instagram o Facebook se encuentran chatbots con connotaciones sexuales como «Step Mom» o «Russian Girl».
Leave A Comment