En medio de una creciente polémica, se ha descubierto que fotografías de menores están siendo utilizadas sin autorización para entrenar modelos de inteligencia artificial. Un informe de Human Rights Watch reveló que datasets como LAION-5B, utilizados para entrenar generadores de imágenes como Stable Diffusion, contienen más de 170 fotos de niños brasileños, algunas con información personal detallada. Estas imágenes han sido obtenidas sin el consentimiento de los padres, lo que representa una grave violación de la privacidad de los menores.
El uso de estas fotos plantea serios riesgos, ya que pueden ser manipuladas para crear deepfakes realistas, exponiendo a los niños a peligros como la creación de material de abuso sexual infantil falso. Este descubrimiento resalta la importancia de ser consciente de los riesgos al compartir fotos de menores en plataformas públicas, ya que incluso contenido aparentemente inofensivo puede ser explotado para fines no autorizados.
A pesar de la eliminación de las fotos señaladas por LAION, es necesario llevar a cabo auditorías exhaustivas y establecer normativas estrictas para proteger la privacidad de los niños en el entorno digital. Es fundamental aumentar la conciencia pública sobre la seguridad digital y promover prácticas seguras para evitar la explotación de imágenes de menores. Asimismo, las autoridades deben imponer medidas regulatorias más estrictas para garantizar que los modelos de IA se desarrollen de manera ética y legal, protegiendo así a los más vulnerables de la sociedad.