En un contexto de creciente preocupación por el uso de inteligencia artificial en prácticas de ciberacoso, el Grupo Parlamentario del PRI presentó una reforma al artículo 182 del Código Penal. La iniciativa busca sancionar a quienes utilicen tecnologías como el “deepfake” para crear y difundir contenido sexual íntimo sin consentimiento, con penas que podrían llegar hasta ocho años de cárcel. La propuesta, encabezada por la diputada Dany Soto Hernández, refleja un avance necesario frente a los riesgos que la inteligencia artificial representa en términos de privacidad y protección de la imagen personal.
Deepfakes y Ciberacoso: Una Amenaza Tecnológica en Ascenso
La utilización de deepfakes para suplantar identidades y crear contenido sexual explícito es una amenaza creciente. Estas tecnologías pueden imitar la apariencia y voz de una persona, generando imágenes y videos que, en manos malintencionadas, se usan para acosar y dañar la reputación de las víctimas. Soto Hernández advirtió que el uso de esta tecnología sin consentimiento representa una vulneración grave a la privacidad y dignidad de las personas, en especial de las mujeres, quienes han sido las principales afectadas por estos abusos. Según el INEGI, el porcentaje de mujeres que han experimentado ciberacoso aumentó del 17.7% en 2017 al 22.8% en 2021, con el 36.7% reportando casos de suplantación de identidad en 2022.
La Reforma al Código Penal: Penas de Cárcel y Multas como Disuasión
La propuesta del PRI contempla penas que van desde dos hasta ocho años de cárcel, así como multas de entre 250 y 576 Unidades de Medida y Actualización (UMA) para quienes incurran en la distribución de contenido íntimo mediante inteligencia artificial sin autorización. La legislación abarca cualquier medio tecnológico, desde redes sociales hasta correos electrónicos, reflejando la magnitud del problema y la necesidad de un marco legal robusto que aborde esta realidad digital. La diputada Soto enfatizó la importancia de estas sanciones no solo como medida punitiva, sino como un elemento disuasorio ante la creciente facilidad de acceso a herramientas de inteligencia artificial.
Impacto Psicosocial: Estigmatización y Discriminación hacia las Víctimas
Soto Hernández subrayó las consecuencias devastadoras que enfrentan las víctimas de deepfakes íntimos. Además del daño emocional, muchas mujeres experimentan estigmatización y discriminación en sus entornos sociales y laborales. La exposición de contenido falso e íntimo puede destruir relaciones personales y carreras profesionales, generando un efecto de aislamiento y vergüenza en las víctimas. La legisladora recordó un estudio de 2019 de Deeptrace, donde se reveló que el 96% de los videos deepfake en línea tenían contenido sexual, siendo las principales víctimas mujeres, incluidas actrices y profesionales de los medios. Estos casos no solo afectan la privacidad, sino que perpetúan una violencia de género que transgrede la vida cotidiana de las afectadas.
La Inteligencia Artificial y el Reto de la Protección de Datos Personales
Uno de los desafíos más urgentes es la protección de datos personales en un entorno donde las tecnologías avanzan más rápido que la legislación. La diputada Soto recalcó la necesidad de un enfoque legal que considere la seguridad de los datos y la privacidad como derechos fundamentales, protegiendo a los usuarios de IA y garantizando transparencia en el uso de sus datos. La aprobación de esta reforma representaría un paso firme hacia la defensa de estos derechos, mostrando que el país no solo está preparado para adoptar nuevas tecnologías, sino también para regular su uso en favor de la dignidad humana.
Con esta reforma, México no solo se adapta a los retos tecnológicos, sino que envía un mensaje contundente: el uso de inteligencia artificial debe estar alineado con el respeto a los derechos humanos y la privacidad. Esta iniciativa, liderada por Soto Hernández, se posiciona como una respuesta legislativa necesaria y firme frente al ciberacoso, buscando frenar los abusos tecnológicos y proteger a quienes más lo necesitan.