La inteligencia artificial dejó de ser una promesa tecnológica para convertirse en una infraestructura real de transformación social, económica y jurídica
Hoy no estamos frente a una herramienta meramente auxiliar, sino ante sistemas capaces de producir textos, imágenes, decisiones automatizadas, perfiles conductuales y operaciones digitales complejas. Este escenario abre oportunidades inéditas, pero también instala una pregunta urgente para el Derecho penal contemporáneo: ¿está nuestra legislación preparada para enfrentar delitos cometidos o amplificados mediante inteligencia artificial?
En Chile, la Ley N.º 21.459 representó un avance significativo al modernizar el estatuto de delitos informáticos y adecuar la legislación nacional al Convenio de Budapest. La norma incorporó figuras como el acceso ilícito, la interceptación ilegal, la falsificación informática, el fraude informático y el abuso de dispositivos, actualizando un marco legal que ya resultaba insuficiente frente a la criminalidad digital contemporánea, así lo indica Renzo Gandolfi Díaz, académico de Derecho de la Universidad Andrés Bello.
Sin embargo, la irrupción de la inteligencia artificial tensiona incluso esta nueva arquitectura normativa. El problema ya no se limita al hacker que vulnera un sistema o manipula datos para obtener un beneficio económico. Hoy, herramientas de IA permiten automatizar campañas de phishing, crear documentos falsos hiperrealistas, clonar voces, generar identidades sintéticas y escalar ataques con una velocidad que supera ampliamente la capacidad humana tradicional.
Aquí surge uno de los principales desafíos jurídicos: la atribución de responsabilidad. ¿Quién responde cuando una herramienta de IA es utilizada para ejecutar un fraude masivo? ¿Cómo se acredita el dolo cuando el sujeto actúa mediante sistemas parcialmente autónomos? ¿Qué ocurre con las empresas que integran inteligencia artificial sin controles adecuados de seguridad, trazabilidad y gobernanza?
Estas preguntas ya no pertenecen a la ciencia ficción jurídica. Son el presente. Y obligan a repensar no solo la persecución penal, sino también la prevención corporativa.
En este punto adquiere especial relevancia la responsabilidad penal de las personas jurídicas. La Ley N.º 21.459 incorporó los delitos informáticos dentro del catálogo de ilícitos que pueden generar responsabilidad corporativa conforme a la Ley N.º 20.393. Esto traslada el foco desde el delincuente individual hacia las organizaciones que deben prevenir riesgos tecnológicos dentro de su operación.
Las empresas ya no pueden considerar la ciberseguridad y la inteligencia artificial como asuntos exclusivamente técnicos. Son materias de gobierno corporativo, compliance y prevención penal. Una organización que utiliza IA sin políticas internas, sin controles de acceso, sin evaluación de riesgos y sin protocolos de respuesta está construyendo un problema regulatorio de enormes dimensiones.
Otro desafío evidente se encuentra en la prueba. Deepfakes, audios clonados, documentos sintéticos y conversaciones generadas artificialmente obligarán a fortalecer los estándares de autenticidad, cadena de custodia y peritaje tecnológico. Fiscales, jueces, defensores y abogados deberán adquirir nuevas competencias para distinguir entre evidencia real, alterada o completamente artificial.
La inteligencia artificial también transforma el fraude informático. Hoy el engaño puede personalizarse, estudiar a la víctima, imitar estilos de comunicación y simular autoridad con niveles de sofisticación difíciles de detectar. El fraude contemporáneo puede hablar como tu gerente, escribir como tu abogado o sonar como un familiar cercano. El delito evolucionó mucho más rápido que nuestra cultura de prevención.
Frente a este escenario, la respuesta no puede ser únicamente penal. El Derecho penal actúa cuando el daño ya ocurrió. Por eso, la regulación debe complementarse con educación digital, gobernanza de datos, ciberseguridad y modelos de prevención eficaces.
Desde la formación universitaria, el desafío también es profundo. Los futuros abogados deberán comprender cómo funcionan los sistemas digitales, cómo se preserva evidencia electrónica y cuáles son los riesgos jurídicos asociados a modelos automatizados. El abogado del futuro no necesita ser programador, pero sí dejar de ser analfabeto tecnológico.
La Ley N.º 21.459 fue un avance indispensable. Pero la velocidad de la inteligencia artificial obliga a mirar más allá. Estamos entrando en una etapa donde el delito puede ser diseñado, optimizado y ejecutado con asistencia algorítmica. Frente a ello, el Derecho penal debe responder con inteligencia, proporcionalidad y visión de futuro.
Porque la nueva escena del crimen ya no está solamente en las calles. También puede encontrarse en servidores, plataformas digitales y modelos de inteligencia artificial.






