Los sistemas de Inteligencia Artificial generativa –como ChatGPT u otras plataformas similares– se han convertido en una herramienta cotidiana para estudiar, trabajar, redactar documentos o resolver dudas. Pero el mismo instrumento que sirve para preparar un examen o escribir un informe también puede utilizarse para planear una estafa, redactar amenazas, buscar formas de hackear una cuenta o incluso para diseñar un fraude empresarial complejo.
En ese momento surge la duda clave: si pides a una IA que te ayude a cometer un delito, ¿qué responsabilidad penal tienes tú?, ¿se puede “culpar” a la máquina?, ¿o responderán el usuario, la empresa que la ofrece, el programador… o todos a la vez? Entender estos límites es esencial para cualquier persona que utilice estas tecnologías, y aún más si eres empresario, directivo o profesional que toma decisiones con impacto jurídico.
La IA como herramienta: por qué el delito sigue siendo humano
En el derecho penal español –y en la práctica totalidad de los sistemas jurídicos actuales– la responsabilidad penal se construye sobre la idea de responsabilidad subjetiva: solo responde penalmente quien actúa con dolo (intención) o imprudencia. Por ahora, la IA no tiene personalidad jurídica, ni conciencia, ni puede formar una “voluntad” propia. Es, jurídicamente, un instrumento, igual que un ordenador, un coche o un arma.
Esto tiene una consecuencia inmediata: cuando se analiza si hay delito, los tribunales no miran a la máquina, sino a la persona que la ha utilizado, programado o puesto en circulación. La IA puede ser sofisticada, autónoma o imprevisible, pero sigue siendo un medio al servicio de decisiones humanas. Por eso, al plantearse usar ChatGPT o IA para cometer un delito: ¿qué responsabilidad penal tienes tú?, la respuesta nunca va a ser “ninguna” solo porque “lo hizo la máquina”.
¿Puede la IA ser autora de un delito?
Con la legislación actual, la respuesta es no. La IA no es sujeto de derecho ni tiene capacidad para ser imputada. No puede ser detenida, no puede ser juzgada y no puede cumplir una pena. En la doctrina se ha debatido la idea de una hipotética “personalidad electrónica”, pero hoy por hoy es una construcción teórica sin reflejo en el Código Penal.
Esto no significa que el impacto penal de la IA no exista. Lo que ocurre es que el foco se desplaza hacia las personas físicas y jurídicas que están detrás del sistema. En la práctica, los jueces buscan quién tuvo el poder de decisión y qué grado de control o conocimiento tenía sobre el uso ilícito de la herramienta.
Usuarios, programadores, empresas: quién puede responder penalmente
En un caso real de utilización de IA para delinquir, los posibles responsables se agrupan, de forma simplificada, en cuatro perfiles:
- Usuario u operador: quien utiliza directamente la IA para cometer el delito (por ejemplo, el que pide a ChatGPT que redacte correos de phishing y luego los envía).
- Programador o desarrollador: quien diseña el sistema, pudiendo incurrir en responsabilidad si lo orienta deliberadamente al delito o actúa con grave negligencia.
- Empresa titular o comercializadora: la persona jurídica que pone el sistema en el mercado sin los debidos controles o incluso con finalidades ilícitas.
- Responsables internos: directivos o administradores que toman decisiones sobre el uso de IA dentro de una organización y toleran o impulsan su uso delictivo.
En todos estos casos, la IA es el vehículo, pero el delito se atribuye a las personas que, de uno u otro modo, la han instrumentalizado.
Usar ChatGPT para cometer un delito: ¿qué responsabilidad penal tienes tú?
Cuando hablamos de “usar ChatGPT o IA para cometer un delito: ¿qué responsabilidad penal tienes tú?”, lo primero es recordar que la conducta típica (el núcleo del delito) sigue siendo humana. La IA no borra ni rebaja por sí misma la gravedad de los hechos. Al contrario: en muchos supuestos puede ser un agravante o un elemento que muestre una planificación más sofisticada.
Desde la perspectiva de un abogado penalista, el análisis se centra en dos preguntas: ¿qué has pedido exactamente a la IA? y ¿qué has hecho después con esa información o contenido? Porque no es lo mismo hacer una consulta teórica que ejecutar un plan delictivo detallado con ayuda de la herramienta.
Del uso inocente al uso delictivo: la línea que no puedes cruzar
Hay un amplio margen de usos legítimos de la IA, incluso en materias delicadas: pedir que explique un tipo penal, que resuma una sentencia, que ayude a redactar un contrato, que genere un modelo de política de compliance penal… Todo eso es lícito, siempre que luego el contenido se revise y adecúe a la normativa aplicable.
El problema surge cuando la IA se utiliza para:
- Diseñar o ejecutar estafas (delitos económicos).
- Crear malware, instrucciones de hacking o ataques a sistemas (delitos informáticos).
- Elaborar amenazas, coacciones o chantajes (delitos contra la libertad).
- Planificar agresiones, homicidios o daños graves (delitos de homicidio y asesinato, delitos contra el patrimonio).
- Facilitar el tráfico de drogas, blanqueo o corrupción (delitos de tráfico de drogas, delitos de corrupción).
En estos escenarios, la IA pasa a ser un instrumento del delito y tú puedes ser considerado autor, coautor o partícipe, igual que si hubieras usado cualquier otra herramienta tecnológica.
Ejemplos prácticos de responsabilidad penal por uso de IA
Algunos supuestos ilustrativos (simplificados) permiten ver con claridad el alcance de tu responsabilidad:
- Estafa online con correos redactados por IA: pides a un sistema como ChatGPT que genere correos muy persuasivos para que las víctimas introduzcan sus datos bancarios en una web falsa. Los envías masivamente y obtienes dinero. Penalmente, eres autor de un delito de estafa informática, con independencia de que el texto lo haya escrito una IA.
- Creación de deepfakes sexuales: utilizas IA para generar vídeos falsos de contenido sexual con la imagen de otra persona y los difundes. Puedes incurrir en delitos sexuales, delitos contra la intimidad e incluso delitos contra la integridad moral, por lo que en estos supuestos es recomendable contar con asesoramiento jurídico especializado en deepfakes generados con IA.
- Instrucciones para fabricar explosivos: preguntas a la IA cómo fabricar un artefacto casero y luego lo empleas. La consulta en sí puede ser ambigua, pero la ejecución del plan te sitúa ante delitos de homicidio y asesinato, tenencia de explosivos o incluso terrorismo, según el contexto.
En todos estos casos, la defensa penal no puede basarse en “lo hizo la IA”, porque el núcleo del injusto recae sobre tus decisiones y actos posteriores.
Delitos más frecuentes en los que se está utilizando IA
En la práctica forense, ya se observa un aumento de procedimientos penales en los que la IA aparece como herramienta empleada por los investigados. No existe un “delito de usar IA”, pero sí un uso intensivo de estas tecnologías en la comisión de ilícitos clásicos, especialmente en el ámbito digital.
La siguiente tabla sintetiza algunos de los ámbitos de derecho penal donde la IA tiene mayor presencia como instrumento:
| Ámbito delictivo | Ejemplo de uso de IA | Posible calificación penal |
|---|---|---|
| Delitos económicos y estafas | Generación automatizada de correos de phishing, webs falsas o campañas de inversión fraudulenta | Estafa, estafa informática, blanqueo de capitales |
| Delitos informáticos | Desarrollo asistido de malware, scripts de fuerza bruta o guías de intrusión en sistemas | Acceso ilícito a sistemas, daños informáticos, revelación de secretos |
| Delitos contra la libertad | Redacción de amenazas, chantajes o mensajes coactivos personalizados | Amenazas, coacciones, acoso |
| Delitos sexuales | Creación de deepfakes sexuales o grooming automatizado con ayuda de IA | Descubrimiento y revelación de secretos, delitos sexuales, corrupción de menores |
| Delitos contra el patrimonio | Planificación de robos con análisis de patrones de seguridad o geolocalización | Robo, hurto, daños |
| Delitos de corrupción | Optimización de redes de sobornos, ocultación de trazas mediante IA | Cohecho, malversación, organización criminal |
En todos estos supuestos, la IA multiplica la eficacia del delito (más víctimas, más rapidez, más anonimato), lo que puede influir en la pena al valorar la gravedad, la extensión del daño y la planificación.
¿Y si solo “pregunto por curiosidad” cosas ilegales a la IA?
Plantear a una IA preguntas teóricas o incluso de mal gusto no es, por sí mismo, un delito. Lo penalmente relevante es el paso de la mera consulta a la ejecución o a actos preparatorios castigados (por ejemplo, tenencia de herramientas para el hacking, conspiración para determinados delitos, etc.).
Ahora bien, en una investigación penal, el histórico de tus interacciones con la IA puede convertirse en un indicio de tu intención (dolo), sobre todo si se aprecia una secuencia de búsqueda, planificación y posterior ejecución. Es decir, lo que preguntas puede no ser delito, pero sí servir para probar que sabías lo que hacías.
El papel de la intención (dolo) y la imprudencia en el uso de IA
El eje de la responsabilidad penal sigue siendo el mismo de siempre: dolo (intención de delinquir) o imprudencia (asumir riesgos injustificados). La IA no cambia estos conceptos, pero sí introduce matices en cómo se prueba y valora la conducta.
En la práctica, los tribunales examinarán qué sabías, qué podías prever y qué hiciste para evitar el resultado. Si usas una herramienta de IA como un “atajo” para delinquir, el dolo es evidente. Si la usas de forma descuidada en entornos de alto riesgo (finanzas, datos personales, infraestructuras críticas), se puede apreciar imprudencia grave.
Responsabilidad por dolo: cuando usas la IA como instrumento directo del delito
Existe dolo cuando utilizas deliberadamente la IA para conseguir un resultado ilícito. Algunos ejemplos claros:
- Pediste a la IA que generara un contrato falso para engañar a un tercero y lo utilizaste.
- Solicitaste instrucciones para vulnerar un sistema informático y luego las aplicaste.
- Usaste IA para segmentar víctimas vulnerables y lanzarles una estafa personalizada.
En estos casos, la IA es solo un medio más, y tu responsabilidad penal es plena. La sofisticación de la herramienta no elimina el dolo; en todo caso, puede mostrar una mayor planificación.
Responsabilidad por imprudencia: cuando no controlas los riesgos de la IA
La imprudencia aparece cuando, sin querer directamente el resultado, actúas con una falta de cuidado grave en un contexto donde el daño era previsible. En el ámbito de la IA, esto puede darse, por ejemplo, cuando:
- Integras un sistema de IA en un proceso crítico (financiero, sanitario, seguridad) sin verificar su funcionamiento y genera un perjuicio grave.
- Permites que un modelo tome decisiones automáticas que afectan a derechos fundamentales sin supervisión humana.
- Utilizas contenidos generados por IA (informes, dictámenes, análisis de riesgos) sin revisarlos, y ello desencadena decisiones con consecuencias penales.
En estos supuestos, la responsabilidad penal por imprudencia dependerá del nivel de previsibilidad del daño y del estándar de diligencia exigible a tu posición (particular, empresario, directivo, profesional). No es lo mismo un error de un usuario medio que la negligencia de un administrador de una empresa cotizada que delega decisiones críticas en un algoritmo sin controles.
¿Puede responder penalmente la empresa por el uso de IA?
La respuesta es sí. El Código Penal español contempla la responsabilidad penal de las personas jurídicas en una larga lista de delitos, muchos de ellos directamente relacionados con el uso de tecnologías: delitos económicos, delitos de corrupción, delitos informáticos, delitos contra el medio ambiente, delitos contra los trabajadores, etc.
Cuando una empresa incorpora sistemas de IA a su actividad, no solo se expone a riesgos civiles o administrativos, sino también penales. Si la IA se utiliza –por acción o por omisión de controles– para cometer delitos en beneficio directo o indirecto de la compañía, esta puede ser investigada y condenada, con penas que van desde multas millonarias hasta la disolución.
IA, cultura de cumplimiento y responsabilidad de la persona jurídica
La jurisprudencia reciente del Tribunal Supremo ha reforzado la idea de que la persona jurídica solo responde penalmente cuando existe una falta de cultura de cumplimiento o un defecto estructural en sus mecanismos de prevención. Trasladado al uso de IA, esto significa que una empresa no puede limitarse a incorporar algoritmos sin preguntarse por sus riesgos penales.
Desde la óptica de un despacho como Boutique Penal, especializado en defensa corporativa, algunos elementos clave son:
- ¿Se ha evaluado el impacto penal del sistema de IA antes de ponerlo en marcha?
- ¿Existe un mapa de riesgos específico sobre IA, datos y ciberseguridad?
- ¿Se han definido límites claros de uso y protocolos de supervisión humana?
- ¿Se ha formado a directivos y empleados sobre los riesgos penales del uso de IA?
Si la respuesta es negativa, la empresa se sitúa en una posición muy vulnerable ante una eventual investigación por delitos cometidos con apoyo de IA.
Programas de compliance penal adaptados a la IA
Los programas de compliance penal tradicionales deben actualizarse para cubrir expresamente el uso de IA. Un sistema robusto incluirá, como mínimo:
- Políticas internas de uso de IA: qué herramientas se pueden usar, para qué fines y con qué controles.
- Procedimientos de evaluación de riesgos antes de adoptar nuevos sistemas de IA (impacto en delitos económicos, delitos informáticos, delitos contra la privacidad, etc.).
- Registros y trazabilidad de cómo se entrenan, configuran y utilizan los modelos.
- Supervisión independiente, auditorías periódicas y canales de denuncia específicos para usos indebidos de IA.
Un buen programa de cumplimiento no solo reduce el riesgo de que se cometa un delito con IA, sino que también puede ser la clave para atenuar o incluso excluir la responsabilidad penal de la empresa en un procedimiento. En este punto, puede ser útil apoyarse en especialistas en programas de cumplimiento penal adaptados a la IA y al futuro reglamento europeo.
¿Y el programador o proveedor de la IA? Cuándo puede ser responsable
La responsabilidad penal no se agota en quien “teclea” la orden a la IA. En determinados supuestos, el desarrollador o proveedor del sistema también puede responder, especialmente cuando diseña o comercializa herramientas orientadas al delito o con riesgos evidentes que no controla.
La clave estará en determinar si hubo dolo (diseñar la IA para delinquir) o negligencia grave (lanzar al mercado un producto peligrosamente defectuoso sin advertencias ni salvaguardas razonables).
Diseñar IA para delinquir: responsabilidad directa del desarrollador
Si una empresa o programador crea deliberadamente un sistema de IA para facilitar delitos –por ejemplo, un algoritmo específicamente diseñado para vulnerar sistemas de terceros o para automatizar fraudes–, puede ser considerado autor o cooperador necesario de esos delitos.
En estos casos, no hay diferencia sustancial entre desarrollar un malware clásico o una IA “inteligente” para lo mismo: la responsabilidad penal se ancla en la finalidad del diseño y en la previsión del uso ilícito.
Negligencia en el diseño o comercialización de sistemas de IA
Más complejos son los escenarios en los que el desarrollador no busca el delito, pero actúa con grave imprudencia. Por ejemplo:
- Comercializar una IA de análisis financiero sin controles mínimos, que permite fácilmente el blanqueo de capitales.
- Vender un sistema de vigilancia automatizada sin respetar garantías básicas de privacidad y seguridad.
- Ofrecer herramientas de generación de contenido sin filtros básicos para evitar la producción masiva de material claramente delictivo.
En estos supuestos, la responsabilidad penal del proveedor dependerá de si el riesgo era previsible, de las medidas de mitigación adoptadas y de su posición en la cadena de valor. No es lo mismo una gran empresa tecnológica con capacidad para implementar controles avanzados que un pequeño desarrollador que integra APIs de terceros.
Cómo se investigan los delitos cometidos con ayuda de IA
Desde el punto de vista procesal, investigar un delito en el que se ha utilizado IA implica combinar técnicas clásicas de investigación penal con análisis forense digital avanzado. El objetivo es reconstruir la cadena de decisiones humanas detrás de la máquina.
Para una defensa penal eficaz, es esencial entender qué datos genera y conserva la IA, cómo se accede a ellos y qué valor probatorio pueden tener. De ello puede depender tanto la imputación como la exoneración de un investigado.
Pruebas digitales y trazabilidad de las interacciones con IA
En una causa penal, las siguientes evidencias pueden resultar determinantes:
- Historiales de conversación con la IA (prompts y respuestas).
- Registros de acceso a la plataforma (IP, dispositivos, cuentas de usuario).
- Logs de actividad de los sistemas que integran la IA (servidores, aplicaciones, APIs).
- Metadatos de los contenidos generados (fechas, versiones, parámetros de generación).
Estos elementos permiten al juez valorar si la IA fue realmente utilizada como instrumento del delito, quién la manejó y con qué grado de conocimiento. También pueden servir para demostrar que un contenido imputado a un investigado no fue generado por él, sino por un tercero, o que la IA actuó de forma distinta a lo alegado.
El papel del abogado penalista frente a la prueba tecnológica
La complejidad técnica de estos asuntos exige una defensa altamente especializada. Un abogado penalista con experiencia en delitos informáticos y uso de IA debe ser capaz de:
- Impugnar pruebas digitales obtenidas sin garantías (registros, accesos a cuentas, copias de servidores).
- Solicitar periciales informáticas independientes para verificar el funcionamiento real de la IA.
- Explicar al tribunal, en términos comprensibles, los límites de la tecnología y su impacto en la imputación subjetiva (dolo o imprudencia).
En delitos complejos –como grandes estafas algorítmicas, delitos económicos transnacionales o ataques masivos a sistemas–, la correcta interpretación de la prueba tecnológica puede marcar la diferencia entre una condena y una absolución.
IA, derecho penal y prisión: impacto en la fase de ejecución de la pena
El papel de la IA no termina en la fase de enjuiciamiento. También está empezando a utilizarse en ámbitos como la clasificación penitenciaria, la evaluación de riesgo de reincidencia o la gestión de permisos. Esto abre un nuevo frente: el de la protección de los derechos de las personas condenadas frente a decisiones automatizadas.
Desde la perspectiva de un abogado penitenciario, es crucial vigilar que sistemas de IA no se utilicen para tomar decisiones relevantes (clasificación en grados, concesión de beneficios, etc.) sin garantías de transparencia, revisión humana y posibilidad de impugnación. En estas situaciones puede ser determinante acudir a profesionales especializados en derecho penitenciario y ejecución de penas.
Riesgos de la IA en el ámbito penitenciario
Algunos riesgos concretos son:
- Modelos que puntúan el “riesgo de reincidencia” basados en datos sesgados.
- Sistemas de análisis de conducta en prisión que penalizan injustamente a determinados perfiles.
- Herramientas automáticas que condicionan decisiones de tratamiento penitenciario sin intervención efectiva de profesionales.
En estos casos, el control judicial y la defensa técnica son esenciales para evitar que decisiones de enorme impacto en la libertad personal se deleguen en algoritmos opacos.
Buenas prácticas para no cruzar la línea penal al usar IA
Conocer los riesgos penales no implica renunciar a la tecnología. Implica usarla con criterios claros de legalidad y responsabilidad. Tanto si eres particular como si gestionas una empresa, hay una serie de pautas que reducen de forma drástica el riesgo de incurrir en responsabilidad penal al utilizar IA.
Estas pautas no sustituyen al asesoramiento individualizado, pero ofrecen un marco práctico de actuación preventiva.
Recomendaciones para usuarios particulares
- No pidas a la IA que te ayude a delinquir: evitar consultas del tipo “cómo hackear…”, “cómo estafar…”, “cómo fabricar…”. Aunque la plataforma lo bloquee, tu intención puede quedar registrada.
- Desconfía de la información “técnica” para actividades de riesgo: la IA puede inventar datos, artículos o normas. Nunca tomes decisiones legales, médicas o financieras graves basándote solo en su respuesta.
- No uses IA para suplantar, amenazar o humillar: mensajes escritos por IA que constituyan amenazas, coacciones o injurias siguen siendo imputables a ti.
- Respeta la privacidad y la imagen ajenas: no generes contenido (imágenes, vídeos, audios) que pueda vulnerar derechos de terceros, especialmente en contextos sexuales o vejatorios.
Recomendaciones para empresas y profesionales
- Define una política interna de uso de IA: especifica qué herramientas pueden utilizarse, con qué fines y bajo qué controles.
- Integra la IA en tu mapa de riesgos penales: analiza, con apoyo de especialistas en derecho penal, cómo puede impactar en delitos económicos, delitos informáticos, delitos contra trabajadores, delitos medioambientales u otros relevantes para tu sector.
- Aplica el principio de “humano en el bucle”: en decisiones de alto impacto (despidos, concesión de créditos, denuncias internas, etc.), la IA debe ser una ayuda, nunca la única voz.
- Documenta y audita: conserva registros de cómo se ha entrenado, configurado y utilizado la IA. Esta trazabilidad puede ser tu mejor defensa si surge un procedimiento penal.
Por qué es clave contar con defensa penal especializada en IA
La rápida expansión de la IA está generando un terreno nuevo donde se cruzan delitos informáticos, delitos económicos, delitos contra la intimidad, delitos de corrupción y muchas otras figuras penales clásicas. En este contexto, la respuesta jurídica no puede ser genérica.
Un despacho penalista especializado, como Boutique Penal, puede aportar un enfoque integral que combine el conocimiento técnico de la tecnología con la experiencia procesal necesaria para defenderte en todas las fases del procedimiento, desde la instrucción hasta la ejecución de la pena.








