Top Lawyers

¿Se puede llevar a juicio a ChatGPT?, un vistazo a la inteligencia artificial y la legislación española

· En los últimos años, la inteligencia artificial (IA) ha revolucionado numerosos ámbitos, desde la salud y la educación hasta la comunicación y el marketing

Redacción | Viernes 12 de septiembre de 2025
Entre los avances más destacados está el sistema de inteligencia artificial desarrollado por OpenAI, ChatGPT. Sin embargo, su uso masivo también ha desatado debates legales sobre responsabilidad, ética y regulación. Una pregunta recurrente es si, en caso de que ChatGPT cause algún daño o perjudique a una persona, es posible llevar a juicio a la propia inteligencia artificial. La respuesta no es sencilla, pues la IA carece de personalidad jurídica y no puede ser considerada sujeto de derechos y deberes como un ser humano o una empresa tradicional.

En el marco legal español, la responsabilidad recae en los desarrolladores, programadores o usuarios según el caso Isabel Luaces, experta en derecho penal y CEO de Dilner Abogados:

“La inteligencia artificial es una herramienta creada y controlada por personas físicas o jurídicas. Por tanto, ante un daño ocasionado, la responsabilidad recae sobre quien haya diseñado, implementado o utilizado el sistema de manera negligente.”

Esta perspectiva se apoya en la legislación actual, que aún no contempla la atribución de responsabilidad directa a una IA, sino a las personas o entidades detrás de esta tecnología. De hecho, el Derecho español está adaptándose para regular la IA con leyes que protejan tanto los derechos de los usuarios como fomenten la innovación responsable.

Como ejemplo, la Ley de Inteligencia Artificial propuesta a nivel europeo y que España apoya, establece marcos claros para la supervisión, evaluación y control de estas tecnologías, especialmente en sectores sensibles como la salud, la justicia o el transporte. La ley obliga a que las empresas ofrezcan transparencia sobre el funcionamiento de sus sistemas y garanticen la seguridad y los derechos fundamentales de los ciudadanos.

Entre los casos prácticos que pueden generar polémica están los errores en diagnósticos médicos asistidos por IA, la difusión de desinformación a través de bots automatizados o la generación de contenidos con falsedades o discursos nocivos.

En tales casos, la legislación busca sancionar a quienes usen la IA de forma irresponsable o que no cumplan con los estándares legales y éticos. Es decir, se puede demandar a la compañía que desarrolla o implementa el sistema, pero no a ChatGPT como entidad autónoma. Según Luaces , “La legislación española camina hacia un modelo que garantice la trazabilidad y la rendición de cuentas”. La IA debe estar bajo control humano, y cualquier daño debe ser atribuible a sujetos con capacidad legal.”

Esto explica por qué, hasta ahora, no hay precedentes claros de juicios contra sistemas de IA, sino contra personas o empresas por su mal uso o negligencia. Por ejemplo, si un chatbot genera un consejo incorrecto que perjudique a un usuario, la empresa responsable es la que puede enfrentar demandas legales.