Antonio Blanco
José Francisco Estévez es vicepresidente y responsable del Departamento de Nuevas Tecnologías, además de vicepresidente y socio, del Despacho Cremades & Calvo-Sotelo Abogados. Ha sido abogado en Telefónica Madrid y Bruselas; director jurídico de Telefónica Brasil; secretario general y del Consejo de Administración de Telefónica DATA; secretario general y del Consejo de Administración de France Telecom en España; y director jurídico de Ence-Energía y Celulosa.
¿Considera usted que la regulación jurídica en Europa ha logrado adaptarse al ritmo vertiginoso de la transformación digital, o seguimos legislando desde una visión analógica para problemas digitales?
La transformación digital ha puesto a prueba la capacidad de reacción del legislador europeo. En los últimos años hemos asistido a un cambio de paradigma: ya no basta con aplicar viejas categorías analógicas a problemas digitales, sino que la Unión Europea ha impulsado un verdadero corpus normativo digital. El RGPD fue el primer gran ejemplo, seguido, entre otros, por el DSA, el DMA, la Directiva NIS2 o, más recientemente, el AI Act. Todas estas normas muestran un esfuerzo decidido por diseñar reglas pensadas desde lo digital y no meras adaptaciones. Ahora bien, no podemos ignorar que la lentitud del proceso legislativo contrasta con la velocidad de la innovación tecnológica, y muchos conceptos jurídicos siguen anclados en lógicas territoriales o contractuales del mundo físico.
¿En qué aspectos cree usted que la regulación actual en Inteligencia Artificial en Europa es más estricta o garantista que la de otras regiones como EE.UU. o Asia?
La regulación europea en materia de Inteligencia Artificial se caracteriza por su marcado enfoque garantista, muy distinto al seguido en EE.UU. o en buena parte de Asia. El AI Act, recientemente aprobado, establece un marco de obligaciones basado en el riesgo de la aplicación: cuanto mayor es el impacto potencial sobre los derechos fundamentales, mayor es el nivel de exigencia. Se trata de un enfoque preventivo, inspirado en la tradición europea de protección de la dignidad y los derechos de la persona. En comparación, EE.UU. ha optado por un modelo más descentralizado y sectorial, con directrices de agencias y normas estatales, donde prima la flexibilidad para la innovación frente al control preventivo. Asia, y en particular China, avanza en una regulación fuerte, pero con un acento distinto: prioriza el control estatal y la seguridad nacional, más que la protección del consumidor o del ciudadano en sentido individual. Así, Europa se sitúa como la región que más garantías ofrece en términos de transparencia, trazabilidad, supervisión humana y control de sesgos algorítmicos, aunque a costa de un marco regulatorio más exigente para las empresas.
¿Está preparada la sociedad para convivir con tecnologías tan disruptivas como la IA generativa, o cree que todavía nos falta una base de alfabetización digital y jurídica que nos permita afrontarlas con sentido crítico?
La irrupción de la IA generativa nos plantea un desafío que va más allá de lo tecnológico: exige una preparación social y cultural que hoy todavía es insuficiente. La mayoría de los ciudadanos se acercan a estas herramientas desde la fascinación o la utilidad inmediata, pero carecen de una alfabetización digital y jurídica que les permita comprender sus riesgos: desde la manipulación de la información hasta la afectación a la privacidad, los derechos de autor o la propia autonomía de decisión.
Tras la entrada en vigor del Reglamento General de Protección de Datos, ¿cree que los ciudadanos europeos se han acostumbrado -o resignado- a la gestión de sus datos personales por parte de empresas y plataformas digitales?
El RGPD supuso un punto de inflexión en la conciencia social sobre la importancia de los datos personales. Sin embargo, la realidad muestra un escenario ambivalente: por un lado, los ciudadanos europeos son hoy más conscientes de sus derechos y utilizan con mayor frecuencia herramientas como el acceso, la rectificación o la supresión de datos. Pero, al mismo tiempo, se percibe cierta resignación práctica frente al poder de las grandes plataformas digitales. Muchos usuarios aceptan políticas de privacidad extensas sin leerlas, asumen el rastreo publicitario como un peaje inevitable o utilizan servicios “gratuitos” sabiendo que el precio real son sus datos. Este comportamiento revela una suerte de fatiga informativa: el exceso de avisos y consentimientos ha generado más rutina que empoderamiento.
Entrevista completa en la versión impresa



