fondo_covid

Comisión Congreso

para la Reconstrucción Social y Económica

Itziar-de-Lecuona

Itziar de Lecuona Ramírez

Subdirectora del Observatori de Bioética i Dret (OBD)

19 de junio de 2020

Intervención

Es para mí un honor estar aquí, también un castigo dada la hora, la fase en la que estamos, supongo que también por alguna temática que quizás puede ser más pesada. Pero voy a tratar de consumir mi tiempo, no excederme. Y lo que quiero poner de manifiesto es el marco en el que yo vengo a presentar mi trabajo, que es un ámbito académico, un ámbito en el marco de una universidad pública, pero también porque llevo 20 años participando en comités de ética, fundamentalmente en el ámbito de la investigación trabajando estos temas. Creo que hay una serie de carencias y problemas que se arrastran, que se deben solventar con urgencia.

Traigo propuestas para el cambio, pero desde una perspectiva teórica y práctica también. Trataré de comentar una serie de aspectos bioéticos de la pandemia por COVID-19 en el ámbito de la sanidad y la salud pública. Desde este análisis bioético, las medidas propuestas para la salida del confinamiento han intensificado el debate sobre la protección de la intimidad en tiempos de pandemia, por supuesto. Es una situación que conlleva determinadas restricciones de derechos por razones de interés colectivo, pero no puede llegar a anular estos derechos.
Las propuestas las aclararé, como, por ejemplo, las apps de identificación de positivos y de rastreo o la, a mi entender, desproporcionada medida de un posible pasaporte inmunológico, creo que son objeto de tratamiento urgente desde la perspectiva no solo ética, sino legal y por su impacto social.
Pero también dedicaré una parte de mi intervención a la gestión de los datos y también a la evaluación de proyectos de investigación e innovación cuando convergen tecnologías como la inteligencia artificial, el conocido como big data o analítica de datos masivos, la biometría para llegar también al desarrollo de estas aplicaciones de salud que necesitan un aval ético.
Se ha demostrado que este modelo evaluador es ineficaz y está obsoleto. Llevamos tiempo asentados en este modelo, lo que pasa es que la pandemia lo ha puesto de manifiesto de manera flagrante.
Esa situación además ha evidenciado unos recortes sanitarios que han afectado muchísimo, y una tendencia de la que quiero hablar, a la mercantilización y el adelgazamiento de los servicios públicos en muchos ámbitos, acentuando también las desigualdades existentes. Tendencia que ocurre ─y eso es lo que quiero explicar─ en el ámbito de la investigación e innovación en salud, que se ha hablado mucho esta mañana, y yo quiero apoyar algunos planteamientos y abrir la luz, aportar luz en otros. Especialmente, con la excusa del COVID-19, se abren mercados de datos personales, disfrazados de buenas intenciones y con el pretexto de salir adelante de esta pandemia, en este contexto de investigación e innovación.
Se favorece así la participación de terceros, y todo esto lo explico para luego entender qué solución podría haber en entornos digitales, tradicionalmente, ajenos a estos procesos de investigación e innovación, y que tiene un interés específico en acceder a datos. Lo que al investigador le interesa no tiene por qué ser objeto de interés para estos terceros.
Los datos personales, los datos de salud, entre otros, son el oro de nuestro tiempo. De esto nadie tiene ninguna duda, y a la vez existe una tremenda desafección social por cuidarlos, por cuidar la intimidad. Y esto es muy grave y deberíamos tratarlo. Deberíamos tratar el valor que tienen los datos personales en la sociedad digital post COVID-19, porque tienen que ser consideradas como un bien común. Yo considero que determinados conjuntos de datos personales no pueden estar al alcance de cualquiera. Ahora me explicaré.
El soporte que implica la tecnología digital para transitar hacia una nueva normalidad, como se le llama, y hasta que llegue la vacuna, que también se ha hablado esta mañana, y no me voy a extender, nos puede conducir, en mi opinión, a un confinamiento digital encubierto, sin fecha de caducidad, mediante la institucionalización de prácticas de vigilancia digital de personas que, por supuesto, suscitan cuestiones técnicas, sobre todo, pero también éticas, legales y de enorme impacto social.
Creo que el debate no debería centrarse en la protección a la intimidad y la confidencialidad únicamente, en este contexto de digitalización intensiva, sino también en promover la autonomía, para tomar decisiones libres e informadas, la equidad y la transparencia. Tampoco creo que debamos caer en el error de considerar esta situación como una dicotomía entre intimidad y libertad.
Las decisiones se tienen que tomar, por supuesto, en el marco de la salud pública, proporcionales a los fines que se persiguen y respetuosos con los derechos de las personas, pero deben ser temporales (Palabras que no se entienden). Además, estas decisiones deben fundamentarse en la evidencia científica y no en propuestas tecnológicas proclives a estos mercados de datos personales de los que quiero hablar.
Por eso es necesario debatir con urgencia, así, como marco introductorio, sobre la función del Estado, las tecnológicas y esta acumulación de poder ante el despliegue de medidas digitales, basados, sobre todo, en el acceso a la correlación, el hacer patrones de comportamiento, la predicción y, por lo tanto, tomar mejores decisiones, también en el ámbito de la sanidad y la salud pública.
En la sociedad de los datos masivos, la inteligencia artificial y los algoritmos, necesitamos nuevas estructuras de gobernanza. En esto estoy de acuerdo con Mariana Mazzucato, que lo que hay que hacer es cocrear valor a través de los datos y no extraer ese valor, como se está haciendo. Pensar que, por ejemplo, Internet o GPS han sido creadas también y favorecidas por el Estado, y, por lo tanto, tendrían que ser consideradas como un bien común.
Es necesario establecer un modelo de gobernanza, y cuando hablo de ese modelo de gobernanza, me refiero a la investigación e innovación responsable. Es decir, alinear los intereses de la ciudadanía y de la salud pública, desde el principio, haciéndoles participar, pero luego, durante todo el proceso.
Debemos enmarcar estas decisiones y las propuestas que voy a comentar aquí en un mercado único digital. Esta decisión ya se tomó hace mucho tiempo, una sociedad digitalizada por el dato, y que se trata de una apuesta política, científica y económica basada en esta explotación intensiva. Estamos hablando de medicina personalizada, de sistemas sanitarios más eficientes y un envejecimiento activo y bienestar.
Pero también se habló de la inteligencia artificial confiable, y se habla de que no se ha utilizado adecuadamente la telemedicina o esta inteligencia artificial. Claro, tenemos el problema de la ética que hay detrás y cómo obtenemos los datos, cómo los explotamos para que sean justos y se tomen decisiones que eviten esos sesgos o perpetuar los sexos, por ejemplo, de género o de raza que se dan en nuestra sociedad.
El quid de la cuestión son los datos de salud, los datos genéticos, biométricos, socioetnográficos y tienen que estar especialmente protegidos. Porque, claro, lo dicen todo de nosotros, nos abrirían a puertas, a posibles discriminaciones encubiertas o no deseadas y serían utilizados con otros fines.
Por esta cuestión que he comentado como introducción, la de los datos y la explotación de datos intensiva, empezaré por dar algunas ideas sobre la situación de las apps de identificación de positivos y rastreo de contactos, como medida de apoyo, no como la medida única a tomar. Propondría un modelo más analógico que digital, y me explicaré. Esas apps de identificación de positivos y rastreo de contactos, para controlar un posible rebrote del COVID, se deben enmarcar en el ámbito de la salud pública y, como digo, una herramienta de apoyo, no son la solución. Pero lo que no hay que hacer bajo ningún concepto es crear o generar una serie de mercados o de propuestas o de modelos de negocio que permitan eso, esta explotación intensiva a expensas del COVID-19.
Por eso creo que tenemos que centrar la atención en el factor humano y en esa relación médico-paciente, sistema sociosanitario. Por tanto, se ha dicho esta mañana, no lo voy a repetir, que así fortalece la atención primaria, mejorar el sistema de vigilancia epidemiológica y la gestión de los datos; hacer las pruebas que correspondan, nunca de forma indiscriminada. Hemos visto que se está optando por una acción hacia el Bluetooth y no el GPS, porque se considera que el GPS es más invasivo porque geolocaliza, y es cierto, pero vamos a ver qué problemas plantea.
Creo que para la identificación de positivos y del rastreo de contactos, hay que priorizar y fomentar las llamadas de teléfono al estilo tradicional, la contratación de personal cualificado. Además, tenemos que tener en cuenta que hay una parte de la población, incluso la más vulnerable, que no tiene acceso a estos dispositivos ni a Internet, y vemos cómo el derecho de acceso universal a Internet está reconocido en la ley orgánica, entre otras, de protección de datos, de diciembre de 2018.
Creo que ha sido poco acertado fijarnos en sistemas como Corea del Sur, como Singapur y China. Se ha demostrado, así, en resumen, la cuestión de las apps, que se las deberían descargar un número considerable de personas, que puede dar lugar a falsos positivos y negativos, con lo cual, habría una sobrecarga del sistema sanitario, y que además tiene problemas de seguridad y de hackeo, nada despreciables. Además, estas tecnologías que utilicen los expertos no están concebidas para proteger la intimidad. Entonces, habría que articular una serie de medidas que requieren un esfuerzo técnico, que no quiere decir que no se puede hacer, pero que es considerable para corregir.
Hay una cuestión fundamental, que es que nosotros, creo que no deberíamos aceptar como ciudadanos que los sistemas operativos de los teléfonos inteligentes ya tuvieran estas plataformas por defecto. Si ustedes ahora miran en su móvil, en ajustes, depende de si quieren un sistema u otro, verán que ya tienen las notificaciones de exposición por COVID. Es la primera vez que Google y Apple se ponen de acuerdo e instalan, no instalan la aplicación, sino que ponen a disposición la plataforma, para cuando los Estados decidan un modelo centralizado o descentralizado; centralizado, controlado por el Estado, y descentralizado, con la ayuda de estas tecnológicas. Esto creo que abre la puerta a una nueva era digital, nunca, mejor dicho, se instala en nuestras vidas, porque si está por defecto en una actualización de software, eso es difícil que se vaya.
Creo que debería haber más transparencia. El modelo que se ha elegido o que se va a elegir no lo tenemos claro. No tenemos información sobre esto, para que el ciudadano pueda tener todas las herramientas y tomar decisiones. Esto creo que en los próximos meses hay que tratarlo con urgencia, diría, a partir de mañana.
Hemos visto cómo se habla de que en Canarias habrá una prueba. Se ha hablado de que el Barcelona Supercomputing Center, pagado con fondos europeos, que es el supercomputador, el Mare Nostrum, está colaborando, pero no sabemos qué opción. Además, estamos viendo que para países como Noruega retiran la aplicación. Francia cuestiona que hay acceso desproporcionado a datos. Creo que de todas estas lecciones tenemos que aprender, pero sobre todo tiene que haber más transparencia.
Creo que la opacidad que impera en los modelos de negocios digitales no se puede aceptar en este ámbito. Eso lo explica muy bien Frank Pascual en su sociedad de la caja negra. Porque además haría que la gente se las descargara y, bueno, por razones de miedo y solidaridad.
Rápidamente, el modelo de gestión de datos, que se ha hablado esta mañana y es un tema ahora candente, tiene que ser interoperable. Eso es fundamental. Se habla de que no se está utilizando el sistema, pero es que tenemos un problema. La Unión Europea obliga a la interoperabilidad. Tenemos una directiva de reutilización de datos y no tenemos un sistema interoperable. Si queremos minar datos, si queremos tener acceso a datos y los queremos reutilizar, que eso sería deseable, no estamos preparados. Esto no es de 2019. Es que estas cuestiones se decidieron a principios del año 2000. Es un problema grave. No creo que tampoco fuera un obstáculo, o no debería ser un obstáculo que la transferencia de competencias en materia de sanidad a las comunidades autónomas no lo hiciera viable.
Creo que hay un problema de base, de no entender el cambio de paradigma en el que estamos, y de no poner, por supuesto, los medios y la priorización de estas decisiones.
Un modelo de datos fiables, interoperable, accesible y encontrable. Bueno, tiene unas siglas en inglés y lo estoy traduciendo los principios y, sobre todo, también trazable. Entonces, a lo que voy es que cuando hablamos de un modelo de apps y cuando hablamos de las carencias del sistema en cuanto a los datos, desde el punto de vista ético, tenemos que entender que hemos dejado de ser anónimos para ser reidentificables. Los ciudadanos no podemos decir que permanecemos en el anonimato. Eso ha muerto.
¿Qué quiere decir esto? Que debido a la cantidad de información que nosotros liberamos, a la cantidad de información que hay en bases de datos, algunas altamente protegidas, por supuesto, las de salud y la tecnología actual, ustedes saben que, con la fecha de nacimiento, el código postal y sexo es posible identificar a las personas en un porcentaje muy elevado. Han visto cómo se ha criticado las aplicaciones, porque si te piden la tarjeta sanitaria para iniciar esa encuesta o esa consulta, para saber si es un positivo, pues la tarjeta sanitaria con cuatro datos míos me identifica absolutamente.
Luego, los terceros, que no tienen intereses, que no son los clásicos del juego o del ámbito, por así decirlo, y que están pensando en otras cuestiones. Entonces, esto es una cuestión fundamental. Porque claro, tenemos que saber qué datos se van a solicitar, cómo se van a obtener, quién va a tener acceso y durante cuánto tiempo, y de qué forma ─y aquí está la cuestión─ se van a correlacionar. Porque si yo tengo unos datos, a través de aplicaciones que pueden estar muy bien diseñadas o de un sistema y no soy capaz de correlacionarlos a escala masiva y sacar conclusiones, eso no va a servir de nada.
Ante cualquiera de estas iniciativas ─y esto es algo que quiero también poner de manifiesto, luego, también en investigación─ hay que hacer una evaluación del impacto de los tratamientos, ya no solo digo aplicaciones, cualquier propuesta, y se está incumpliendo el Reglamento General de Protección de Datos. Esto lo explico porque lo estoy viendo en investigación e innovación, porque las pautas de investigación no están claras, pero es que no hay ninguna ética para la innovación. No hay ninguna pauta, ninguna hoja de ruta para la innovación en hospitales o, por ejemplo, alejadas de los típicos sistemas de evaluación.
Entonces, este incumplimiento quizás es una suspensión tácita, no sé cómo llamarlo. Quizás es un incumplimiento, porque el Reglamento es del año 2018, pero es que es del año 2016 y desde el 2012 estamos viendo hacia dónde vamos. Esto no se puede aceptar, y genera muchos problemas porque va en detrimento de los derechos, y de forma anticipada. Yo creo que el cambio de paradigma está en tratar las cuestiones de forma anticipada.
Por lo tanto, no podemos institucionalizar el poder de las tecnológicas. No podemos tampoco pretender que el Estado lo controle todo, tenemos que evitar el abuso de poder. Pero también hay que asumir que el riesgo cero no existe, y que las propuestas locales, por lo que vemos, hay países que, siendo vecinos no se van a interconectar, no va a ser interoperable. Esto no nos conduce a nada.
Sin embargo, vemos que, aunque Europa no se pone de acuerdo, en dos años vamos a tener la biometría facial con la huella digital, y, según se nos dice, las fronteras se van a controlar con biometría, con el pasaporte biométrico. Claro, esto me lleva a tratar aquí la cuestión de revisar esta tendencia a aplicar estas tecnologías invasivas y perfilados, evidentemente, por razones de seguridad, pero es que es completamente desproporcionado. Además, la biometría facial es más precisa que la huella dactilar, y además se nos dice que (Palabras que no se entienden) correlacionadas desde datos, de posibles criminales o de inmigrantes irregulares. Ya no es solo la app, es el sustrato de los datos.
Por lo tanto, hay que evitar la excesiva dependencia de las tecnológicas por parte del Estado, y en particular de Europa hacia Estados Unidos, que esto no es una situación nueva.
¿Una propuesta? Fomentar la alfabetización digital. Esto está en la Ley de Protección de Datos y esto es fundamental. Cuando hablas con los científicos de los datos, cuando hablas con los técnicos, los que conocen el problema, para detectar cuáles son los problemas éticos, te lo dicen, y ya no solo es una cuestión de, bueno, evitar asimetrías. Es que el ciudadano tiene que saber qué está pasando, porque, efectivamente, cada vez se generan más desigualdades, desde las escuelas hay que fomentar esta alfabetización. Pero también en esos contextos de toma de decisiones, como los comités de ética, donde por incomprensión de este cambio de paradigma, se están aprobando investigaciones o se están realizando innovaciones que no tienen ningún sentido, y que, como digo, abren mercados de datos disfrazados de investigación e innovación, con el pretexto de la pandemia.
Además, hay que informar a los titulares de los datos personales. Es decir, esto está en la ley. Esto es obvio, pero quién, cómo, por qué, y de manera clara e inteligible.
Sobre el pasaporte inmunológico, me preocupa la tendencia que hay. Evidentemente, todo el mundo entiende que es una medida desproporcionada, que no conduce a nada, que no es fiable, que sería incompatible con cualquier sistema de protección de datos, con la ley y con cualquier ordenamiento jurídico en nuestro contexto. Es una medida discriminadora, estigmatizante. Animaría a que la gente se contagiara para obtener el semáforo verde, y nos pondríamos etiquetas. Además, es que eso no tiene ninguna validez científica.
Pero lo que quiero destacar es si ustedes recuerdan la comparecencia de Fernando Simón, una de las comparecencias, cuando preguntado por un periodista se quedó blanco, porque le preguntaba el periodista si consideraba adecuado que las personas pusieran en su currículum “inmune”. “Soy inmune al COVID-19”. Esto, claro, él no es que no hubiera entendido la pregunta, es que le pareció amoral, no ético. Yo no lo saco porque sea una cuestión particular, es que vemos que lo rechazamos en el ámbito sanitario, pero vemos cómo hay un movimiento a establecer hacia el ámbito laboral, la vuelta al trabajo, a través de los dispositivos; dispositivos, DNI digitales, que pueden ser de distintas maneras. Puede ser un código QR, puede ser lo que sea, se lo imaginan. Pero claro, estamos de alguna manera abriendo la puerta o normalizando algo que estábamos rechazando de manera flagrante, y que vemos que grandes consultoras, startups, esto lo vemos en los medios, en la sección Negocios, apuestan por este modelo de negocio.
Se nos dice que las residencias de mayores ya no son rentables. Una cuestión que la tengo al final de mi discurso y que no llegaré, seguramente, pero esto es digno de estudiar. Es decir, la vejez y la muerte es un tabú. Sin embargo, los fondos de inversión habían estado invirtiendo en residencias de ancianos, ahora no es rentable. Estos modelos de negocio que están pendientes de validar por las autoridades, sí que, bueno, lo que les estoy diciendo, es decir, abren mercados de datos muy interesantes y, en fin, con muchos terceros interesados.
¿Esto qué traería? Una vigilancia intensiva que no desaparecería, y son medidas inmediatas, dan seguridad, son rentables. Pero claro, incluso se llegará a enmarcar en la prevención de riesgos laborales. Esto me lleva a la cuarta cuestión, antes de llegar a la quinta, que es donde realmente quiero ahondar con propuestas. Las pruebas y su fiabilidad. Aquí lo he titulado: De la escasez al negocio. Claro, vemos que ahora las personas se quieren hacer pruebas que no son fiables. Hay una confusión y hay una desinformación que no ayuda a nada. No es una cuestión trivial, porque todo lo que les he dicho antes de los datos, también ocurre con las pruebas. Si hacemos estudios de prevalencia, desde el punto de vista científico, eso es muy lícito y tiene que estar controlado. Lo que no puede ser es que una cuestión que no había test en su momento, y ya sabemos lo que pasó, se traspase, de alguna manera se traspase a la iniciativa privada, y es un auténtico negocio, sin ninguna fiabilidad. Este es un problema.
Yo no soy experta en PCR, pero lo vemos. Las autoridades tienen que dar criterios claros, porque primero eran los trabajadores esenciales, luego la toma de temperatura. A nivel general, esto es peligroso, si ustedes lo conectan con la cuestión de la biometría, lo que he estado explicando. Es decir, es una vigilancia intensiva.
Recordemos que la OMS no recomienda test masivos, y luego se ha puesto de manifiesto nuestra escasez para, bueno, nuestra falta de independencia industrial con respecto al exterior.
Voy al quinto punto, que es este ámbito en el que yo creo que hay que cambiar muchísimo las cosas y que hay que tomar medidas, ya para acabar mi intervención. Es decir, pautas para una adecuada evaluación de la investigación e innovación en salud, basada en la inteligencia artificial, el big data, la biometría y los dispositivos digitales.
Cuando preparaba la ponencia, lo que me parece más relevante es que debemos ser conscientes de que la investigación ─igual que la innovación es muy importante─ la investigación es el pilar de nuestro sistema de salud. Es necesario destinar, en resumen, más presupuesto para aumentar recursos humanos y materiales y efectuar una revisión de las líneas de investigación que se priorizan, y aumentar las partidas presupuestarias para la investigación independiente. Eso es fundamental. Que sean socialmente valiosas, que sean científicamente válidas. Pero, sobre todo, hay que desarrollar pautas comunes para una adecuada evaluación de esta convergencia de tecnologías, cuando la protección o la cuestión que está en juego es proteger a la persona a través de la protección de sus datos personales.
Mi experiencia, en tanto que miembro de comités de ética de la investigación, me permite hablar de este modelo de ineficacia y obsoleto que arrastra muchos problemas, porque si ustedes analizan la regulación, está muy regulado el ensayo clínico, pero todo lo demás, escasean las regulaciones, es un problema.
Es decir, los comités de ética de investigación para el desarrollo de medicamentos se han convertido en evaluadores de la innovación, de la innovación que ocurre en los hospitales, y no han modificado mucho ni sus procedimientos de trabajo ni su composición. Se les exige ser los mecanismos de protección, porque son interdisciplinares, porque son órganos colegiados, porque se adaptan al cambio tecnológico, al cambio científico, pero es un modelo de (Palabras que no se entienden), y esto sí que lo tengo comprobado.
Claro, en situación de pandemia, los comités de ética de investigación tienen que aprobar proyectos de investigación para desarrollar vacunas. Además, tienen otros tipos de investigaciones biomédicas, y tienen aquellas evaluaciones que tienen que ver con el desarrollo de dispositivos para la predicción del COVID. Por ejemplo, una aplicación que estuviera validada y la gestión mediante algoritmos, mediante inteligencia artificial. Esto requiere una evaluación. Tenemos una respuesta normativa y no se está llevando a cabo. Ha sido un aluvión, es decir, ha sido impresionante la cantidad de propuestas, algunas más válidas que otras. Pero bueno, para eso están estos momentos.
Entonces, se han visto desbordados. ¿Por qué? Porque ya arrastraban problemas. No tienen personal, no tienen recursos, y lo peor de todo, no tienen la cualificación para entender este cambio. No quiere decir que no están haciendo las cosas bien, por supuesto, pero seguimos instalados en el ensayo clínico y estamos evaluando como si fuera un ensayo clínico otro tipo de investigaciones.
En resumen, en tiempos de pandemia, y a partir de ahora, no se pueden relajar los estándares de protección y se necesitan pautas para evaluar adecuadamente.
Voy a hacer algunas propuestas, y ya para acabar. Los comités de ética necesitan este desarrollo normativo que les estaba comentando, sobre sus competencias, funciones, constitución, acreditación y composición, y esto viene de la Ley de Investigación Biomédica, año 2007. Todavía no tenemos nada. No hay ningún desarrollo reglamentario. La pregunta es: ¿quién controla al controlador? Esta es interesante.
Es también urgente desarrollar pautas para homogeneizar estos procedimientos de evaluación, lo que les decía. Creo que es aconsejable crear comités de ética de la innovación. Si no mejoramos esta situación habrá que desdoblar, porque es que están evaluando cuestiones que no se comprenden porque son otros parámetros y otras pautas.
Garantizar su independencia. No pueden responder a intereses espurios, no dependen de las instituciones. Los comités de ética se crean en instituciones de investigación, en centros hospitalarios. Claro, si vamos a evaluar una innovación para mejorar la asistencia, ¿eso qué es? Esta es la pregunta. ¿Es un proyecto de investigación? No hay respuestas.
Luego, claro, es manifiesto lo que se decía antes, la integridad científica todavía no está muy clara, y luego, la falta de formación en ética.
Ya para acabar, lo que creo que es más grave es que teniendo una respuesta, como el Reglamento General de Protección de Datos, teniendo una ley, no se esté llevando a cabo la evaluación de impacto de la que les hablaba antes. Precisamente, es una innovación y una novedad que me parece muy positiva, porque permite unas metodologías que conjugan la parte técnica con la ética, con la legal y social. Es una metodología de análisis de riesgo y mitigación. No es, cumplo con el artículo 53, sino que le doy una visión de conjunto.
Luego vemos cómo se externalizan. Es decir, los hospitales, los centros de investigación no tienen nubes propias. El sistema público no tiene, depende completamente de las tecnológicas, y, fundamentalmente, estadounidenses. Con lo cual, los acuerdos marco que se hagan, las cláusulas contractuales no pueden ser las convencionales.
Claro, todo el mundo sabe que los datos médicos no pueden salir del perímetro de la Administración pública. No puedes liberar datos, ni siquiera desde las buenas intenciones. Tiene que permanecer todo en el sistema más garantista, y esto no es una cuestión resuelta.
La figura del delegado de protección de datos, que es una figura que viene determinada por el Reglamento, que permite un asesoramiento, una independencia. Se está creando. Se está instaurando de manera un poco sesgada, porque son profesionales de las instituciones que están actuando como tal, con lo cual, la independencia no está garantizada.
Luego, la (Palabras que no se entienden) de Administración, se repite por activa y por pasiva que somos anónimos, que se analizan los datos cuando los datos se codifican o se seudonimizan, que no es una palabra que me haya inventado yo, sino que está en la Normativa.
Como cuestión fundamental, tenemos que transitar hacia la ciencia abierta. Entonces, claro, toda la gestión de los datos tiene que ser conocida, no solo la intervención inicial, sino que tengamos acceso a cómo se tratan los datos en lo público y en lo privado, con respecto a estos proyectos.
Creo que la disposición adicional décimo séptima sobre los tratamientos de datos de salud de la Ley Orgánica de Protección de Datos, es insuficiente y se echa en falta un desarrollo normativo. También creo que sería necesario ─para acabar─ regular el ámbito de la telemedicina. Se ha hablado antes. Si no hay una regulación clara, esto es otra vez una fuga de datos.
Yo siempre pienso mal, pero se hacen bien las cosas. Pero aquí hay un problema, y la protección de los datos personales en los procesos de investigación y asistenciales, que incluyen elementos de innovación. Entonces, esto me lleva también a plantear, por último, qué pasa cuando se contratan, por ejemplo, los procesos de contratación pública en el ámbito sanitario, qué pasa con la gestión de los datos personales.
Nada más. Muchísimas gracias por su atención.

Preguntas de los grupos parlamentarios

Josune-Gorospe

Josune Gorospe Elezcano

GP Vasco
Ver pregunta
Vallugera-Balañà,-Pilar--(GR)

Pilar Vallugera Balañà

GP Republicano
Ver pregunta
Medel-Pérez,-Rosa-María

Rosa María Medel Pérez

GP Confederal UP
Ver pregunta
Steegmann-Olmedillas

Juan Luis Steegmann Olmedillas

GP Vox
Ver pregunta
Riolobos-Regadera,-Carmen--(GP)

Carmen Riolobos Regadera

GP Popular
Ver pregunta
Ana-Prieto

Ana Prieto Nieto

GP Socialista
Ver pregunta

Josune Gorospe Elezcano (GP Vasco)

Gracias, presidenta. Gracias, ¿De Lecuona? ¿O Lecuona? No sé. Bueno, De Lecuona, como sea, por las explicaciones dadas, por la ponencia que nos ha dado y por la paciencia también de esperar el retraso que llevamos ya acumulando.
Solo dos cuestiones brevemente. Es que esta mañana, bueno, tarde, ya no sé lo que es, en este continuo que tiene para nosotros el tiempo, hemos (Palabras que no se entienden) el mismo día, que resulta que los epidemiólogos que están trabajando con papel y boli, y que este es uno de los problemas que se debería resolver, a la vez que usted nos está hablando de biometría facial para control de aduanas, suponiendo que los dos, en los epidemiólogos y el control de aduanas, son competencia de la misma Administración.
Para mí es una paradoja que soy incapaz de entender. No sé si tiene explicación. Hay otros que tienen toda la información sobre nosotros, toda, que en cuanto demos un paso, saben todo, y nuestros epidemiólogos y uno de los problemas para controlar la pandemia ha sido que están con un boli y un papel y tratamiento de datos que es imposible.
Para mí, sinceramente, tendrá una explicación sencilla y lógica, para mí es incomprensible. Entonces, sí tiene una explicación.
La segunda cuestión, usted planteaba como una de las medidas, evidentemente, que se tendría que trabajar, el fomentar la alfabetización digital, decía. Pero claro, eso a partir de una edad y al ritmo que va esto y para determinados colectivos más vulnerables por su realidad socioeconómica, es como decir, mucha gente nos vamos a quedar fuera, me incluyo, de esa alfabetización digital necesaria, para poder solo entender, para poder tener un papel activo y responsable como individuos, y como gestores y políticos que estamos tomando decisiones para gobernar la vida de muchos individuos, también.
Solo esas dos cuestiones. Gracias.

Pilar Vallugera Balañà (GP Republicano)

Muchas gracias, Itziar de Lecuona. Yo me he despertado un poco con esta comparecencia, porque realmente ha cambiado mucho lo que hemos estado hablando durante todo el día. Tiene razón mi compañera cuando dice que es muy difícil de entender que el problema sea a la vez el papel y el boli, y a la otra parte, pues el uso indiscriminado del big data y demás.
Entonces, varias preguntas. La primera, en uno de los epígrafes usted nos dice: “Hacia un modelo más analógico que digital en salud pública”. Pero curiosamente nos están diciendo que en salud pública no hay ningún modelo digital, porque no lo pueden tener, porque no hay fondos, porque no hay recursos, porque no hay gente, porque no hay conocimiento, y es sorprendente.
Entonces, la pregunta es: ¿a qué se refiere cuando habla de un modelo más analógico?
La segunda pregunta. A mí me preocupa muchísimo, a nuestro grupo nos preocupa la coalición con los derechos que puede representar, y usted lo ha explicado muy bien, el intento de saber la trazabilidad del virus a través de estas apps. Pero lo cierto es que, en determinadas aplicaciones, si tú no te identificas, no recibes la prestación. Es decir, si tú no pones tu tarjeta sanitaria, no podrás poner los síntomas y, por tanto, no vas a tener ninguna respuesta de la Administración. De manera que en la balanza acabas prefiriendo perder tu intimidad a no saber si realmente tienes síntomas suficientes para ir al médico o si has de correr. Eso creo que nos está pasando con todo, y al final, hasta los que tienen una cierta conciencia de lo que representa, deben, porque no hay otra alternativa para satisfacerse determinadas necesidades, poner en riesgo su anonimato, que no existe, pero que, bueno, podríamos intentar tener la ficción de que sí que existe, y eso también es preocupante.
Otros temas más. En el tema de la educación digital, que creo que es fundamental, nos encontramos con generaciones que no han tenido educación digital, pero que en cambio están ahora mismo en todas las redes habidas y por haber y utilizando todo tipo de app. Cómo podemos a esa generación que no perciben ningún peligro y que se nos van ya de la educación, a hacerles patentes los peligros que tiene estas apps, estas funcionalidades.
Por último, usted lo ha mencionado muy de pasada, pero ¿estamos en manos de la tecnología proveniente solo de determinadas partes del mundo? Me explico. Es decir, ¿Europa está muy por detrás de lo que están haciendo las grandes de Estados Unidos o las chinas?
Muchísimas gracias por su comparecencia.

Rosa María Medel Pérez (GP Confederal UP)

Hola, buenas tardes. Claro, leyendo todo esto de esta cantidad de datos, mira, te voy a poner un ejemplo que me pasó a mí cuando yo trabajaba en el hospital, hasta hace nada. Nos pusieron una denuncia por llevar en un carro historias que quedaban antiguas de papel y se veían. Tuvieron que cambiar, y las historias llevaban los nombres de los pacientes. Tuvieron que cambiar los carros y cerrarlos para que no se vieran. Nos denunciaron y era la ley.
Quiero decirte que, por un lado, esas cosas, y los consentimientos informados y todo eso, y que no se vea el nombre, y tal y cual, y, al mismo tiempo, toda una serie de datos que te desnudan. Parece también muy contradictorio.
Fíjate, tú dices que los datos son nuestra intimidad, y que si se les da uso que desconocemos perdemos el control sobre nuestros derechos fundamentales. ¿Tú crees que realmente se puede compaginar libertad y control de datos? ¿Eso es posible? Y más con lo que ha venido y con lo que va a venir.
En tiempos de pandemia, con toda la cautela de tratar esos datos, los derechos se van a ver minados, pero seguro. ¿Hay algún viso de que eso se pueda compensar o corregir?
Otra cosa, que la tengo aquí y que ahora no me acuerdo si lo he sacado de aquí, porque no me acuerdo (Palabras que no se entienden), pero es que me gustó. Yo lo digo, y es que pone: “El virus es internacional. La pandemia ha supuesto, además de muertes, menos tráfico aéreo, menos emisiones” ─verdad que sí─ “de carbono, y que las aguas de Venecia estén más transparentes”. Que por un lado parece que nos está encausando a otro tipo de vida. Si disminuimos todas estas cosas, podemos encontrarnos con un mundo diferente, incluso un mundo que no esté tan separado del ser humano, que pasemos otra vez a ser animales, aunque sea irracionales.
Entonces, ¿crees tú que en un capitalismo neoliberal depredador se puede permitir que cambiemos nuestros hábitos para integrarnos mejor en este mundo, que parece que nos rechaza, que nos atacan ya todos los virus?

Juan Luis Steegmann Olmedillas (GP Vox)

Señora Lecuona, me llamo Juan Steegmann, soy diputado de Vox, médico hematólogo. Me ha gustado mucho su exposición, y yo la verdad es que necesito pensarla muchísimo, porque me ha cambiado usted el marco conceptual. No le puedo preguntar cosas que yo creo que beneficien mucho, ni a usted ni a sus señorías.
Claro, usted nos alerta respecto a esto, pero es que ya me parece que es demasiado tarde. (Palabras que no se entienden) tantos datos, una infinidad de datos tan enorme, que, bueno, incluso dudo mucho de la anonimización y seudonimización y otros muchos ensayos clínicos, pero incluso de la actividad asistencial. Es decir, que eso, cuántos agujeros hay en eso, en confidencialidad.
Claro, aquí está, como siempre, el equilibrio entre la seguridad y la libertad. Ese es un gran compromiso, gran equilibrio que, por ejemplo, pues si España quiere protegerse, evidentemente, va a tener que hacer alguna evaluación de los viajeros que vienen a nosotros.
Por otra parte, ya en el entorno laboral, después, la Ley 3195 de 8 de noviembre dice que el empresario debe vigilar periódicamente el estado, la salud de sus trabajadores, ante todos aquellos riesgos que sean inherentes al trabajo. Le obliga a introducir todas las medidas preventivas que sean precisas para evitar un contagio. Naturalmente, tiene que ser voluntario por parte de los trabajadores, y tiene que ser algo entre el empresario, los sindicatos y el trabajador individual.
Pero, sin duda alguna, para ofrecer un entorno seguro, no veo otra solución que esos datos sean obtenidos de alguna forma, evidentemente, evitando el abuso y la permeabilización de esos datos.
A mí me importan un bledo las aguas de Venecia. La verdad es que ahora mismo me parece que este mundo es una catástrofe. Lo que estoy deseando es volver a la normalidad, y espero que haya más vuelta al pasado en muchos de los sentidos. Solamente para decirle esto.
Quiero preguntarle, sobre todo, a nivel laboral, porque ahora necesitamos poner el país otra vez a trabajar. ¿Cómo se va a conciliar eso? No sé si es pedirle demasiado, pero ofrezca, por ejemplo, una solución para que podamos recibir a los turistas de una forma.
Nosotros hemos pedido, nuestro grupo, dentro de este deseo de que se recupere la economía ─termino, señora presidenta─ que haya un certificado y que los turistas tengan una PCR hecha en las 48 horas antes de venir, aun sabiendo las limitaciones de esto. Que luego, como en otros países, se hagan test serológicos, que incluso se podían hacer en las salas de espera. Esto es, por supuesto, muy limitado.
Pero, desde luego, lo que no podemos hacer es ser otra vez un coladero infeccioso. Nos preocupa mucho. Estoy seguro de que a usted también. A lo mejor tenemos que sacrificar. Porque mire, hay una aplicación que tengo aquí, que se llama (Palabras que no se entienden), en la cual le pongo, menos mal que no tomo muchas pastillas, pero expone las pastillas, no sé qué, cuándo las tomas. Le das los datos, deben tener unos datos enormes. Eso existe ya, a lo mejor es un poquito tarde ya para esto.
Luego, señalar la paradoja. No sabemos contar los muertos. No hemos hecho una base de datos única, y no creo que sea por respetar la confidencialidad, sino simplemente por inercia. Pero bueno, esa es mi opinión.
Muchas gracias.

Carmen Riolobos Regadera (GP Popular)

En primer lugar, darle la bienvenida a la doctora Itziar, por acudir a esta subcomisión. La verdad es que yo comparto también las palabras de alguno de los compañeros. Nos ha generado un verdadero dilema, porque yo la primera pregunta que le haría es si hemos tenido en cuenta realmente en el abordaje de la pandemia del COVID, todos los temas bioéticos, porque el único dilema que se ha generado, ético, es cómo era el tratamiento de las personas más vulnerables. Teníamos encima de la mesa toda la gestión de los datos, que eso lo podemos, de alguna forma, hilar con esa vigilancia epidemiológica, que debería estar basada en el tratamiento de los datos, en las respuestas rápidas, y en lo que realmente ha fallado el sistema, que no ha habido una buena anticipación de todos esos datos que, por otro lado, como esta mañana nos han trasladado, los epidemiólogos se hacen todavía de una forma muy rudimentaria.
Pero aquí creo que se juntan la actuación de dos leyes importantes. Por un lado, la Ley de Protección de Datos, que usted ha hecho alusión a ellos. No tanto en los datos de personas fallecidas, que es triste. O sea, que no tengamos un sistema donde tengamos de una forma actualizada y momentánea cuáles son las personas que han fallecido por el COVID. O la obligación legal que hay de, el interés público de utilizar los datos para un fin determinado, que también lo recoge la Ley de Protección de Datos.
Aquí podríamos hablar del derecho tanto del acceso a los datos como de tratamiento para fines de videovigilancia. Entonces, la verdad es que ¿cómo se encajan todas estas cosas?
Pero es que, por otro lado, también tenemos la Ley de Autonomía del Paciente. Entonces, dónde tenemos el derecho a esa información epidemiológica, pero si no tenemos los datos, ¿qué información nos van a dar? Con todo este sistema, ahora mismo, del big data, de la inteligencia artificial, de todo esto, ¿cómo es posible que no tengamos (Palabras que no se entienden)? Pero es que usted ha hecho referencia también un poco en cuanto a los ejes de investigación, pues los comités de ética de investigación. ¿No lo tendremos que adaptar? Y para eso, los reglamentos también, a la investigación, no solo en los ejes determinados, que igual hay que modificarlos. Pero es que, sobre todo, con respecto al tratamiento de los datos. Porque ahora mismo, si vemos cuáles son los fines de las diferentes líneas de investigación que tenemos en todos los centros, claro, no cuadran, por un lado, el fin, si quieres, una terapia determinada en un medicamento con respecto a todo el tratamiento de los datos que van con respecto a ese estudio.
Entonces, creo que hay, si nos puede ahondar un poquito más.
Luego, sobre todo, el tema de la historia clínica interoperable. O sea, es que eso es. Es triste que a estas alturas sea un objetivo que está muy por desarrollar.
Ya por terminar le haría una pregunta. Si considera que deberíamos establecer una estrategia nacional de transformación digital o cuál es su opinión sobre ello. Sobre todo, cuando estamos hablando de una medicina predictiva, de precisión, personalizada. Después, si deberíamos de tener una cartera de servicios específica en medicina personalizada, con el tema del tratamiento de los datos y todo esto, porque cada centro hospitalario está haciendo un poco una gestión individual, porque no hay una cartera de servicios establecida.
Muchas gracias.

Ana Prieto Nieto (GP Socialista)

Bienvenida a este Grupo de Trabajo de Sanidad y Salud Pública, señora De Lecuona. Usted dijo al principio que se dejaba un poco sin desarrollar el punto de las residencias de mayores. A mí me gustaría que insistiese un poco en él, porque las personas mayores, sobre todo las que están en residencias, ya lo dice usted aquí, además, son personas especialmente vulnerables y no todos tienen la misma autonomía por diferentes motivos.
También aborda usted aquí un tema que me interesa que desarrolle, y leyendo sus palabras, pues dice: “Se deben establecer criterios de priorización en atención a los pacientes. Un ejemplo ha sido la toma de decisiones en situación de conflicto en unidades de cuidados especiales y en relación con el triaje.
Después, a mí me interesa que nos cuente algo sobre la robótica, tan presente en nuestras vidas y cada vez más. Ya no solo en salud, sino que transversalmente en nuestra vida nos afecta y cómo podría afectar también esto a esta protección de datos personales, que no pudieran unas bases de datos con otras después sumarse y obtener todavía muchísima más información sobre cada persona.
Quisiera también que ahondara un poco en el papel de los pacientes en el Sistema Nacional de Salud, en cuanto a la digitalización, en relación con el autocuidado y a la autonomía de los pacientes en relación con las nuevas tecnologías. Porque es verdad que las nuevas tecnologías están planteando muchas ventajas en la atención y en el cuidado de los pacientes. Lo hemos visto, además, durante la evolución de esta pandemia. El papel de la telemedicina, que creo que si nos pudiera usted decir su opinión sobre cómo cree que se debe impulsar la telemedicina, para tener en cuenta la protección de los datos personales de los pacientes y conciliar lo que es nuestra intimidad con el avance en las nuevas tecnologías, para que estemos mejor cuidados. Muchas gracias.

Respuestas

Muchísimas gracias, señores, por las intervenciones y las preguntas. Trataré de contestar, si puedo, a todo. En algunas cosas no soy la persona adecuada, pero sí que tengo aquí apuntadas algunas ideas. Como cuestión transversal, es que esto no es nuevo. O sea, tenemos un problema. Se ha utilizado la pandemia para decir que no teníamos nada, pero es que, desde el año, yo llevo trabajando este tema desde el año 2013, y no se han cambiado muchas cosas.

La Normativa existente es antigua. Es decir, lo difícil es decir: “No, es que no tenemos leyes, no tenemos un marco”. Es que lo tenemos y no lo estamos aplicando. Pero ¿por qué? Porque no se entiende el paradigma digital en el que estamos asentados, de explotación intensiva de los datos, y aquí lo estamos viendo. Estas contradicciones. Es decir, cuando he hablado de las apps, cuando he dicho que tenía que ser un modelo más analógico que digital, en este sentido, me refiero a que es menos invasivo, más proporcionado y garantista no recurrir a esto. Porque como no tenemos todo lo demás solucionado, los problemas se nos han acumulado, abrir la puerta a esto sería ya entregarnos. Pero creo que hay unas falsas concepciones aquí que debemos analizar entre todos. Es decir, todo el mundo no tiene acceso a nuestros datos. Eso sí que sería muy grave, y menos a los de salud.
Pregúntense ustedes por qué cuando quieren hacer investigación, cuando se quiere innovar en este ámbito, se llama a la puerta del sistema nuestro. Porque, por ejemplo, en Cataluña o en otros ámbitos, 25 años hemos estado (Palabras que no se entienden) histórica clínica compartida, pero una historia clínica digitalizada, después compartida, después interoperable. Pero claro, esto ha requerido un esfuerzo. Ha requerido decisiones.
Entonces, usted entra en mi historia clínica y lo ve todo. Usted tiene el poder sobre mí. Mi código postal, los hijos que tengo a mi cargo, si tengo alguna discapacidad, mi consumo farmacéutico, y puede inferir y deducir mucha información.
Esta idea tan buena de tenerlo todo en una única pantalla, para entendernos, ahora se nos vuelve contrario. Entonces, el esfuerzo es tapar aquello que no queremos que vean, para proteger y para tomar medidas proporcionales. Claro, esto es otra vez un esfuerzo del mundo al revés. Esto es, primero, entender que técnicamente íbamos hacia un lugar, y debido a la cantidad de bases de datos; bases de datos de sospechosos, bases de datos, de inmigrantes, bases de datos de salud. Todo el mundo quiere entrar en la historia clínica digitalizada. ¿Por qué? Porque está ordenada, estructurada. Es fiable, es de calidad. Ojalá tuviéramos todas estas bases tan organizadas. Pero claro, si hemos ido consiguiendo estas bases de datos, y, al mismo tiempo, no hemos ido invirtiendo en un sistema garantista que evite, porque yo no digo que no haya que hacerlo. Lo que digo es que hay que evitar estos mercados de datos paralelos.
Claro, los intereses de las grandes tecnológicas son los que son, como las (Palabras que no se entienden) farmacéuticos. Es decir, aquí no hay ni buenos ni malos. Cada uno tiene sus intereses. Entonces, este es el problema.
El hecho de que yo libere datos en un móvil, en una aplicación, pues ya es un riesgo. Pero es que los datos de salud no están a disposición de cualquiera.
Insisto, no todo el mundo tiene todo sobre mí.
Claro, yo he cuestionado mucho que, teniendo el Reglamento, combinándolo con la Ley de Autonomía del Paciente, con todo el marco jurídico que tenemos, que es muy garantista, se hayan hecho apps con prisa y precisamente contrarias a todo esto. ¿Qué hay que hacer desde un principio? Diseñarlo para que técnicamente sea posible, y a partir de ahí que esté protegido. O sea, es posible, pero es costoso, y hay que establecer un nuevo modelo de gobernanza, como decía, porque el sistema funciona por acumulación de datos, por defecto.
Claro, si tengo un supercomputador como el Barcelona Supercomputing como Estado, y no lo estoy utilizando para esto y no lo estoy priorizando y no se le está dando el protagonismo, me lo invento. Quiere decir, que no vengo aquí a hablar del Barcelona Supercomputing Center, y nos están hablando de que las tecnológicas ya lo tienen todo solucionado, pues eso también genera una información que no es buena para el ciudadano. Entonces, los datos no están en cualquier parte y no los tienen todos. Es que nunca los deberían tener. Lo que ha explicado usted de la historia clínica, que ha pasado, en contenedores han encontrado historias, es que eso es objeto de sanción, bueno, es que es un delito, porque todo el mundo sabe que descargarse una historia clínica en un portátil está prohibido, aunque seas médico. Porque a partir de que entra en mi portátil, cualquiera puede verlo, lo puedo perder. Es decir, es un tema ya deontológico, ya ni siquiera estamos hablando de una cuestión legal.
Entonces, no comprendo cómo nos cuesta tanto adaptarnos a este paradigma.
Claro, aquí hay una biopolítica, que también es la que me gusta a mí estudiar. Cuanto menos control y menor, digamos, homogenización de los criterios, es más fácil salir adelante con todo esto. Este esfuerzo lo tenemos que hacer.
Entonces, para ir contestando a varias preguntas. Sí, estamos en manos de la tecnología estadounidense. Esto, en fin, lo sabe todo el mundo. Lo ha dicho Angela Merkel. Lo han dicho repetidas veces muchísimas personas. Pero claro, si desde el punto de vista político no se entiende lo que supone todo esto, el ciudadano está a expensas de todo esto.
Cuando hablamos de alfabetización digital, no creo ─quizás no suena bien esto─ pero que haya que alfabetizar a todo el mundo. Sí, efectivamente, desde el colegio, desde la escuela. Claro, alfabetizar a personas mayores en el sentido de alfabetizar digitalmente es muy difícil. Yo he trabajado, tengo proyectos de investigación europeos, un (Palabras que no se entienden) europeo, un dispositivo que le permite ayudar a envejecer mejor a las personas autónomas. Los están financiando con impuestos, no con financiación pública.
¿Qué te dice la persona? Que está sola, que no quiere tener ni un robot ni (Palabras que no se entienden), y mucho menos puede tener un dispositivo, porque tiene que poner la letra a 27, tamaño 27 y no se puede manejar. Sin embargo, es una apuesta política; es decir, lo hemos decidido. Entonces, estas cuestiones hay que solucionarlas.
¿Estamos en manos de la tecnología y estamos en una carrera competitiva para ver quién tiene la hegemonía? Sí, porque tenemos a China, tenemos a Estados Unidos y tenemos a Europa. Entonces, esta dependencia hay que tratarla.
Estas contradicciones de las que me hablan, claro, yo no tengo respuestas para todo, pero puede haber libertad y puede haber control de datos. Sí que hay un modelo, o sea, se puede hacer. Pero insisto, no es fácil.
Entonces, lo que me preguntaba del ejemplo que puse de Venecia, que me pareció que quedaba bonito, pero yo prefiero las aguas de Venecia limpias que sucias, prefiero el cielo sin aviones, y hombre, nos va un poco mejor desde que no hay tanta gente arriba volando, por tema de sostenibilidad.
Pero claro, el problema es la reputación. Es decir, a partir de ahora tenemos que pensar que tenemos que ir hacia un modelo más sostenible, y, sobre todo, que no potencie este capitalismo salvaje que usted ha citado. Pero claro, para eso hay que cambiar. Yo creo que todo lo que deberíamos hacer es preguntarnos quién merece nuestros datos, quién los merece, en tanto en cuanto nos da las garantías de que puede tener acceso.
Insisto, no hemos llegado tarde. Decir que hemos llegado tarde no me parece adecuado, porque, ya digo, yo llevo trabajando y viendo esto desde hace muchos años, y las normas son de principios del año 2000 y se han ido modificando. Otra cosa es que no lo hayamos hecho adecuadamente. Son numerosas cuestiones. Estoy dando vueltas sobre lo mismo. Cuando ustedes me preguntan sobre el ámbito laboral, que yo no soy experta, o de vigilancia epidemiológica, normalmente, no se pueden cruzar este tipo de informaciones, precisamente, para asegurar que se protege. Pero claro, el tema de que no tengamos un sistema interoperable es muy grave. Yo no tengo la respuesta para esto, pero es claramente grave. Es que no podemos. Tenemos una estrategia de inteligencia artificial. Tenemos una estrategia de datos a nivel europeo. Tenemos la apuesta por la innovación y la investigación en inteligencia artificial, y no tenemos (Palabras que no se entienden), pues vamos a seguir dando vueltas sobre el tema uno.
El empresario tiene todo el derecho a controlar a sus trabajadores, hasta cierto punto, como todo.
Claro, creo que la solución que he comentado de unos pasaportes en el ámbito laboral, no me parecen adecuadas, porque es que no tienen validez, además. Lo primero es tratar de asegurar la validez científica.
Tampoco tengo la solución para controlar al turismo, pero sí que es verdad que una aplicación no nos garantiza ni la libertad ni el turismo este verano.
Con respecto a la pregunta que me ha hecho de cómo conjugar la Ley de Protección de Datos y la obligación legal y el interés público, pues viene a ser lo mismo. Es decir, no podemos hablar de derechos. Esto lo ha dicho el supervisor europeo de protección de datos. Se pueden exigir unos derechos, hay un interés colectivo, pero es que estamos anulando, según que ámbitos de derechos.
La videovigilancia es un tema por resolver. Vuelvo también sobre lo mismo. Luego, con respecto a lo que me preguntaban de las residencias y de la situación del triaje, yo lo he querido traer aquí, porque lo hemos trabajado. Desde mi grupo de investigación publicamos un documento sobre esto, porque se discutió mucho todo el tema de la edad, que no debía ser el único criterio. Entonces, por eso lo he querido mencionar, porque, evidentemente, las personas que están en residencias acumulan capas de vulnerabilidad.
Intervenimos mucho a determinadas edades. Sacamos adelante a personas, y luego nos ha pasado lo que nos ha pasado, porque también hay unos criterios, siempre hay un criterio médico, siempre tiene que haber un protocolo, pero no puede basarse únicamente en la edad. Por eso quería aportar más información, siendo el objeto de mi presentación la cuestión más digital.
¿Cómo organizaríamos ─ya para concluir─ la cuestión de la investigación y la innovación? Creo que hay que crear comités de expertos en esto, interdisciplinares y que sepan evaluar. Las propuestas que usted efectúa me parecen interesantes y quizás viables. Pero creo que teniendo lo que tenemos, y siendo además órganos que deben ser independientes y ser interdisciplinares, que antes he hablado de la necesidad de incorporar estos perfiles, creo que hay que mejorar. Hay que mejorar lo que tenemos. No hay que desarrollar tanto nuevas normas, sino aplicar lo que tenemos y mejorar estos procesos.
Nada más. Muchísimas gracias por sus preguntas.

Infórmate de cómo ayudamos a empresas e instituciones

a seguir las comisiones parlamentarias y otros asuntos públicos

aftertitle white