¿Cómo sería contar con una inteligencia Artificial europea?
11 de diciembre de 2019Esta entrevista fue sometida a un proceso de aprobación por el Ministerio Federal de Educación e Investigación (BMBF) antes de que se nos permitiera publicarla. El texto ha sido redactado y modificado por el BMBF, además de las directrices editoriales habituales de DW. Como tal, el texto no muestra completamente el contenido del audio de la entrevista, grabada el 5 de diciembre de 2019.
DW: Estamos en Berlín en un "Campamento de Inteligencia Artificial" organizado por la Asociación de Informática y el Ministerio Federal de Educación e Investigación de Alemania, donde usted dirige el departamento de "Investigación para la Digitalización y la Innovación".
La inteligencia artificial (IA) está dentro de su área, y todos los presentes son expertos en el campo. Pero la IA es uno de esos temas de los que mucha gente habla, pero pocos realmente entienden, especialmente el público en general. Entonces, ¿De qué sirve un evento como este?
Ina Schieferdecker, doctora en Ingeniería: Siempre debemos considerar la IA en su contexto social. Esto significa que el debate sobre la IA debe incluir perspectivas interdisciplinarias, de modo que los científicos de diferentes disciplinas puedan abordar juntos los desafíos.
Esperamos que eventos como este inspiren ideas creativas que puedan ser implementadas, ya sea en salud, transporte o energía. También esperamos que esas nuevas ideas se comuniquen más allá de eventos de este tipo, y de nuestro "Año de la Ciencia de la Inteligencia Artificial", para que el público pueda comprometerse con ellas.
Sin embargo, hay muchos desafíos en torno a la inteligencia artificial, sobre todo, un cierto temor entre quienes no son expertos. A veces se tiene la sensación de que la IA es un tema controvertido. Pero, ¿qué tan polémico es? ¿Hay aspectos de la IA que es mejor dejar fuera del debate? ¿O aspectos que simplemente no podemos discutir porque no sabemos a dónde va esta tecnología?
Creo que deberíamos discutir todos los aspectos de la IA, incluyendo los temores y preocupaciones de la gente. Debemos encontrar la manera de hacerlo utilizando nuestra experiencia científica para abordar las preguntas, sin descuidar las respuestas emocionales sobre el tema. Y debemos recordar que la tecnología tiene que ser para el bien común. Pero, para que eso funcione, se necesita de un gran esfuerzo de todos.
La discusión es buena. Pero, ¿cuándo veremos decisiones tangibles sobre la IA y las leyes que se pueden hacer cumplir?
En primer lugar, hay que decir que ya estamos viendo la IA en la esfera pública. Se utiliza en los motores de búsqueda, en los medios sociales, o para optimizar el transporte, la movilidad, y existen pautas para ayudarnos a construir IAs de acuerdo a nuestros principios básicos. Pero el proceso está en curso.
Tenemos que asegurarnos de que todos los actores en esta área comprendan los posibles beneficios y riesgos, así como las opciones y responsabilidades que todos tenemos. Así que, en términos de decisiones, no es como si pudiéramos decidir algo hoy, y que mañana ya todo sea diferente. Más bien es como dije, un gran esfuerzo comunitario. Todos tenemos que pensar conscientemente en la IA y tomar medidas, ya sea en la ciencia, la educación o los negocios. Debemos unirnos y crear una IA al estilo europeo.
La gente a menudo describe la IA como una "caja negra", como si algunos pensaran: "No sabemos lo que está sucediendo, ni cómo toman decisiones las IA". Personalmente, creo que los humanos están entre las mayores cajas negras, especialmente en este mismo tema. Es decir, los humanos a menudo actúan o toman decisiones en fracciones de segundo que realmente no entendemos.
Yo veo las cosas de otra manera. A menudo estoy en paneles de discusión y escucho a la gente decir que los algoritmos deben ser transparentes. Y luego vengo con mi título universitario, que me ha permitido desarrollar y entender algoritmos... Pero no creo que todo el mundo tenga que entender la IA. No todo el mundo puede entenderlo. La tecnología debe ser confiable. Por ejemplo, no todos comprendemos cómo funcionan los aviones o cómo flotan en el agua los petroleros gigantes. Por lo tanto, también hemos aprendido a confiar en la tecnología digital.
Eso es lo que tenemos que exigir a los desarrolladores de la IA: que consideren cosas como la seguridad de las personas y nuestros otros principios básicos desde el principio. También necesitamos procesos y herramientas a mano para que, si algo sale mal -y cada sistema técnico tiene sus limitaciones- haya decisiones y recomendaciones inesperadas por parte de las IAs, herramientas que nos ayuden a entender esas decisiones y, si es necesario, a contrarrestar las decisiones que afectan a las personas u organizaciones.
Bueno, eso es precisamente lo que queremos discutir en nuestro programa New Peers Review, que estamos grabando aquí, ¿cuánto necesita saber el público para tomar decisiones informadas? Si se observan las recomendaciones de la Unión Europea sobre una "IA fiable", hay mucho espacio para la interpretación. La UE dice que la IA debe ser humana, legal, y ética. Así que, si vemos los usos militares de la IA, hay muchas cosas que son técnicamente legales, pero que no lo serían en otras áreas de la vida. Eso hace que sea muy difícil para el público tomar decisiones responsables, y saber qué es lo que está votando cuando vota a sus políticos.
Este es un aspecto relevante, pero solo puedo hablar de cuestiones civiles. No quiero hablar de aspectos militares ni expresar mi opinión al respecto.
No, no le estoy pidiendo que haga eso. Simplemente estoy tratando de ilustrar que, aunque nos encanta hablar de los aspectos positivos de la IA, rara vez hablamos de los aspectos negativos. E incluso a nivel comercial, ya sea para comprar un libro o para ver una película, poca gente sabe lo que está sucediendo en segundo plano.
Sí, está bien, pero eso tiene más que ver con los datos personales. Y estamos tratando de lograr una forma de "soberanía de datos" y ofrecer a la gente alternativas a sus Amazon, Google, Instagram... Y tengo que decir que las regulaciones de protección de datos de Europa han hecho una diferencia. Claro, la primera versión ha tenido sus problemas, pero se sigue desarrollando.
La confiable inteligencia artificial de la UE parece que fue impulsada en gran medida por Alemania. ¿Qué tan bien situada está Alemania para hacer que el futuro de la IA en Europa se vea como este país quiere?
En primer lugar, somos muy fuertes en ciencia, y hemos conseguido que la ciencia se incorpore cada vez más a la tecnología. En segundo lugar, nuestros primeros pasos en materia de regulación han ido en la dirección correcta. Y en tercer lugar, pronto ocuparemos la presidencia de la UE [julio-diciembre de 2020] y, cuando lo hagamos, intentaremos unir el potencial de Europa en un esfuerzo por transformar las normas sobre el papel en algo real y útil para los ciudadanos.
La profesora Ina Schieferdecker es directora de "Investigación para la digitalización y la innovación" en el Ministerio Federal de Educación e Investigación de Alemania. Schieferdecker es especialista en informática y ha ocupado puestos académicos en la Universidad Técnica de Berlín y en el Instituto Fraunhofer para Sistemas de Comunicación Abiertos.
The New Peers Review es una coproducción de DW y la Universidad de Strathclyde, de Reino Unido.
(ee/cp)
Deutsche Welle es la emisora internacional de Alemania y produce periodismo independiente en 30 idiomas. Síganos en Facebook | Twitter | YouTube |