La IA nunca será como la humana
Por Ramón López de Mantaras. Is Research Professor of the Spanish National Research Council (CSIC) and Director of the Artificial Intelligence Research Institute.
Estamos viviendo una nueva primavera de la inteligencia artificial (IA), y, al igual que en primaveras anteriores, abundan las predicciones de que inteligencias artificiales generales, iguales o superiores a la humana son cuestión de más o menos veinticinco años. Supuestamente, esto nos llevará a lo que se conoce por singularidad tecnológica, momento en que las máquinas, gracias a la inteligencia artificial, lo harán absolutamente todo mucho mejor que nosotros, incluida la propia investigación científica.
La singularidad tecnológica es uno de los pilares de lo que se conoce como posthumanismo, una variante del transhumanismo en la que los humanos seremos obsoletos y reemplazados por superinteligen-cias artificiales. Algunos “gurús” de la singularidad, como Ray Kurzweil, afirman que en el 2045, es decir, dentro de unos 25 años, se alcanzará este nivel de superinteligencia artificial. Estas predicciones contienen una gran dosis de especulación sin bases científicas.
La hipótesis principal es que hay un progreso exponencial en el campo de la inteligencia artificial, lo cual, en mi opinión, es muy discutible. El progreso en computación de altas prestaciones sí que ha seguido, por lo menos hasta ahora, una tendencia exponencial, pero, además, sería imprescindible que hubiera también progreso exponencial en el software de IA. Sin embargo, no es así, más bien todo lo contrario.
Los algoritmos que se usan actualmente en lo que se conoce como aprendizaje profundo (la tendencia actual más exitosa e importante en IA) tienen más de treinta años de antigüedad y, aunque han sido mejorados en algunos aspectos, conceptualmente podemos afirmar que no han progresado significativamente desde entonces. Es innegable que, en los últimos años, ha habido resultados importantes en IA pero ello no ha sido debido a grandes progresos en los algoritmos de IA. El motivo ha sido la disponibilidad de grandes cantidades de datos y de hardware de altas prestaciones para entrenarlos.
Por otra parte, estos resultados han sido exageradamente amplificados por los medios de comunicación –y también por algunos de sus diseñadores–, lo cual ha propiciado la creación de expectativas irreales acerca del estado actual de la IA.
La realidad es que lo que tenemos son “inteligencias” sumamente específicas y limitadas. Focalicémonos, por ejemplo, en el ya mencionado aprendizaje profundo. Esta técnica ha permitido, por ejemplo, que un software llamado AlphaZero haya conseguido, jugando contra sí mismo millones de partidas durante horas, aprender a jugar a Go a unos niveles nunca antes alcanzados superando con creces a los mejores jugadores humanos.
Pues bien, estos sistemas de aprendizaje profundo son sumamente limitados ya que únicamente son capaces de aprender a clasificar patrones analizando enormes cantidades de datos. Aprender es mucho más que detectar patrones. No es exagerado afirmar pues que, de hecho, no aprenden nada en el sentido humano de lo que entendemos por aprender. Es decir que en realidad no saben nada nuevo después de haber sido entrenados para adquirir una competencia. No aprenden incrementalmente ni pueden relacionar lo nuevamente aprendido con lo anteriormente aprendido
¿Cuál es pues el motivo de que hay tanta confusión acerca de la realidad de la IA? En mi opinión, el excesivo antropocentrismo es el principal motivo. Cuando nos informan de logros espectaculares de una IA específica, resolviendo tareas complejas, tendemos a generalizar y atribuimos a la IA la capacidad de hacer prácticamente cualquier cosa que hacemos los seres humanos e incluso de hacerlo mucho mejor.
Creemos que la IA prácticamente no tiene límites pero en realidad lo que tienen los actuales sistemas de IA no es inteligencia sino “habilidades sin comprensión” en el sentido que apunta Daniel Dennett en su libro From bacteria to Bach and back. Es decir, sistemas que pueden llegar a ser muy competentes llevando a cabo tareas específicas como discriminar una serie de elementos en una imagen pero sin comprender absolutamente nada acerca de la naturaleza de tales elementos ni de las propiedades y relaciones entre ellos debido a la ausencia de sentido común. Por ejemplo, pueden identificar una persona frente a una pared pero no saben lo que es una persona ni lo que es una pared ni que las personas no pueden atravesar paredes o que las personas no pueden estar en dos lugares al mismo tiempo.
Es obvio que la inteligencia humana es el referente principal de cara a alcanzar el objetivo último de la IA, es decir, conseguir una IA general, prácticamente indistinguible de la inteligencia humana, pero en mi opinión por muy sofisticada que llegue a ser la IA siempre será distinta de la humana.
Por una parte, porque los seres humanos entendemos las consecuencias de nuestras acciones y decisiones y comprendemos que a menudo es necesario hacer excepciones a las reglas. Los algoritmos son incapaces de todo esto, no entienden nada y son incapaces de hacer excepciones teniendo en cuenta el contexto en el que dichas decisiones tienen que ser tomadas.
Por otra parte, porque el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas interacciones dependen a su vez del cuerpo, en particular, del sistema perceptivo y del sistema motor. Ello, junto al hecho de que las máquinas no siguen, ni seguirán, procesos de socialización y culturización, incide todavía más en el hecho de que, por muy sofisticadas que lleguen a ser, serán inteligencias distintas a las nuestras.
El hecho de ser inteligencias ajenas a la humana y por lo tanto ajenas a los valores y necesidades humanas nos debería hacer reflexionar sobre posibles limitaciones éticas al desarrollo de la inteligencia artificial. En particular, opino que ninguna máquina debería nunca tomar decisiones de forma completamente autónoma o dar consejos que requieran, entre otras cosas, de la sabiduría, producto de experiencias humanas, así como de tener en cuenta valores humanos. En general, cuanta más autonomía demos a los sistemas de IA, más responsabilidad deberíamos exigir a los diseñadores de dichos sistemas de tal forma que cumplan principios legales y éticos.
Una IA no tiene ni objetivos ni deseos propios. La construcción y despliegue de la IA involucra a personas en todas las fases, desde la concepción al diseño del algoritmo, su imple-mentación, entrenamiento, pruebas de concepto y despliegue. Si algo sale mal, el responsable no es el algoritmo, somos nosotros. Todo ello hace que muchos expertos señalemos la necesidad de regular su desarrollo.
Pero, además de regular, es imprescindible educar a los ciudadanos sobre los beneficios y riesgos de las tecnologías inteligentes -que no son los que vemos en las películas de ciencia ficción– dotando a los ciudadanos de las competencias necesarias para controlarlas en lugar de ser controlados por ellas. Necesitamos futuros ciudadanos mucho más informados, con más capacidad para evaluar los riesgos tecnológicos, con mucho más sentido crítico y capaces de hacer valer sus derechos.
Este proceso de formación debe empezar en la escuelas y tener continuación en la universidad. En particular es necesario que los estudiantes de ciencia e ingeniería reciban una formación ética que les permita comprender mejor las implicaciones sociales de las tecnologías que van a desarrollar. Solo si invertimos en educación conseguiremos una sociedad que pueda aprovechar las ventajas de las tecnologías inteligentes minimizando sus riesgos. Los algoritmos no entienden nada; son incapaces de hacer excepciones teniendo en cuenta el contexto.