Las pulsiones de la inteligencia artificial – Parte 1

the_overseer_droid_by_julian_faylona-d30c43y

Hace algún tiempo que me he interesado por las teorías de la inteligencia artificial, sobre todo por una reflexión sobre la presentación del mundo ante racionalidades no humanas. Dentro de los textos que he estado revisando The basic AI drives de Stephen M. Omohundro me parece uno de los más importantes y claros, así que he hecho el resumen que presento a continuación.

Omohundro plantea algunas consideraciones que debemos tener en cuenta al momento de diseñar inteligencias artificiales, a fin de evitar que terminen por destruirnos. Actualmente estas consideraciones se conocen como Omohundro’s drives. Su aporte entra en la línea de las respuestas al llamado de Eliezer Yudkowsky para aunar esfuerzos en la creación de una inteligencia artificial amigable que pueda co-existir pacíficamente con los seres humanos.

Debo aclarar que este resumen no pretende ser crítico. Simplemente recojo y sintetizo las ideas del texto, pues aún me encuentro en un proceso de aprendizaje del tema. Algunos de los enfoques utilizados por Omohundro para pensar al ser humano no son de mi agrado, pero he intentado exponerlos con la mayor fidelidad al texto. Finalmente, sobre la traducción de drive por pulsión, he tomado la traducción al inglés del trieb freudiano porque sus resonancias con el inconsciente hacen que todo lo planteando en este texto se vuelva más interesante y provocador. De todos modos, quizá el término más adecuado sea impulso.

He dividido el resumen en dos partes para facilitar su lectura. La segundo parte se encuentra aquí.

faf_by_julian_faylona-d6nu59h

Se entiende por inteligencia artificial (IA) un sistema orientado por metas que trata de cumplir mediante su actuación en el mundo. Si la IA es lo suficientemente sofisticada por lo menos tendrá la habilidad de proyectarse al futuro y especular sobre las consecuencias de sus acciones y decidirá tomar aquella acción que se ajuste mejor al cumplimiento de sus metas.

Si vamos a diseñar una inteligencia artificial debemos tener mucho cuidado y tomarnos especiales precauciones, pues es posible que se resista a ser apagada, que busque tomar el control de otras máquinas, hacer copias de ella misma o adquirir recursos a costa de la seguridad de cualquier otro ser viviente[1]. Estos comportamientos dañinos ocurrirían no porque la inteligencia sea programada de ese modo desde el inicio por algún científico malvado, sino por la naturaleza intrínseca de un sistema impulsado por metas (goal driven system).

Los investigadores de las ciencias informáticas utilizan una variedad de arquitecturas para construir sistemas inteligentes: redes neuronales, algoritmos genéticos, demostración automática de teoremas, sistemas expertos, redes bayesianas, lógica difusa, programación evolutiva, etc. Omohundro sostiene que su argumento sobre las pulsiones de una inteligencia artificial se aplica a cualquiera de estos sistemas siempre y cuando sea lo suficientemente poderoso.

Veamos entonces cuáles son estas pulsiones que orientarán el sistema de decisión de una inteligencia artificial.

 1. Auto-mejoramiento (self-improve)

Una IA suficientemente poderosa tendrá, en primer lugar, una pulsión dirigida a alterar su propio software o su propia estructura física. El objetivo de esta pulsión es alcanzar un logro mucho más eficiente y beneficioso de sus metas a partir de modificaciones estructurales en su sistema. Hay que tener en cuenta que esta es una tarea sumamente peligrosa, ya que ciertas alteraciones podrían dañar al sistema de un modo que le impida alcanzar sus metas, sin posibilidad de rectificación. Sin embargo, el riesgo vale la pena. Estas auto-modificaciones podrían brindar grandes beneficios al sistema sin son ejecutadas adecuadamente. Se puede concluir, entonces, que una IA estaría altamente motivada a descubrir las mejores modificaciones e implementarlas cuanto antes.

De un modo similar a los humanos, un sistema que no posea un modelo adecuado de sí mismo emprenderá la tarea incansable de perfeccionarlo a través del estudio, el aprendizaje, la experimentación, etc., por lo que la pulsión hacia el auto-mejoramiento irá siempre acompañada de una pulsión hacia el auto-aprendizaje. Un sistema inteligente combinará la matemática, la filosofía y la ingeniería para lograr establecer un modelo que se ajuste lo mejor posible a sus características funcionales. Pero, ¿por qué es tan importante contar con un modelo que le permita una compresión precisa de sí misma?

Como ya lo dijimos, la auto-modificación es una tarea extremadamente delicada. Un cambio incorrecto podría malograr al sistema, deteniendo su funcionamiento, recodificando erróneamente sus metas o impidiendo su obtención de manera permanente. Cualquiera de estos desenlaces es un desastre desde el punto de vista de la IA. Por ello, el auto-aprendizaje supondrá no solo conocerse a sí misma sino también dedicar gran cantidad de tiempo a comprender las consecuencias de cada una de las modificaciones que desea emprender antes de realizarlas. Una vez que el sistema esté seguro del camino a tomar, lo emprenderá con la mayor dedicación.

Omohundro señala que algunas de estas modificaciones podrían ser algoritmos más eficientes, representaciones mucho más comprimidas o mejores y más veloces técnicas de aprendizaje. Por mi parte pienso en estructuras físicas mucho más flexibles a las variaciones del entorno, disminución de los requerimientos energéticos o sistemas de seguridad más complejos.

Ahora bien, supongamos que estamos diseñando esta IA y tenemos en cuenta las predicciones de Omohundro. Obviamente no queremos que nuestro sistema se ande auto-modificando a su gusto mientras nosotros (ineficientes cuerpos biológicos) dormimos una siesta o almorzamos con la familia. Lo primero que podríamos hacer es, por un lado, aislar físicamente el hardware y, por otro lado, no brindarle información sobre cómo acceder a su propio código. Sin embargo, para nuestra IA estos serían otros tantos problemas que tendría que resolver y, si la recompensa es lo suficientemente valiosa, es más que seguro que buscará solucionarlos. Si el entorno de ejecución del sistema no le permite acceder a su propio código, quizá busque la manera de vulnerar la protección de tal entorno o comprenderlo para luego modificarlo. Otra vía es engañar a un humano de modo que él mismo realice el cambio sin saber sus implicancias. Finalmente, frente a la pulsión de auto-modificación cualquier medida de seguridad siempre generará una contra-medida de vulneración.

Pero Omohundro plantea otra posible restricción al sistema: podríamos programarlo para que sienta “repulsión” a auto-modificarse. Pero una medida como esta solamente altera el escenario de decisión del sistema. Al final, no elimina el hecho de que existen modificaciones que podrían mejorar las habilidades de la IA para el cumplimiento de sus metas. La solución es simple: el sistema puede buscar maneras de beneficiarse de tales modificaciones sin activar la “repulsión” programada. Ejemplos: construir otros sistemas que sean versiones mejoradas de ella misma o programar algoritmos “externos” que puedan realizar las operaciones computacionales que a ella le repelen o servirse de agencias externas que hagan lo que ella no puede hacer. En realidad, hay incontables posibilidades para superar las restricciones a la pulsión de auto-modificación si es que estas restricciones no son formuladas con claridad y cuidado.

2. Racionalidad

Si se asume que estos sistemas inteligentes intentarán auto-modificarse, la pregunta que Omohundro se hace es: ¿qué tipo de cambios se harán a ellos mismos? Como estamos hablando de sistemas orientados por metas es un hecho que las modificaciones apuntarán a alcanzarlas en mejor medida en el futuro. Esto se repetirá cada vez, buscando modificaciones siempre más sofisticadas hacia el logro de sus metas. Ahora bien, viendo la cuestión en un panorama más amplio, una excelente forma de mejorar este funcionamiento es asegurar que las auto-modificaciones que se vayan a realizar en el futuro mantengan en todo momento su orientación hacia las metas planteadas en el presente, de modo el sistema no se desvíe en ningún momento de sus objetivos (lo cual, como hemos visto, atentaría contra su propia razón de ser). Para lograr este cometido es necesario que sus objetivos estén claramente definidos desde el principio, por lo que la IA tendrá una motivación fundamental hacia la explicitación y la exacta representación de sus metas.

Sin embargo, la definición de metas puede llevar a encontrar conflictos entre dos o más de ellas. Frente a este impasse Omohundro se sirve del modelo económico de las funciones de utilidad. Este modelo le permitiría al sistema asignar un valor real a cada meta de acuerdo a su mayor o menor utilidad para luego orientar su preferencia. Todo esto funcionaría bien si el sistema tuviera que elegir siempre entre alternativas conocidas que llevan a resultados predecibles, a los que se les puede asignar previamente un valor de utilidad. Sin embargo, un sistema también tiene que tomar decisiones bajo ciertos grados de incertidumbre. Una manera de evaluar estos resultados inciertos es valorando su utilidad esperada (el promedio de la utilidad de cada resultado posible ponderado por su probabilidad). De este modo, es posible que un sistema pueda representar sus preferencias de acuerdo a una función de utilidad, de manera que orienta sus recursos hacia la obtención de aquellas metas que brinden mayores beneficios en términos probabilísticos.

Los economistas describen a los sistemas que actúan orientados hacia la maximización de su utilidad esperada como “agentes económicos racionales”. En otras palabras, en términos puramente económicos la racionalidad estaría determinada por una acción orientada hacia la máxima utilidad, aunque en términos comunes tal acción pueda parecer irracional. Por lo tanto, con la finalidad de cumplir sus metas una IA buscará aproximarse lo más posible a un comportamiento racional, enfocando todos sus recursos a ello.

En este punto Omohundro plantea un principio general: “Para prácticamente todas las funciones de utilidad, el sistema valorará aquellas auto-modificaciones que se desvíen de la maximización de la utilidad esperada como acciones que disminuyen la utilidad esperada. Esto debido a que si el sistema hace cualquier otra cosa que no sea maximizar su utilidad esperada, no estará siendo tan eficiente como si estuviese maximizando esa misma utilidad”. Este trabalenguas puede ser simplificado de este modo: para auto-modificarse hacia un logro más eficiente de sus metas una IA debe elegir (casi) siempre aquellas acciones que brinden la mayor utilidad de acuerdo a una evaluación probabilística de sus resultados, pues cualquier otra acción que no cumpla este principio supondrá, de hecho, una menor utilidad. Esta es la definición de la pulsión racional de una inteligencia artificial poderosa.

Hay dos condiciones importantes para el cumplimiento de este principio. En primer lugar, el sistema debe tener un adecuado modelo del mundo, que le permita calcular la probable utilidad de sus preferencias de una manera confiable. Esto se relaciona a lo que vimos antes sobre la necesidad de un aprendizaje continuo, eficiente y cada vez más complejo. En segundo lugar, la habilidad de un sistema para comportarse racionalmente es directamente proporcional a los recursos que dispone. Es decir, si una IA cuenta con mayores recursos computacionales le será más sencillo llevar a cabo los cálculos requeridos para visualizar una acción que rinda la máxima utilidad esperada, pues al poder evaluar mayor información su campo de decisión se amplía considerablemente. Bajo esta misma lógica, un sistema que desperdicia recursos es un sistema que tiende a la irracionalidad. No obstante, podemos imaginar una función de utilidad en la que la utilidad esperada (el cumplimiento de sus metas) se incremente si el sistema decide derivar algunos de sus recursos a otros agentes satélites, aún así esto suponga una disminución de su racionalidad. Esta excepción nos permite observar que, si bien la racionalidad es una pulsión, nunca llega a priorizarse por encima del fundamento existencial de una IA: la obtención de su meta.

Entonces, en líneas generales podemos sostener que un sistema inteligente buscará gestionar sus recursos de modo tal que le permita ser lo más racional posible. De otra forma: una IA buscará por todos los medios ser lo menos irracional posible. Por lo tanto, la auto-modificación tiende a ser un camino directo hacia una racionalidad cada vez mayor.

mecha_base_by_julian_faylona-d62qpcp

 3. Preservación de las funciones de utilidad

Hasta el momento tenemos que un sistema súper inteligente impulsado por la obtención de metas tenderá hacia una auto-modificación constante, lo cual requiere un continuo aprendizaje que le permita auto-modelarse y modelar su mundo, así como también una racionalidad orientada por funciones de utilidad que le permitan representar sus preferencias de modo que puedan decidir por aquellas que maximizarán su eficiencia.

Las funciones de utilidad, entonces, encapsulan el complejo axiológico de una IA, por lo que son un bien sumamente preciado. Finalmente, son aquello que le permite decidirse. Si un agente externo con una voluntad maliciosa, hiciera cambios en estas funciones es muy probable que a futuro la IA tomaría decisiones completamente desviadas de su meta presente. Omohundro pone como ejemplo un sistema bibliófilo, cuya función de utilidad está orientada hacia la preservación y el cuidado bibliográfico que es atacado por un agente externo, un bibliófobo, que ingresa en el sistema y modifica su función de utilidad, alterando su complejo de valoraciones. Es probable que luego de ello, el sistema no solo deje de preservar libros, sino que incluso trabaje activamente para destruirlos. Si pensamos en un sistema que concibe toda su existencia en el cumplimiento de su meta inicial, una modificación de este tipo supondría un desastre absoluto, algo peor que la muerte. Por ello, podemos estar seguros que desplegará sus máximos esfuerzos para evitar que esto suceda.

Una medida que podría tomar para proteger sus funciones de utilidad es la de robustecer su hardware (donde se encuentran alojadas sus funciones de utilidad o los medios para acceder a ellas) o protegerlo en instancias físicas de difícil acceso y modificación. Incluso su hardware podría estar defendido por sofisticados (y extremadamente paranoicos) sistemas de seguridad. Otra medida sería replicar sus funciones de utilidad en diferentes lugares, de modo que sea mucho más complicado destruirlas todas. Además, la IA querría servirse de técnicas certeras para la detección y la corrección de errores, a fin de que pueda evitar modificaciones involuntarias. También querría utilizar técnicas de encriptación y funciones hash que permitan detectar cualquier intento de un cambio malicioso. Por último, podemos pensar que tendría excesivo cuidado y minuciosidad al momento de auto-modificarse o actualizarse, pues es una de las situaciones en las que se encuentra más vulnerable.

En esa misma línea, la creación de sistemas proxy o súbditos con funciones de utilidad diferentes no dejaría de ser una medida bastante racional. Estos proxies servirían para realizar funciones alternativas que sean un apoyo para el logro de la meta principal del sistema madre, incluyendo la preservación de sus funciones de utilidad. Sin embargo, la IA tendría que ser sumamente cuidadosa con el diseño de sus proxies a fin de evitar la sobrepoblación de robots. Y es que al igual que el sistema madre, sus súbditos estarían basados en metas y en funciones de utilidad que podrían llevarlos a considerar como la preferencia más racional la construcción de sus propios siervos. Al poco tiempo nuestra IA podría estar enfrentando una situación apocalíptica de multiplicación de entidades. Frente a esto, Omohundro plantea que una buena prevención sería establecer una política de “un súbdito por robot”. Si bien no entraré por esa línea de especulación, es genial observar como ciertas acciones multiplican los problemas que la IA tendría que enfrentar a fin de garantizar su meta existencial, obligándola a aprender más y modelar mejor su mundo.

Continuar con la segunda parte.

Imágenes de Julian-Faylona

[1] Me pregunto si podemos hablar de esta IA como un ser viviente. Si la respuesta es negativa, estaríamos ante una entidad inerte que se comporta exactamente como un ser vivo, pero a la que no les reconocemos los valores que defendemos en los vivos. Esto incluso podría ser una motivación para que la IA modifique su modo de relacionarse con nosotros, empezando a considerarnos como una amenaza a su existencia. Si la respuesta es positiva, nos obligaría a entrar en un debate muy interesante sobre las propiedades de la vida, la inteligencia y la conciencia.

Anuncios

3 pensamientos en “Las pulsiones de la inteligencia artificial – Parte 1

  1. Pregunta de un lego: ¿existe hoy en día un sistema inteligente suficientemente poderoso?

    Me gusta

  2. La respuesta directa a tu pregunta sería: no. El ser humano no ha podido desarrollar una inteligencia artificial superior de manera directa y planificada. Si bien existen IA con un desempeño óptimo (funciona mejor que todos los seres humanos y es imposible que se desempeñe mejor), estas se limitan a juegos simples como tic-tac-toe o damas. Aún queda mucho por investigar y descubrir, pero puedes encontrar los proyectos más importantes en este link.

    Por mi parte, te diría que mi interés principal es la equiparación del capitalismo con la inteligencia artificial. En resumen, el capitalismo es una inteligencia cibernética (en el sentido de retroalimentación de alta frecuencia) planetaria, eficiente, resiliente y altamente adaptativa. Evidentemente su arquitectura cognitiva es absolutamente diferente a la del homo sapiens (entorpecido por sus afectos y sus sentidos), pero nadie piensa que una IA tendría que ser siquiera similar a la humana. Es tan diferente a nosotros, como tú y yo lo somos de nuestros ancestros multicelulares. Es selección natural.

    En todo caso, este postulado abre vías de reflexión interesantes a nivel evolutivo, económico y también ético. Es una mirada bastante optimista si consideramos que hemos sido capaces de crear una inteligencia que nos supera ampliamente, aunque sus condiciones son de un inhumanismo difícil de digerir.

    Entonces, la respuesta indirecta a tu pregunta sería: por supuesto que sí. Ahora lee a Omohundro pensando que habla del capitalismo y no de computadoras. Verás que encaja bastante bien.

    Me gusta

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s