"Es ridículo vivir 100 años y sólo ser capaces de recordar 30 millones de bytes. O sea, menos que un compact disc."
Marvin Minsky
Hace unos días que le doy vueltas a una historia sobre Inteligencia Artificial. Quizá porque vi de nuevo la película de Yo, Robot, en la que me resulta curioso cómo un robot toma consciencia de sí mismo, hasta el punto de no querer morir. Esta idea aparece también en Blade Runner, con su momento cumbre en el monólogo de Rutger Hauer (Roy).
Lo cierto, es que ya tenemos toda la tecnología necesaria para reproducir todos esos androides. El escollo que se encuentra un programador de Inteligencia Artificial es la transformación de programación básica a inteligencia. Esto último implica aprendizaje, mejora continua, anticipación, adaptación, y combinar eso, conductualmente hablando, es complicado de programar.
Pero sin duda, el mayor escollo es que, cuando se haya perfeccionado esa Inteligencia cibernética, esas máquinas serán totalmente identificables (no como en Blade Runner), porque aunque las personas tenemos potencial suficiente como para actuar así, en realidad no lo hacemos. Nos comportamos de una manera mucho más simple: aprendemos poco o nada (ni de nuestras experiencias ni de las de los demás), no nos esforzamos por mejorar (“yo soy así”), no nos anticipamos (tropezamos mil veces con las mismas piedras) y no nos adaptamos al medio.
Nos empeñamos en ser como somos en vez de ser como nos gustaría ser. Pensamos que nuestra programación es inamovible. Que está protegida contra escritura y que “con lo que nos ha tocado nos quedamos”. La idea de buscar la Felicidad no debe ser un objetivo a largo plazo. Debe ser un objetivo diario, aprendiendo de los errores, mejorando, anticipándonos a los hechos y adaptándonos, para ser felices con lo que tenemos al alcance, y no con los sueños lejanos. Podríamos programarnos y reprogramarnos diariamente en función de lo que nos toca, y sin embargo, nos empeñamos en ser infelices.
Cuando los programadores se den cuenta de esto, nuestras calles estarán llenas de máquinas que irán tristes al trabajo, volverán tristes del trabajo. Sufrirán envidias e iras, y tendrán más frustraciones que motivaciones. Serán muy asociales, y no les importará lo que les suceda a otras máquinas de su alrededor. Serán egoístas y frías. Y nosotros nos empeñaremos en decir que están muy mal hechas, porque no parecen humanas. ¿No?
Y tú, ¿qué crees? ¿Soñarán los androides con ovejas eléctricas?