domingo, 24 de febrero de 2013

Yo, robot


El techno-thriller plagado de efectos especiales I, robot (Yo Robot) se estrenó en verano del 2004 y fue dirigido por Alex Proyas. Se trata de una película ambientada en el futuro, más concretamente el año 2035 y nos muestra una sociedad en la que los robots conviven con los seres humanos de forma natural. La película comienza con la muerte del Dr. Alfred Lenning (James Cromwell), un científico de gran importancia en el campo de la robótica. El encargado de investigar el caso es el agente Del Spooner (Will Smith), un hombre un tanto escéptico en cuanto a la convivencia con los robots. Junto a él, la doctora Susan Calvin (Bridget Moynahan), quien le ayudará a resolver el caso, servirá de contrapunto como defensora de la nueva tecnología. Tanto la obra original de Asimov como la película que nos ocupa están basadas en las tres leyes de la robótica:

1.  Un robot no debe agredir ni hacer daño a un ser humano o, por inacción, permitir que este sufra.
2. Un robot debe obedecer a un ser humano, a no ser que esas órdenes incumplan la 1ª ley.
3. Un robot debe proteger su existencia, sin que esta protección entre en conflicto con la 1ª y 2ª ley.


El conflicto se produce cuando dos de los robots que aparecen en el film, Viki y Sonny, se saltan estas leyes, en el primer caso por pura lógica y en el segundo debido a su programación.
A pesar del título, lo único que comparte con la obra literaria de Isaac Asimov son algunos personajes (El personaje de Spooner fue creado para la película) y lo más importante: las tres leyes de la robótica. Estuvo basado en un script similar que fue hecho en 1995, 'Hardwired', y comparte ideas varias de las obras de Asimov. Sin embargo, el autor declaró que en ninguno se sus libros se había producido una rebelión violenta de robots contra humanos. 
En los libros posteriores de Asimov, éste crea una ley adicional de la robótica: la ley Zeroth, que indica que los robots no deben hacer daño a la humanidad o por inacción permitir daño a la humanidad. Las tres leyes deben cumplirse sin violar la ley de Zeroth.

Centrándonos en los elementos de Inteligencia Artificial que aparecen en la película, podemos distinguirlos según su mayor o menor grado de IA. En un orden de menor a mayor inteligencia artificial, tenemos, en primer lugar, el holograma, un elemento básico que simplemente responde unas determinadas preguntas programadas y que es factible en nuestros días. En segundo lugar, nos encontramos con las máquinas limpiadoras y la de demolición. Estas son algo más avanzadas que el holograma ya que cumplen una tarea específica y poseen capacidad de visión, sin embargo, se trata también de máquinas programadas. En este grupo podríamos incluir también el coche del protagonista, en el que encontramos la conducción automática como elemento de inteligencia artificial y que no dista demasiado de nuestra realidad actual.
En un punto más elevado de inteligencia artificial nos encontramos con los NS-5 y sus versiones anteriores, robots con las tres leyes incluidas que son capaces de imitar el comportamiento humano, aunque estos actúan por pura lógica. Podemos destacar que, entre ellos, la principal diferencia es que la versión más avanzada, los NS-5, tienen un aspecto más similar al de los seres humanos, más humanoide. Otro aspecto a destacar es la reflexión del Dr. Lanning: “¿Por qué cuando los dejamos en la oscuridad, buscan la luz?¿Por qué los robots almacenados en un espacio vacío tienden a agruparse en vez de quedarse solos? ¿Cómo explicamos ese comportamiento? ¿Segmentos aleatorios de código o es algo más?” A pesar de que los robots no tienen sentimientos y actúan, como ya hemos explicado, de acuerdo a las tres leyes, podemos ver en una escena del film cómo los antiguos robots almacenados se agrupan y buscan la luz. Esto se puede relacionar con una serie de asociaciones que realizan los robots para las cuales no estaban programados (Donde haya otros robots, o luz, habrá más posibilidades de encontrar humanos, a quienes es mi deber servir).

En el último punto nos encontramos con Viki (Virtual Interactive Kinetic Intelligence), el ordenador central de la USR, la empresa de robótica, y Sonny, un NS-5 que muestra capacidades muy avanzadas, incluso sentimientos. Si tuviéramos que decidir cual de estos dos tiene una mayor inteligencia artificial podríamos decir que Viki. Expliquemos el por qué.




En el caso de Sonny, vemos a un robot que puede entender las emociones humanas, parece que las siente e incluso sueña. Sin embargo, todo esto se debe a su programación. El Dr. Lenning lo creó con la intención de que fuera capaz de saltarse las tres leyes y le enseñó las emociones humanas. En el mismo sentido, el sueño que Sonny tiene una y otra vez es el sueño que el doctor pretendía que tuviera, es producto de su programación. Por todo esto, tiene la libertad de tomar decisiones y no obedecer a los humanos.
Viki, sin embargo, fue programada de la misma forma que los demás robots para obedecer las tres leyes. No obstante fue ella quien, por procedimientos lógicos, decidió saltarse una de esas leyes para lograr su principal objetivo: proteger a los seres humanos. Podemos ver cómo, a diferencia de Sonny, que fue programado para no obedecer las leyes, Viki representa un punto más de evolución al saltárselas por propia voluntad. Realmente, lo que hace es aplicarlas a un término más extenso (no es lo mismo un humano que la humanidad), problema que se habría resuelto con la ley Zeroth de Asimov, ya que cada ley se aplica a cada caso particular.

Es importante mencionar el hecho de que Viki y los NS-5, se traten de hacer con apariencia humanoide. De este modo, les damos un trato más cercano, y es más fácil hacerse la idea de que supongan una amenaza. Claramente, si los robots de la película hubieran sido pantallas de ordenador con ruedas, el mensaje no hubiera sido igual de poderoso. 
Tras todo esto, conviene analizar lo que todo esto supone en cuanto a la moral y la ética. En la película vemos una sociedad en la que los robots forman parte del día a día tanto como ahora son los móbiles, son algo imprescindible, en un principio creados para facilitar la vida del ser humano pero que han acabado por ocupar casi todos los aspectos de la misma. ¿Debemos permitir esto? Si bien es cierto que en la actualidad nos encontramos muy lejos de conseguir algo así, ya que, hoy en día, la existencia de un robot como los NS-5 es impensable, este es un tema presente constantemente en el campo de la inteligencia artificial. En la película queda claro el peligro de dotar de tantas capacidades a unas máquinas o de depender de ellos. Sin embargo, es algo que nos planteamos mientras la ciencia sigue avanzando, muy poco a poco, en este campo.

domingo, 17 de febrero de 2013

Juegos de guerra (1983)


Juegos de Guerra se trata de una película estadounidense, dirigida por John Badham en el año 1983. Es una película que marcó un antes y un después en lo que a tecnología de computadores se refiere.

Un joven aficionado a los ordenadores llamado David, vio en una revista el anuncio de una empresa de videojuegos, la cual publicitaba una nueva revolución del sistema de jugar hasta entonces conocido. David, utilizando su IMSAI 8800, comenzó a rastrear números de teléfono para adentrarse de lleno en esta empresa y poder jugar y manipular todos y cada uno de estos juegos, pero lo que no sabía el protagonista es que se iba a conectar por error con WOPR, un ordenador que controlaba el sistema de defensa nuclear de EEUU. Una vez conectado a esta máquina, David descubre un juego denominado “Guerra Nuclear Global” y decide probarlo. Al hacerlo, pone en marcha una simulación de un ataque nuclear llevado a cabo tanto por EEUU como por la URSS, lo que origina un revuelo en los dos países, los cuales se ven “atacados” virtualmente por misiles nucleares soviéticos y estadounidenses respectivamente.

Como detalle a esta película, cabe destacar que es un filme basado en hechos reales. El 9 de noviembre de 1979, se disparó la alerta de un ataque nuclear soviético que puso en jaque a todos los sistemas de defensa estadounidenses, destacando que los radares no consiguieron detectar nada, llegando a la conclusión de que se trataba de algún tipo de error informático. Tras una posterior investigación se descubrió que el origen del problema era que se había activado un programa de simulación utilizado para probar los ordenadores.

Con ello se demuestra que las implicaciones de las nuevas tecnologías frente a hechos reales pueden ser beneficiosas o perjudiciales. En Juegos de Guerra, se puede observar un ejemplo de inteligencia artificial con WOPR como protagonista de este tipo de tecnología, siendo una máquina capaz de enfrentarse a unos determinados problemas o mandatos y pudiendo llevarlos a cabo con una limpia resolución. Este tipo de máquinas están habilitadas para ello, siempre y cuando, estos problemas que se le plantean estén programados en su sistema, así como sus posibles soluciones. Fuera de esas acciones, este tipo de ordenadores todavía no son capaces de reconocer otros problemas y de crear sus propias soluciones ante ello, por eso vale la pena destacar que aún la inteligencia artificial no “piensa” como lo haría una mente humana sino que intenta simularla de mejor o peor manera.

La conclusión a todo esto es la de que un ordenador, a día de hoy, no puede aprender por sí mismo, por lo que la inteligencia artificial debe de buscar la manera de que esto ocurra sin tener que llegar a superar los límites morales, éticos y sociales que impiden que una máquina suplante a la mente de las personas. La pregunta es, ¿hay que buscar la manera de conseguirlo o , por el contrario, no hay que hacer nada relevante y hay que dejar que la tecnología siga su transcurso del tiempo, como la propia moraleja de la película indica? Extraño juego. "El único movimiento para ganar es no jugar. (A strange game. The only winning move is not to play)"  

Aquí dejamos unos enlaces a partes de la película que nos han parecido de relevancia a la hora de comentarla y de ver ese poder que tienen determinadas máquinas para enfrentarse a problemas que un humano jamás llegaría a alcanzar o resolver, en contrapartida a lo que hemos enunciado antes de que nunca llegarían a aprender por sí mismas. Éstos serían los pros y los contras de la existencia de máquinas con inteligencia artificial (por el momento).




Evangelion, Inteligencia Artificial.

sábado, 16 de febrero de 2013

¡Bienvenidos a nuestro blog de Inteligencia Artificial!

Somos Laura Alesanco, Rocío Álvarez, Elena Delgado y Ana Luisa Fontela, estudiantes de comunicación audiovisual en la uc3m. Este es nuestro blog en el que comentaremos todas los libros, películas y trabajos que veamos en la asignatura de inteligencia artificial.

"El ser artificial es una realidad de simulacro perfecto con extremidades articuladas, con lenguaje articulado y no carentes de reacciones humanas. Y hasta responde a la memoria de dolor." Inteligencia Artificial, Steven Spielberg.

Evangelion, Inteligencia Artificial.