Showing posts with label máquinas inteligentes. Show all posts
Showing posts with label máquinas inteligentes. Show all posts

Monday, July 26, 2010

¿Máquinas capaces de soñar?

maquinas-robots-inteligentes-inteligencia-artificial-ia.jpg
¿Cuándo deberemos considerar inteligente a un ordenador? ¿Cuando lo parezca? Ese es el famoso test de Turing para máquinas presuntamente pensantes, formulado en los años cincuenta por el matemático británico Alan Turing, uno de los grandes pioneros de las ciencias de la computación.

Pero a todo el mundo le parecían inteligentes los jugadores de ajedrez hasta la aparición de Deep Blue. Y que este ingenio de IBM igualara a Gary Kaspárov ha hecho más por empeorar la imagen de los ajedrecistas que por mejorar la de los ordenadores.

Sin embargo, las máquinas ya hacen ciencia en varios sentidos. Un especialista en cáncer no podría seguir la literatura relevante para su campo ni aunque no hiciera otra cosa en todo el día: ahora mismo son dos millones de papers (artículos en revistas científicas revisadas por pares) y 200 millones de webs. Los ordenadores llevan tiempo siendo esenciales para analizar esos datos.

Pero los nuevos programas utilizan los avances de la inteligencia artificial y empiezan a trascender del análisis a la hipótesis. Las máquinas sí pueden leer toda la literatura relevante, y la integran con los datos experimentales, buscando pautas y relaciones lógicas.

Los científicos han utilizado estas ayudas computacionales en la investigación de fármacos, la asignación de funciones a los miles de nuevos genes que salen a diario de los secuenciadores de ADN, la identificación de todos los elementos de una ruta de reacciones metabólicas, y la detección de inconsistencias lógicas en un argumento.

Los ordenadores ya se hacen preguntas como: ¿qué idea no se les ha ocurrido a los especialistas en este campo? A veces el concepto clave está en otra disciplina científica distinta. Los últimos programas utilizan los avances de la inteligencia artificial para formular nuevas hipótesis sobre el sistema.

La mera idea de que las máquinas puedan formular hipótesis habría hecho derramar todos los cafés del Círculo de Viena, el selecto grupo de científicos y filósofos de la ciencia -Carnap, Gödel, Ayer, Reichenbach- que formuló en los años veinte el empirismo lógico, o neopositivismo. Su nombre completo era Círculo de Viena para la Concepción Científica del Mundo.

Según uno de sus miembros más destacados, el filósofo Hans Reichenbach -que murió cuando se descubrió la doble hélice-, se pueden formular reglas que permitan descartar o confirmar una hipótesis, pero no reglas que permitan formularla.

Lo que le llevó a esa concesión fueron los descubrimientos debidos a golpes súbitos de imaginación y, muy en particular, la hipótesis de Kekulé.

Kekulé estaba seguro de que los compuestos orgánicos se basaban en cadenas de carbono, pero el benceno no le cuadraba en el esquema.

Faltaban dos átomos de hidrógeno. Después de meses de desesperación, se quedó traspuesto junto a la lumbre y soñó con una serpiente que se mordía la cola, ¡lo que resolvió el enigma! El benceno no era una cadena lineal, sino un anillo, y los dos átomos de hidrógeno ausentes no eran más que el precio químico de juntar los dos cabos. ¿Puede un ordenador soñar algo así?

"No hay duda de que la imaginación científica puede basarse en lógicas aparentemente externas a la ciencia, como la serpiente que se muerde la cola de Kekulé", responde en una entrevista por correo electrónico el sociólogo James Evans, de la Universidad de Chicago.

"Nuestras mentes son sistemas semipermeables, y la investigación psicológica y social indica que es muy probable que tome patrones prestados de la política y la religión, de la estructura física de su entorno, de sus pautas de acción, de sus metáforas y compromisos culturales. Esto hace posible para los científicos considerar de forma fructífera una amplia gama de patrones".

Evans y su colega Andrey Rzhetsky publican en el último número de Science un análisis titulado Machine science (ciencia de máquina), que sostiene que los ordenadores van a generar pronto "muchas hipótesis útiles con poca ayuda de los humanos".

La especialidad académica de Evans es investigar cómo la lógica institucional y sus redes con la industria y el Gobierno conducen a una evolución desigual de la frontera y los beneficios de la ciencia.

"Pero supongamos", prosigue el sociólogo de Chicago, "que al ordenador no solo le alimentamos con una serie de patrones -como el anillo del benceno-, sino también con la lógica para descubrir nuevos patrones.

Por ejemplo, la persistencia del patrón dentro de un dominio, o su frecuencia a través de varios dominios. Entonces el ordenador puede identificar una amplia gama de tipos de patrones, muchos de ellos no previstos por el programador".

En este sentido, Evans cree que incluso Kekulé se quedó corto. "Imaginemos que Kekulé, después de descubrir el anillo del benceno, hubiera dedicado un esfuerzo similar para generalizar su descubrimiento.

No solo a considerar otras clases de moléculas con una estructura similar, sino también cualquier tipo de estructuras arbitrarias de la que se conocen los ingredientes pero no la geometría".

Si los ordenadores están listos para trascender el sueño de Kekulé -y con él la última concesión de Reichenbach a la intervención humana en la investiga-ción-, ¿qué van a hacer los científicos a partir de ahora?

"La generación de hipótesis por ordenador", dice Evans, "invita a los científicos a reconsiderar su filosofía de la ciencia: ver cuáles son las reglas de descubrimiento más fructíferas, y explotarlas a fondo si son robustas. Van a cambiar el papel del científico de buscar relaciones concretas a buscar cuáles son los métodos de descubrimiento más fructíferos, los que podrían revelar automáticamente dichas relaciones concretas".

¿Cómo puede una máquina encontrar una pauta que no está buscando? "Hay dos clases de generación automática de hipótesis", responde Evans. "El primero supone una lógica preestablecida de los conceptos y las relaciones dentro de un campo concreto.

El científico conoce el patrón que busca (por ejemplo, un gen se activa o inhibe otro), y luego usa la computadora para ayudarle a rastrear a través de una gran base de datos en busca de descubrimientos.

Este tipo de descubrimiento se asemeja a la búsqueda de un nuevo elemento para llenar los agujeros en la tabla periódica de Mendeléiev".

Las levaduras sintetizan tres compuestos esenciales (aminoácidos) mediante una red de 25 reacciones químicas interconectadas, cada una catalizada por una proteína. Cada proteína está codificada por un gen, y cada gen se puede inactivar mediante una mutación.

Una levadura mutante es incapaz de multiplicarse en un medio de cultivo, a menos que se le facilite el producto de la reacción química que le falta (o de una reacción posterior).

Un robot programado por Ross King, de la Universidad de Gales, resuelve este tipo de rompecabezas con la misma eficacia que los mejores licenciados humanos en biología y ciencias de la computación. Basta suministrar al robot los reactivos, las 25 cepas mutantes y unos conocimientos básicos sobre el metabolismo de las levaduras para que la máquina descubra la función de los 25 genes.

"Huelga decir que ese enfoque puede descubrir muchas cosas nuevas", admite Evans, "pero por lo general es algo que los investigadores ya estaban buscando. Hay, sin embargo, un segundo tipo de generadores automáticos de hipótesis.

Las estrategias de este segundo tipo han supuesto el descubrimiento -o invención- de conceptos nuevos de alto o bajo nivel. Por ejemplo, en vías metabólicas y sistemas sociales".

Evans explica que los nuevos conceptos trabajan juntos por la integración en un sistema más amplio, "y en su correlación con otras clases importantes de conceptos, como la enfermedad. El término más utilizado actualmente es el de grano grueso y las unidades descubiertas pueden ser bastante nuevas y a menudo inesperadas".

El grano grueso es un concepto tomado de la física. La temperatura de un cazo de agua es una descripción de grano grueso.

La de grano fino consistiría en censar la agitación de todas las moléculas de agua que contiene el cazo (lo que tiene el inconveniente de ser imposible). La temperatura mide el promedio de todas esas agitaciones individuales: una descripción de grano grueso, no sólo posible sino también muy útil, y tan precisa como se quiera.

Los programas actuales pueden identificar la estructura de grano grueso de un sistema, o de cualquier conjunto de cosas. Por ejemplo, el conjunto de conceptos establecidos en medicina interna. De cerca, no es más que una lista de conceptos. Pero vistos con cierta perspectiva -a grano gordo-, la lista puede tener estructura, con grumos de conceptos, o "agregados que forman conceptos de mayor nivel", como escriben en Science los dos investigadores.

En patología y epidemiología, los nuevos programas han podido identificar parecidos regulares entre algunos de esos grumos de conceptos. Aun sin saber a qué se deben esas similitudes de grano grueso, su mera existencia ha resultado un criterio muy útil para restringir drásticamente el número de hipótesis viables sobre la causa de una enfermedad o la evolución de una epidemia.

Evans ve más interesantes "los enfoques automatizados para el descubrimiento de nuevas relaciones, a veces en forma de ecuaciones. Estos sistemas revelan las complejas relaciones que hay entre los elementos dentro de un sistema.

robot-inteligente-inteligencia-artificial-robotica.jpg
Estos enfoques empiezan rastreando al azar las relaciones posibles, pero luego restringen las que deben considerarse más a fondo a aquellas relaciones que integran todo el sistema físico, biológico o social. Creo que el descubrimiento computacional de nuevos conceptos y relaciones pueden permitir a los científicos descubrir algo incluso cuando no lo están buscando".

El año pasado, la Asociación para el Avance de la Inteligencia Artificial reunió a una élite de científicos de la computación para discutir la necesidad de poner límites a la investigación en inteligencia artificial y robótica.

Una de sus preocupaciones es que puedan conducir a la pérdida de control humano sobre las máquinas. Algunas son de guerra, como los zánganos predadores, unas avionetas autónomas que sobrevuelan y atacan por su cuenta; otras abren puertas y buscan enchufes para recargarse a sí mismas o rastrean un territorio como las abejas.

Otra preocupación es precisamente que el avance de la inteligencia artificial transforme de modo drástico el mercado laboral, dado que los robots ya no solo se encargan de tareas rutinarias, como las cadenas de montaje, sino también de quehaceres intelectuales como la ciencia.

Los robots actuales no solo incorporan dispositivos avanzados de visión, oído y tacto, sino que también pueden seguir un rastro olfativo, y ello pese a que las pistas olfativas del mundo real no forman trayectorias continuas, sino que el viento las fragmenta, las esparce y las desordena.

Las trayectorias de estos rastreadores artificiales recuerdan mucho a una polilla buscando pareja. Las polillas buscan pareja siguiendo el rastro de las feromonas.

La computación blanda y la lógica borrosa introducidas por el matemático azerbaiyano iraní Lofti Zadeh, de la Universidad de Berkeley, utilizan redes neuronales (programas que aprenden de la experiencia) y algoritmos genéticos (programas que evolucionan en el tiempo) para diseñar máquinas capaces de aprender a manejar conceptos difusos, como hacemos los humanos.

El lingüista William Labov, fundador de la moderna socio-lingüística, demostró en 1973 que las categorías taza y cuenco son difusas en nuestro cerebro: se solapan una con otra, y su uso depende más del contexto y la experiencia del hablante que del tamaño real del recipiente. Por ejemplo, muchos sujetos del experimento consideraron el mismo recipiente como una taza (si se les decía que contenía café) y como un cuenco (cuando un rato después se les sugirió que servía para comer).

La decisión entre los dos nombres depende a la vez de otros factores: tener un asa, ser de cristal, llevar un plato debajo y exhibir un diámetro creciente de base a boca restan puntos a cuenco y empujan al hablante hacia taza.

En los dispositivos controlados por el cerebro -como las actuales prótesis mecánicas-, las señales emitidas por las neuronas deben ser interpretadas, o descodificadas, por un ordenador antes de poder ser leídas por el miembro artificial. La función del ordenador es predecir los movimientos que el usuario quiere ejecutar.

Los fallos en esos sistemas de predicción suscitan problemas similares a los que se plantea la industria del automóvil respecto a los dispositivos automáticos de conducción, y que son una de las mayores barreras prácticas a su desarrollo industrial: en caso de accidente, ¿tuvo la culpa el hombre o la máquina?

Fuente: ElPais

Thursday, December 31, 2009

A diez años del fallido Y2K


La llegada al año 2000 deparó diversas fantasías a lo largo de la historia , en obras de ciencia ficción, en las series de TV e incluso hasta en frases y dichos de diversas personalidades. Autos voladores, teletransportación, viajes comerciales al espacio son algunos de los avances que la humanidad tendría como beneficio corriente con la llegada del segundo milenio.

Por su parte, el cine no perdió la ocasión para mostrar un futuro apocalíptico dominado por las computadoras. "No sabemos quién atacó primero, si nosotros o ellas", comenta Morfeo en la primera parte de Matrix, con una humanidad esclavizada que cumplía la misión de ser una fuente de energía para todas las máquinas.

Como en Terminator, una película en donde James Cameron relata cómo se sucede la rebelión de las máquinas, la sublevación de la inteligencia artificial creada por el hombre sucede en alguna parte del siglo 21, y no el 1 de enero de 2000.

Durante los años previos, esa fecha mantuvo en vilo al mundo, con la falla informática denominada Y2K, provocada por la costumbre de los programadores de detallar, en el código fuente del software, el año en un formato de dos dígitos. Los potenciales efectos se relacionaban con saber qué pasaría con las máquinas en la medianoche del 31 de diciembre de 1999: si interpretarían el día siguiente como el 1 de enero de 2000 o como el 1 de enero de 1900. En el videoanálisis de Ariel Torres de esta edición podrán ver una recorrida por las repercusiones que tuvo el fallo del año 2000

Para prevenir cualquier inconveniente en los sistemas informatizados, todos los países y empresas privadas establecieron diversos protocolos de contingencia y comisiones para contrarrestar los efectos del año 2000.

Se invirtieron millones de dólares en actualizar sistemas, reemplazar equipos, mantener dotaciones de personal en guardia para prevenir cualquier problema en el sistema financiero, de servicios básicos como el agua, luz y gas. Las redes de telecomunicaciones no estuvieron ajenas a este monitoreo. Todo aquel procedimiento que implicara un sistema informático estaba bajo la lupa del año 2000.

Ante semejante despliegue mundial, durante el proceso previo de las medidas preventivas, que requirió millones de dólares, en el plano local el Y2K tuvo su lado político. La funcionaria Claudia Bello, responsable de llevar a cabo el proyecto de contrarrestar los efectos negativos de la llegada del año 2000, fue acusada de haber adjudicado, sin licitación, contratos por consultoría por 9 millones de dólares.

A nivel mundial, según estimaciones privadas de diversas consultoras, se estima que se gastó entre 300 mil y 600 mil millones de dólares para evitar diversos desastres causados por el Y2K.

El debate sobre la real magnitud del incidente generó diversas posturas. Algunos especialistas opinaron que fue un gasto desmedido de dinero y que se exageró las consecuencias del error informático. Otros, sin embargo, creen que el alerta que tuvo el Y2K generó conciencia entre entidades gubernamentales y privadas, que tomaron las previsiones necesarias para que nada sucediera el primer día del año 2000.

El tiempo no para, y al final llegó el 1 de enero de 2000. En esa fecha el diario LA NACION no salió, y no fue por alguna falla provocada por el Y2K, ya que la edición de dicho día, como sucede de forma habitual, no se imprime.

Sin embargo, al día siguiente la edición detallaba que no hubo ninguna catástrofe informática. Los servicios básicos en diversas partes del mundo .

Todo esto sucedió luego de un impresionante operativo de contingencia , que se generó de forma coordinada tanto desde el Estado como desde las empresas privadas. Las dos compañías fabricantes de aviones más importantes del mundo, Airbus y Boeing, tuvieron que certificar que los sistemas informáticos de sus aeronaves no tendrían problemas en volar durante el 31 de diciembre, como muestra de un proceso que a varias empresas le demandó una previsión de dos o tres años, como lo fue en el caso de Metrogas en la Argentina.

En alguna oficina aún se pueden distinguir en algunas viejas computadoras la etiqueta que certificaba que el equipo se encontraba preparado para el año 2000.

A diez años del Y2K, terminamos el 2009 con conexiones de banda ancha de Internet, redes sociales, celulares inteligentes y computadoras mucho más veloces. El apocalipsis informático no sucedió y, por suerte, no contamos con una rebelión de las máquinas, como lo reflejan en sus películas Cameron y los hermanos Wachowski, aunque restan varios siglos para terminar este milenio.

Fuente: Guillermo Tomoyose - LaNacion