Showing posts with label inteligencia artificial. Show all posts
Showing posts with label inteligencia artificial. Show all posts

Monday, July 26, 2010

¿Máquinas capaces de soñar?

maquinas-robots-inteligentes-inteligencia-artificial-ia.jpg
¿Cuándo deberemos considerar inteligente a un ordenador? ¿Cuando lo parezca? Ese es el famoso test de Turing para máquinas presuntamente pensantes, formulado en los años cincuenta por el matemático británico Alan Turing, uno de los grandes pioneros de las ciencias de la computación.

Pero a todo el mundo le parecían inteligentes los jugadores de ajedrez hasta la aparición de Deep Blue. Y que este ingenio de IBM igualara a Gary Kaspárov ha hecho más por empeorar la imagen de los ajedrecistas que por mejorar la de los ordenadores.

Sin embargo, las máquinas ya hacen ciencia en varios sentidos. Un especialista en cáncer no podría seguir la literatura relevante para su campo ni aunque no hiciera otra cosa en todo el día: ahora mismo son dos millones de papers (artículos en revistas científicas revisadas por pares) y 200 millones de webs. Los ordenadores llevan tiempo siendo esenciales para analizar esos datos.

Pero los nuevos programas utilizan los avances de la inteligencia artificial y empiezan a trascender del análisis a la hipótesis. Las máquinas sí pueden leer toda la literatura relevante, y la integran con los datos experimentales, buscando pautas y relaciones lógicas.

Los científicos han utilizado estas ayudas computacionales en la investigación de fármacos, la asignación de funciones a los miles de nuevos genes que salen a diario de los secuenciadores de ADN, la identificación de todos los elementos de una ruta de reacciones metabólicas, y la detección de inconsistencias lógicas en un argumento.

Los ordenadores ya se hacen preguntas como: ¿qué idea no se les ha ocurrido a los especialistas en este campo? A veces el concepto clave está en otra disciplina científica distinta. Los últimos programas utilizan los avances de la inteligencia artificial para formular nuevas hipótesis sobre el sistema.

La mera idea de que las máquinas puedan formular hipótesis habría hecho derramar todos los cafés del Círculo de Viena, el selecto grupo de científicos y filósofos de la ciencia -Carnap, Gödel, Ayer, Reichenbach- que formuló en los años veinte el empirismo lógico, o neopositivismo. Su nombre completo era Círculo de Viena para la Concepción Científica del Mundo.

Según uno de sus miembros más destacados, el filósofo Hans Reichenbach -que murió cuando se descubrió la doble hélice-, se pueden formular reglas que permitan descartar o confirmar una hipótesis, pero no reglas que permitan formularla.

Lo que le llevó a esa concesión fueron los descubrimientos debidos a golpes súbitos de imaginación y, muy en particular, la hipótesis de Kekulé.

Kekulé estaba seguro de que los compuestos orgánicos se basaban en cadenas de carbono, pero el benceno no le cuadraba en el esquema.

Faltaban dos átomos de hidrógeno. Después de meses de desesperación, se quedó traspuesto junto a la lumbre y soñó con una serpiente que se mordía la cola, ¡lo que resolvió el enigma! El benceno no era una cadena lineal, sino un anillo, y los dos átomos de hidrógeno ausentes no eran más que el precio químico de juntar los dos cabos. ¿Puede un ordenador soñar algo así?

"No hay duda de que la imaginación científica puede basarse en lógicas aparentemente externas a la ciencia, como la serpiente que se muerde la cola de Kekulé", responde en una entrevista por correo electrónico el sociólogo James Evans, de la Universidad de Chicago.

"Nuestras mentes son sistemas semipermeables, y la investigación psicológica y social indica que es muy probable que tome patrones prestados de la política y la religión, de la estructura física de su entorno, de sus pautas de acción, de sus metáforas y compromisos culturales. Esto hace posible para los científicos considerar de forma fructífera una amplia gama de patrones".

Evans y su colega Andrey Rzhetsky publican en el último número de Science un análisis titulado Machine science (ciencia de máquina), que sostiene que los ordenadores van a generar pronto "muchas hipótesis útiles con poca ayuda de los humanos".

La especialidad académica de Evans es investigar cómo la lógica institucional y sus redes con la industria y el Gobierno conducen a una evolución desigual de la frontera y los beneficios de la ciencia.

"Pero supongamos", prosigue el sociólogo de Chicago, "que al ordenador no solo le alimentamos con una serie de patrones -como el anillo del benceno-, sino también con la lógica para descubrir nuevos patrones.

Por ejemplo, la persistencia del patrón dentro de un dominio, o su frecuencia a través de varios dominios. Entonces el ordenador puede identificar una amplia gama de tipos de patrones, muchos de ellos no previstos por el programador".

En este sentido, Evans cree que incluso Kekulé se quedó corto. "Imaginemos que Kekulé, después de descubrir el anillo del benceno, hubiera dedicado un esfuerzo similar para generalizar su descubrimiento.

No solo a considerar otras clases de moléculas con una estructura similar, sino también cualquier tipo de estructuras arbitrarias de la que se conocen los ingredientes pero no la geometría".

Si los ordenadores están listos para trascender el sueño de Kekulé -y con él la última concesión de Reichenbach a la intervención humana en la investiga-ción-, ¿qué van a hacer los científicos a partir de ahora?

"La generación de hipótesis por ordenador", dice Evans, "invita a los científicos a reconsiderar su filosofía de la ciencia: ver cuáles son las reglas de descubrimiento más fructíferas, y explotarlas a fondo si son robustas. Van a cambiar el papel del científico de buscar relaciones concretas a buscar cuáles son los métodos de descubrimiento más fructíferos, los que podrían revelar automáticamente dichas relaciones concretas".

¿Cómo puede una máquina encontrar una pauta que no está buscando? "Hay dos clases de generación automática de hipótesis", responde Evans. "El primero supone una lógica preestablecida de los conceptos y las relaciones dentro de un campo concreto.

El científico conoce el patrón que busca (por ejemplo, un gen se activa o inhibe otro), y luego usa la computadora para ayudarle a rastrear a través de una gran base de datos en busca de descubrimientos.

Este tipo de descubrimiento se asemeja a la búsqueda de un nuevo elemento para llenar los agujeros en la tabla periódica de Mendeléiev".

Las levaduras sintetizan tres compuestos esenciales (aminoácidos) mediante una red de 25 reacciones químicas interconectadas, cada una catalizada por una proteína. Cada proteína está codificada por un gen, y cada gen se puede inactivar mediante una mutación.

Una levadura mutante es incapaz de multiplicarse en un medio de cultivo, a menos que se le facilite el producto de la reacción química que le falta (o de una reacción posterior).

Un robot programado por Ross King, de la Universidad de Gales, resuelve este tipo de rompecabezas con la misma eficacia que los mejores licenciados humanos en biología y ciencias de la computación. Basta suministrar al robot los reactivos, las 25 cepas mutantes y unos conocimientos básicos sobre el metabolismo de las levaduras para que la máquina descubra la función de los 25 genes.

"Huelga decir que ese enfoque puede descubrir muchas cosas nuevas", admite Evans, "pero por lo general es algo que los investigadores ya estaban buscando. Hay, sin embargo, un segundo tipo de generadores automáticos de hipótesis.

Las estrategias de este segundo tipo han supuesto el descubrimiento -o invención- de conceptos nuevos de alto o bajo nivel. Por ejemplo, en vías metabólicas y sistemas sociales".

Evans explica que los nuevos conceptos trabajan juntos por la integración en un sistema más amplio, "y en su correlación con otras clases importantes de conceptos, como la enfermedad. El término más utilizado actualmente es el de grano grueso y las unidades descubiertas pueden ser bastante nuevas y a menudo inesperadas".

El grano grueso es un concepto tomado de la física. La temperatura de un cazo de agua es una descripción de grano grueso.

La de grano fino consistiría en censar la agitación de todas las moléculas de agua que contiene el cazo (lo que tiene el inconveniente de ser imposible). La temperatura mide el promedio de todas esas agitaciones individuales: una descripción de grano grueso, no sólo posible sino también muy útil, y tan precisa como se quiera.

Los programas actuales pueden identificar la estructura de grano grueso de un sistema, o de cualquier conjunto de cosas. Por ejemplo, el conjunto de conceptos establecidos en medicina interna. De cerca, no es más que una lista de conceptos. Pero vistos con cierta perspectiva -a grano gordo-, la lista puede tener estructura, con grumos de conceptos, o "agregados que forman conceptos de mayor nivel", como escriben en Science los dos investigadores.

En patología y epidemiología, los nuevos programas han podido identificar parecidos regulares entre algunos de esos grumos de conceptos. Aun sin saber a qué se deben esas similitudes de grano grueso, su mera existencia ha resultado un criterio muy útil para restringir drásticamente el número de hipótesis viables sobre la causa de una enfermedad o la evolución de una epidemia.

Evans ve más interesantes "los enfoques automatizados para el descubrimiento de nuevas relaciones, a veces en forma de ecuaciones. Estos sistemas revelan las complejas relaciones que hay entre los elementos dentro de un sistema.

robot-inteligente-inteligencia-artificial-robotica.jpg
Estos enfoques empiezan rastreando al azar las relaciones posibles, pero luego restringen las que deben considerarse más a fondo a aquellas relaciones que integran todo el sistema físico, biológico o social. Creo que el descubrimiento computacional de nuevos conceptos y relaciones pueden permitir a los científicos descubrir algo incluso cuando no lo están buscando".

El año pasado, la Asociación para el Avance de la Inteligencia Artificial reunió a una élite de científicos de la computación para discutir la necesidad de poner límites a la investigación en inteligencia artificial y robótica.

Una de sus preocupaciones es que puedan conducir a la pérdida de control humano sobre las máquinas. Algunas son de guerra, como los zánganos predadores, unas avionetas autónomas que sobrevuelan y atacan por su cuenta; otras abren puertas y buscan enchufes para recargarse a sí mismas o rastrean un territorio como las abejas.

Otra preocupación es precisamente que el avance de la inteligencia artificial transforme de modo drástico el mercado laboral, dado que los robots ya no solo se encargan de tareas rutinarias, como las cadenas de montaje, sino también de quehaceres intelectuales como la ciencia.

Los robots actuales no solo incorporan dispositivos avanzados de visión, oído y tacto, sino que también pueden seguir un rastro olfativo, y ello pese a que las pistas olfativas del mundo real no forman trayectorias continuas, sino que el viento las fragmenta, las esparce y las desordena.

Las trayectorias de estos rastreadores artificiales recuerdan mucho a una polilla buscando pareja. Las polillas buscan pareja siguiendo el rastro de las feromonas.

La computación blanda y la lógica borrosa introducidas por el matemático azerbaiyano iraní Lofti Zadeh, de la Universidad de Berkeley, utilizan redes neuronales (programas que aprenden de la experiencia) y algoritmos genéticos (programas que evolucionan en el tiempo) para diseñar máquinas capaces de aprender a manejar conceptos difusos, como hacemos los humanos.

El lingüista William Labov, fundador de la moderna socio-lingüística, demostró en 1973 que las categorías taza y cuenco son difusas en nuestro cerebro: se solapan una con otra, y su uso depende más del contexto y la experiencia del hablante que del tamaño real del recipiente. Por ejemplo, muchos sujetos del experimento consideraron el mismo recipiente como una taza (si se les decía que contenía café) y como un cuenco (cuando un rato después se les sugirió que servía para comer).

La decisión entre los dos nombres depende a la vez de otros factores: tener un asa, ser de cristal, llevar un plato debajo y exhibir un diámetro creciente de base a boca restan puntos a cuenco y empujan al hablante hacia taza.

En los dispositivos controlados por el cerebro -como las actuales prótesis mecánicas-, las señales emitidas por las neuronas deben ser interpretadas, o descodificadas, por un ordenador antes de poder ser leídas por el miembro artificial. La función del ordenador es predecir los movimientos que el usuario quiere ejecutar.

Los fallos en esos sistemas de predicción suscitan problemas similares a los que se plantea la industria del automóvil respecto a los dispositivos automáticos de conducción, y que son una de las mayores barreras prácticas a su desarrollo industrial: en caso de accidente, ¿tuvo la culpa el hombre o la máquina?

Fuente: ElPais

Friday, January 15, 2010

Trajes espaciales que utilizan inteligencia artificial


La evolución de las misiones al espacio y las metas que los investigadores se han fijado para alcanzar en este siglo, dependen de la manera en que la tecnología permita equipar a los astronautas. Lo anterior, permitirá que se puedan enviar naves tripuladas para el mejor estudio y comprensión de los fenómenos que ocurren en los nuevos lugares.

Uno de los campos en los que se avanza a grandes pasos es el de los trajes que usarán los enviados a estas misiones. La más reciente innovación ha sido desarrollada por la Universidad de Chicago y se espera que en 50 años la tecnología no sea problema para que los humanos puedan explorar el espacio, informa el sitio Physorg.com.

El modelo en fase de prueba cuenta con un sistema de inteligencia artificial denominado red neuronal Hopfield, cuya principal ventaja es que está programado para comparar los nuevos datos recolectados con otros almacenados previamente y establecer las diferencias, alertando al usuario si es que se está frente a algún objeto novedoso. Esto, permitirá un aumento en las capacidades de los astronautas.

El investigador Patrick McGuire, quien encabeza el proyecto, menciona al respecto de los beneficios de esta tecnología sobre los trajes actuales:

"Dispondríamos de un sistema de inteligencia artificial complejo, con acceso a diferentes bases de datos conteniendo la información recogida antes desde el espacio, que tendría la suficiente capacidad como para razonar acerca de lo que ve de forma similar a la de un humano".

Los trajes podrían detectar todo tipo de ondas, incluyendo las infrarrojas, invisibles para el ojo humano, facilitando el analisis del suelo y las rocas. Esta especie de visión artificial fue probada en España y en Estados Unidos, durante 2009.

Durante el periodo de prueba, los científicos utilizaron cámaras de teléfonos celulares y microscopios digitales para recabar la información; misma que enviaron vía Bluetooth a la red artificial; ésta reconoció el color de cada una de las muestras y estudió las diferencias con otros datos previamente almacenados en su memoria.

Las siguientes pruebas que se realizarán se centrarán en la textura del suelo y las rocas, para saber si esta red artificial es capaz de encontrar las oposiciones al igual que lo hizo con el color. Además se indagará si esta tecnología puede adaptarse a los robots, que se prevé serán quienes inicien la exploración de la superficie de otros planetas.

Fuente: Informador

Tuesday, September 1, 2009

Una disculpa para el matemático que 'cazó' a los nazis

alan turing
alan turing

Una campaña popular solicita que el Gobierno británico rehabilite a Alan Turing, precursor de la inteligencia artificial que se suicidó tras ser condenado por homosexual.

Miles de ciudadanos se han sumado a una campaña para que el Gobierno británico ofrezca una disculpa oficial al matemático Alan Turing (1912-1954), que descifró los códigos de las transmisiones nazis durante la Segunda Guerra Mundial, y que se suicidó tras ser condenado por homosexual. Entre los firmantes de la petición se encuentra el novelista Ian McEwan y el biólogo evolucionista Richard Dawkins, según informa la BBC.

La hazaña de Turing se remonta a los años más crudos de la contienda mundial. Como miembro del entonces secreto equipo de científicos de Bletchley Park, Turing lideró la investigación que descifró los códigos de la máquina Enigma, con la que las fuerzas del Tercer Reich ocultaban las comunicaciones sobre sus maniobras. La tarea de Turing y Bletchley Park fue decisiva para conseguir la derrota de las fuerzas del Eje en 1945.

Pocos años después, sin embargo, la proeza de Turing parecía olvidada. En 1952 fue sometido a un proceso judicial bajo la ley de indecencia pública después de que admitiera haber mantenido una relación sexual con un hombre. El eminente matemático oxoniense fue sometido a castración química experimental y se le retiraron los privilegios oficiales, de manera que tuvo que dejar de trabajar para el Cuartel General de Comunicaciones Gubernamentales (GCHQ, en sus siglas en inglés). Atormentado por el caso, dos años después Turing se suicidó al morder una manzana impregnada de cianuro.

Ahora miles de ciudadanos piden una rehabilitación pública de la figura de Turing. La campaña nace impulsada por el ingeniero informático John Graham-Cumming , que pide una disculpa pública por el trato que recibió el joven matemático después de ser condenado. Incluso ha escrito a la reina Isabel II para proponer que Turing sea investido póstumamente como caballero del Imperio Británico.

El trato que recibió "añadió un insulto y una humillación que al final lo condujeron al suicidio", señala el defensor de los derechos de los homosexuales Peter Tatchell, que también apoya la campaña. "Con la muerte de Turing, el Reino Unido y el mundo perdieron una de sus mentes más brillantes. Se le debe desde hace tiempo una disculpa gubernamental y un exoneración póstuma".


Precursor de la inteligencia artificial

Turing es autor de un ingente legado científico. Además de contribuir a la creación de la máquina Bombe, que descifró los mensajes encriptados por el procesador alemán Enigma durante la Segunda Guerra Mundial, el matemático también hizo contribuciones importantes a los campos emergentes de la inteligencia artificial y la informática. En 1936 estableció los fundamentos conceptuales y filosóficos para el advenimiento de los ordenadores en un influyente ensayo titulado On computable numbers.

Más adelante, en 1950, elaboró una prueba para determinar la inteligencia de una máquina, test que hoy se conoce como la prueba de Turing. Consiste en una conversación escrita entre un ser humano y un ordenador, sin ningún tema prefijado ni orientación por parte del operador del terminal. Para que el ordenador pueda aprobar, el ser humano no debe darse cuenta de que está hablando con una máquina. La prueba se basa en que las conversaciones se rigen por unas reglas muy complejas que no se pueden reducir a un código binario.

La Prueba de Turing está premiada con una recompensa de 100.000 dólares pero todavía nadie la ha conseguido, aunque según los expertos algunos terminales se aproximan a la hazaña.

Tras la guerra Turing formó parte de varias instituciones, incluida la Universidad de Manchester, donde trabajó en el Manchester Mark 1, uno de los primeros ordenadores modernos.

Graham-Cumming admite que es bastante improbable que se produzca una disculpa oficial, dado que Turing no tiene descendientes, pero añade que el verdadero objetivo de la petición es simbólico. "Lo más importante es que la gente oiga hablar de de Alan Turing y se dé cuenta de su increíble impacto en el mundo moderno, y qué terrible fue el impacto de los prejuicios que recibió".

ElPais