*

X

Noam Chomsky sobre los errores paradigmáticos en el desarrollo de la Inteligencia Artificial

Ciencia

Por: pijamasurf - 11/06/2012

En una extensa entrevista Noam Chomsky señala los posibles errores del desarrollo de la Inteligencia Artificial, que ha seguido un trayecto enfocado sobre todo desde el conductismo, una aproximación que dista mucho de retratar al cerebro humano en toda su complejidad.

La Inteligencia Artificial (comúnmente AI, por sus siglas en inglés) puede mirarse como el espejo en el cual el ser humano busca reconocerse, entender los mecanismos mentales en los que se constituye y fundamenta su esencia. Aunque con aplicaciones prácticas tangibles, determinadas, el verdadero propósito de la AI es casi ontológico: replicar con el mayor grado de precisión posible nuestro cerebro y sus múltiples recursos para revelar el secreto que da sentido a nuestra existencia en este mundo.

Entre estos, sin duda uno de los más importantes es el lenguaje. O quizá el único si tenemos en cuenta esa corriente de pensamiento —tanto filosófica como de otras áreas— que ve en el lenguaje la cifra del ser humano, el elemento verdaderamente constitutivo de su ser. Entre el cerebro y el lenguaje hay una relación tan estrecha que, tautológicamente, es imposible saber si uno podría existir sin el otro. Incluso algunos experimentos con personas que por alguna condición —sordomudos de nacimiento, por ejemplo, o personas de idiomas distintos que, sin conocer lo que habla el otro, se ven forzados a interactuar entre sí constantemente por un periodo amplio de tiempo— han demostrado que el cerebro está programado instintivamente para desarrollar un lenguaje en sus estructuras más elementales, generando espontáneamente los equivalentes de sustantivos y verbos que cualquier idioma posee. De ahí que, al momento de plantear la posibilidad de dispositivos robóticos que imiten al ser humano, el lenguaje sea imposible de soslayar en su

En buena medida esto se supo gracias a los estudios del afamado lingüista Noam Chomsky, quien en la década de los 70 realizó estos y otros experimentos, además de estudiar la estructura de los idiomas, descubriendo que, teóricamente, la idea de un solo idioma subyacente a todos los que se hablan en el mundo, es factible.

En dicha época de su desarrollo intelectual, Chomsky confrontaba directamente los postulados del conductismo, la escuela psicológica fundada por B. F. Skinner que reducía toda la compleja naturaleza humana a un sistema de pesos y contrapesos, a la acción y la reacción que se da entre un estímulo y la respuesta que este provoca. En este marco, el lenguaje era también un mecanismo simple de aprendizaje en el cual una persona lo hacía suyo solo por efecto de la estimulación: conforme el mundo le hacía ver que se llamaba rojo todo lo que tenía este color, entonces el significado de “rojo” se asimilaba, sin mayor proceso de por medio. Las investigaciones de Chomsky demostraron que, por el contrario, además de tratarse de algo mucho más elaborado, el lenguaje y las estructuras cerebrales se pertenecen y se corresponden entre sí, lo cual es tanto o incluso más importante que los estímulos que se reciben socialmente del mundo exterior (para una exposición más detallada, pero todavía introductoria, de esta discusión, recomendamos el capítulo dedicado a Gertrude Stein del libro Proust Was a Neuroscientist de Jonah Lehrer, del cual existe traducción al español)

Por esta razón, Chomsky es también una voz autorizada para hacer notar las fallas en que ha incurrido la Inteligencia Artificial, las razones por las cuales, aunque sin duda ha alcanzado un desarrollo notable, todavía dista mucho de las promesas que la imaginación científica, literaria y cinematográfica ha planteado en diversos momentos de la historia moderna.

Recientemente el sitio The Atlantic publicó una amplia entrevista con Chomsky (conducida por Yarden Katz) sobre este tema, luego de que este participara en el encuentro "Brains, Minds and Machines" organizado en el marco del 150° aniversario del MIT, institución de la cual es profesor. En particular el interés de escuchar el punto de vista de Chomsky radica en que de alguna forma las críticas del conductismo que hiciera hace varias décadas parecen revivir en el ámbito de la AI, en donde, considera, se están aplicando aquellas premisas, salvo por algunas excepciones en que de verdad se intenta recrear la complejidad de los procesos humanos de pensamiento.

La plática transita por varios temas, algunos sin duda poco accesibles para el público no especializado, pero aun así es posible encontrar la perspectiva desde la cual Chomsky juzga el desarrollo de la AI: una que privilegia los fundamentos sobre los efectos, que descubre en el corazón epistémico de la ciencia —la manera en que se genera conocimiento— la determinación del rumbo que toman sus resultados y sus productos.

Supón que quieres predecir el clima de mañana. Una manera de hacer es obtener mis priores estadísticas, si quieres, hay una alta probabilidad de que mañana el clima aquí sea el mismo que el de ayer en Cleveland, así que me quedo con eso, y dónde el sol tendrá cierto efecto, también me quedo con eso, y así obtienes un montó de suposiciones como esa, realizas un experimento, observas una y otra vez, lo corriges con métodos Bayesianos, obtienes mejores priores. Das con una buena aproximación de cómo será el clima de mañana. Eso no es lo que hacen los meteorólogos —ellos quieren entender cómo está funcionando. Y eso son dos conceptos diferentes de lo que significa el éxito, o qué es un logro. En mi propio campo, el del lenguaje, está por todos lados. Como la ciencia cognitiva computacional aplicada al lenguaje, el concepto de éxito que se usa es virtualmente siempre este. Así que entre más y más datos obtienes, y mejores y mejores estadísticas, puedes obtener una mejor y mejor aproximación a un inmenso corpus de texto, como todo en los archivos del Wall Street Journal —pero no aprendes nada sobre el lenguaje.

Una aproximación muy diferente, que pienso que es la correcta, es intentar ver si puedes entender cuáles son los principios fundamentales y tratar con las propiedades nucleares, y reconocer que en el uso actual, habrá cientos de otras variables interviniendo —como con lo que se ve desde la ventana, que clasificarás para tener mejores aproximaciones, ese es un acercamiento distinto. Estos son solo dos conceptos diferentes de ciencia. El segundo es lo que la ciencia ha sido desde Galileo, la ciencia moderna. La aproximación de datos sin analizar es una suerte de nuevo acercamiento, no totalmente, pues hay cosas como esta en el pasado. Es básicamente un nuevo acercamiento que se ha acelerado con la existencia de memorias masivas, de procesamiento rápido, lo cual permite hacer cosas que no podrías hacer manualmente. Pero pienso que se está llevando a temas como la ciencia cognitiva computacional hacia una dirección de cierta aplicación práctica.

En cierta forma se trata de la aplicación de un algoritmo tras otro, una vasta y fractálica red hecha de algoritmos (“anillos cuyo collar se sella en el anillo de otro collar hecho de anillos”, según definió alguna vez Lacan al lenguaje) en la cual cada paso es el resultado de una serie de causas y consecuencias, ensayos y errores, un sistema tan aparentemente cerrado sobre sí —aunque potencialmente infinito— que de alguna manera es imposible concebirse fuera de él: sea el ser humano o sus creaciones robóticas. ¿O no?

[…] En teoría, porque no sabemos cómo, puedes hablar sobre el nivel neurofisológico, nadie sabe, pero ahí no nivel algorítmico real. Porque no hay cálculo del conocimeinto, es solamente un sistema de conocimiento. Para descubrir la naturaleza del sistema de conocimiento, no hay algoritmo, porque no hay proceso. Puedes usar el sistema de conocimiento, que tendrá un proceso, pero eso es algo diferente.

Pero esa es una actividad fundamentalmente diferente de mí añadiendo pequeños números en mi cabeza, lo cual seguramente tiene algún tipo de algoritmo.

No necesariamente. Hay un algoritmo para el proceso, en ambos casos. Pero no hay algoritmo para el sistema en sí, es un tipo de error de categoría. No preguntas de qué es el proceso definido por los axiomas de Peano y las reglas de la inferencia, no hay proceso. Puede haber un proceso al usarlo. Y podría ser un proceso complicado, y lo mismo es cierto para ti haciendo cálculos. El sistema interno que tienes —para eso, la cuestión del proceso no surge. Pero para tu uso del sistema interno, surge, y tal vez puedas hacer multiplicaciones con cualquier tipo de procedimiento. Como, tal vez, cuando sumas 7 y 6, digamos, un algoritmo es decir “Veamos cuánto toma llegar al 10 —toma 3, ahora dejé fuera al 4, así que tengo que partir del 10 y agregar 4, tengo 14”. Ese es un algoritmo para sumar —es de hecho uno que aprendí en el kindergarten. Es una manera de sumar.

Pero hay otras maneras de sumar, no hay algo como un algoritmo correcto. Estos son algoritmos para llevar a cabo el proceso del sistema cognitivo que está en tu cabeza. Y para este sistema no preguntas sobre los algoritmos. Puedes preguntar sobre el nivel computacional, puedes preguntar sobre el nivel mecánico, pero el nivel del algoritmo no existe para ese sistema. Es lo mismo con el lenguaje. Hay algún sistema ahí dentro que determina el sonido y el significado de un conjunto infinito de oraciones posibles. Pero no hay pregunta sobre qué es un algoritmo. Como no hay pregunta sobre lo que un sistema formal de aritmética te dice sobre la comprobación de teoremas. El uso de un sistema es un proceso y puedes estudiarlo en términos del nivel de Marr. Pero es importante tener conceptualmente claras estas distinciones.

Por otro lado y con ciertas resonancias de sus críticas al conductismo, Chomsky señala lo difícil que resulta hacer simple la oposición entre externalización e internalización, la expresión de un pensamiento y la gestación de ese pensamiento. Un poco a la manera de Wittgenstein y su noción de “lenguaje privado”, imposible en la medida en que las estructuras de dicho lenguaje se tomaban del medio, de las que la sociedad había formado históricamente, no de una creación original y personal ex nihil.

“Un ser humano infantil entiende más de lo que puede producir”, dice Chomsky, una observación que plantea la duda de si la evolución del pensamiento también debería ser parte importante de la Inteligencia Artificial. Y no se trata solo de ese aprendizaje conductista que se denomina con el pomposo término de lo “intuitivo”, sino de una cualidad mucho más amplia, de mayor alcance, capaz de generar conclusiones por sí misma en función de lo que percibe pero, quizá, en ese momento no entiende, una suerte de experiencia cognitiva que la acerque paulatina pero sostenidamente a la perfección, libre como estará de las limitaciones propias del ser humano.

La entrevista completa a Noam Chomsky en The Atlantic.

Te podría interesar:

El nacimiento de estrellas está por detenerse en el universo

Ciencia

Por: pijamasurf - 11/06/2012

En un diagnóstico que suena un tanto desolador, un equipo internacional de astrónomos asegura que todas las estrellas que pudieran existir en el universo prácticamente han terminado de nacer.

“Toda la acción en el universo ocurrió hace billones de años”: esa es la conclusión de un equipo internacional de astrónomos que asegura que el nacimiento de estrellas en el universo puede estar llegando a su fin, es decir, que en los siguientes años habrá cada vez menos estrellas nuevas.

Los científicos utilizaron tres telescopios para llegar a esta conclusión: dos que se encuentran en Hawái, el Telescopio Infrarrojo del Reino Unido y el Telescopio Subaru, y uno más que se encuentra en Chile, el Very Large Telescope, con los cuales estudiaron la formación de estrellas desde los primeros días del universo.

Con estos dispositivos se rastrearon las partículas alfa que emiten los átomos de hidrógeno asociados con la formación de estrellas, en distintos puntos que representan momentos con una antigüedad de 2, 4, 6 y 9 mil millones de años, integrando así la mayor muestra jamás obtenida en estudios similares.

Extrapolando los datos, el equipo encontró que la mitad de las estrellas alguna vez existentes nacieron en un periodo de entre 9 y 11 mil millones de años atrás, mientras que la otra mitad surgió en el periodo siguiente y hasta la actualidad. Esto significa que la tasa de nacimiento estelar cayó drásticamente al grado de que, si esta se mantiene, en este momento ha nacido ya el 95% de todas las estrellas que pudieran poblar el cosmos. Explica David Sobral, responsable del estudio:

La producción de estrellas en el universo, como un todo, ha declinado constantemente en los últimos 11 mil millones de años: hoy es 30 veces menor que en el posible pico de hace 11 mil millones de años. Si esta tendencia continúa, no habrá más de 5% más estrellas en el universo. Claramente vivimos en un universo dominado por estrellas viejas. ¡Toda la acción en el universo ocurrió hace billones de años!

Quizá, si la tecnología de exploración espacial sigue avanzando, el ser humano atestigüe el último nacimiento de una estrella en el universo.

[Wired]