Tientos cibernéticos#
I’m going to concede that super-intelligence will be real
and I need to devote my remaining life to it.
Phil Wang
§
La inteligencia artificial reemplazará a quienes temen ser reemplazados por ella.
§
Lo más extraño de la inteligencia artificial es que hay quienes, tras dedicar años a la formulación de modelos gigantescos que puedan imitar el habla humana, se horrorizan al comprobar que han creado modelos gigantescos que imitan el habla humana.
§
Las arquitecturas de aprendizaje profundo que subyacen la inteligencia artificial actual están catalizadas por algoritmos compuestos de expresiones matemáticas bastante simples, como la multiplicación de matrices, la diferenciación y las funciones no lineales. Esto por sí mismo no es suficiente para crear una amenaza existencial para la humanidad.
§
Hace cuatro años, cuando escribí sobre desempleo tecnológico, la inmensa mayoría de investigadores creían que las labores artísticas[1] no se podían automatizar porque involucraban «imaginación», «creatividad» y otras cualidades «eminentemente humanas». Hoy, esas mismas personas son las que quieren censurar aquellas inteligencias artificiales que son capaces de generar obras artísticas. De fondo, el mismo falso razonamiento prevalece: creer que el arte se crea ex nihilo con varitas mágicas como el genio y la imaginación, y no mediante el aprendizaje de técnicas concretas y la inspiración tomada de cientos de otras obras.
§
Me imagino que es imposible utilizar el lenguaje, e incluso pensar claramente, para aquellos que se quejan del término «inteligencia artificial». Han de creer que el cálculo infinitesimal se hace con piedritas, que los geómetras van al campo a trabajar con la tierra, y que los filósofos pierden tiempo hablando de gnoseología cuando deberían estar predicando su amor por la sabiduría.
§
La inteligencia humana está determinada por la evolución de la especie y, por ello, especializada en las pocas parcelas de la realidad necesarias para su supervivencia. Lo mismo podemos decir de la inteligencia de cualquier otro animal. Utilizar al humano como vara de medir la inteligencia implica un sesgo evolutivo arbitrario hacia sus realidades cotidianas. Ese sesgo implica también una limitación de nuestra definición de inteligencia, así como de los posibles desarrollos de inteligencias artificiales.
§
El poco conocimiento científico que tenemos sobre la inteligencia y la conciencia no es suficiente para desestimar la idea de que las máquinas puedan ser inteligentes o conscientes. De cualquier forma, los estándares humanos son una metáfora pobre para lo que la inteligencia artificial es, y una limitación para lo que podría ser.
20 de diciembre, 2022
Apéndice
Aquila non capit muscas, pero si ya perdí mi tiempo viendo esto, que al menos valga como advertencia para alguien más: ahí van apuntes críticos a la conferencia de Carlos Madrid sobre inteligencia artificial.
De la misma forma, la historia continuó las siguientes décadas y hasta nuestros días de una manera distinta a como se plantea. En general, son bastante groseros los saltos históricos que se hacen. Al llegar a Deep Blue como único hito específico destacable, diciendo que lo probabilístico inicia en los 90 con redes bayesianas, es todo erróneo: no es cierto que empiece en los 90 (sino 30 años antes), ni es cierto que inicie con redes bayesianas, ni es cierto que la arquitecura bayesiana sea la que hoy se utiliza para los modelos state of the art.
Al poco tiempo, además de aludir a un «pensamiento semiformal» —no sé si alguien sea capaz de explicar con rigor ese término—, agregó algo así como que los humanos se diferencian de las máquinas porque también piensan con «símbolos geométricos y topológicos». ¿Podría explicar exactamente a qué se refiere con eso y por qué eso se diferencia de «pensar lógica o algebraicamente», o por qué eso es inteligente, o por qué eso nos diferencia de las máquinas? ¿Podría además justificar por qué —según él— una máquina no es capaz de representaciones geométricas pero sí algebraicas? Y ya que estamos, ¿de qué naturaleza son entonces las representaciones multidimensionales que aprende un transformer durante el entrenamiento, y en qué sentido no son geométricas las transformaciones de vectores y matrices que lleva a cabo? ¿Qué partes de la geometría son imposibles de formular en términos algebraicos y, de entre ellas, cuáles restringen el desarrollo de la inteligencia?
En cualquier caso, en el ejemplo de la habitación, ¿puede Carlos —o cualquier otro humano viviente o pasado— explicar exactamente qué procesos mentales y operatorios tendría que llevar a cabo la persona dentro de la habitación para que podamos admitir que entiende, comprende y razona? ¿Puede darnos la lista exacta de requisitos necesarios para que se pueda decir que un determinado ente razona o no razona? ¿Cuántos Nobel calcula que necesitaría para poder responder a estas preguntas?
Para ser más claro: no sabemos definir qué procesos psicológicos y neurológicos tienen lugar cuando «entendemos», entonces aludir a esos procesos es impropio, sobre todo para argumentar que las máquinas no los satisfacen. No tenemos un estándar riguroso para definir si los satisfacen o no, y no lo tendremos hasta que no entendamos mejor cómo funciona la inteligencia humana. Mientras tanto, los criterios de distinción son sumamente cuestionables, especialmente cuando nos adentramos en los detalles (como fue el caso de la ponencia).
Poco tiempo después, dice que ChatGPT (y el traductor de Google) devuelven frases frecuentes porque hacen «combinaciones lineales entre vectores». Los modelos son especialmente útiles, entre otras cosas, porque utilizan funciones no lineales, entonces no sé a qué se refiere con esa frase. Los modelos también son especialmente únicos porque no devuelven «frases frecuentes», sino combinaciones muchas veces novedosas que son posibles por los componentes estocásticos que los subyacen (de nuevo: por eso no nos quedamos en Bayes).
Se queja también de que el «programa extrae patrones estadísticos de bits». Según él, ¿cómo entonces tendrían que aprender los modelos a representar objetos para «poder ver» como humanos? Si desde 1959 no se ha demostrado que los animales también ven por patrones, ¿entonces cómo aprenden y cómo ven? ¿Por qué es censurable que la percepción se guíe por patrones? Pero más importante, ¿es siquiera deseable que las máquinas sean exactamente iguales a nosotros? ¿Por qué es tan esencial para la inteligencia que procesen visualmente los fenómenos como nosotros?
Poco tiempo después plantea, como en una suerte de crítica, que las máquinas tienen el problema de inducción y no lidian bien con los cisnes negros. ¿Los humanos ya tienen eso resuelto y por eso son inteligentes?
En suma, Carlos no definió qué entiende por inteligencia (¿y quién puede decir que es capaz de hacerlo?), pero sí negó por razones ambiguas, imprecisas, erróneas, contradictorias y oscuras que las máquinas no son inteligentes. Percibí el afán de decir que la «inteligencia artificial» no es inteligente ni artificial, que es lo mismo que enfadarse porque el «cálculo infinitesimal» no trata de piedritas (calculus) infinitamente pequeñas, o decir que la filosofía es una chapuza porque no se dedica a predicar el amor (philos) a la sabiduría (sophia). No veo a dónde se quiere llegar con ese nivel de análisis terminológico superficial. Y, al final de todo, no se dijo nada sobre los temas verdaderamente interesantes que surgen con estos modelos (como las propiedades emergentes y la originalidad de la que hablaba, o las similitudes y diferencias entre los procesos biológicos y los computacionales, o la pregunta sobre cómo integramos en ellos la comprensión si ni siquiera nosotros sabemos cómo funciona o qué es). Carlos ha dedicado dos horas a tropezarse con razonamientos defectuosos para finalmente decir lo mismo que podría haber dicho cualquiera que haya usado ChatGPT (y entendido a medias cualquier artículo de divulgación sobre el tema): que los modelos no tienen intencionalidad ni razonamiento como los humanos y que, bueno, pues eso, funcionan con esas cosas de Bayes y de probabilidad, algo así, tú me entiendes. No creo que haga falta tropezarse con una historia imprecisa, ni con una caracterización errónea, ni con razonamientos en falso, ni con citas de académicos de conventillo, ni con ciencias todavía inconclusas, ni con alusiones a un término tan ambiguo como «inteligencia», para decir que las máquinas no razonan como nosotros. Al final, para usar su propio giro, no hace falta resolver lo oscuro con lo más oscuro.
PD: Estoy bastante seguro de que Carlos Madrid vio mis comentarios en más de una ocasión, pero nunca respondió ni reaccionó en lo absoluto. Que el lector juzgue por qué.
14 de marzo, 2023
Bibliografía musical