Esta es una historia sobre computadoras: computadoras que se vuelven cada vez más inteligentes porque la gente no puede dejar de hacerlas más inteligentes. Lo que una persona podría dedicar toda su vida a dominar, estos robots pueden hacerlo en un segundo. Esta es la Parte I de una serie de dos partes. La segunda parte está aquí.
Con el auge de la herramienta de lenguaje viral de OpenAI, ChatGPT, la inteligencia artificial ha entrado en la conversación pública como nunca antes. La actual competencia entre gigantes tecnológicos como Microsoft y Google no hará más que acelerar el camino hacia lo que los expertos llaman la «singularidad».
El futuro ya no está en el futuro.
Hasta hace poco, la mayoría de nosotros asociaba la inteligencia artificial con la ciencia ficción. Es mucho más omnipresente de lo que sugiere el actual aumento de entusiasmo. La inteligencia artificial se ha utilizado regularmente durante años y ciertamente no necesita un cuerpo físico para funcionar. El asistente de voz de Apple, Siri, por ejemplo, es una forma de IA.
La Internet actual es más vulgar que ingeniosa, y los teléfonos inteligentes ya no son la comidilla de la ciudad. Aunque el iPhone tiene más de 100.000 veces la potencia informática de la nave espacial que llevó a Neil Armstrong a la luna, la tecnología se ha vuelto común. Sin embargo, Vinge predijo que lo que será aún más común es la aceptación de que la IA llegará a dominar a sus creadores.
una maquina pensante
En 1950, Alan Turing publicó un artículo fundamental en el que postulaba que se podría decir que una máquina «piensa» si podría superar su llamado juego de imitación, ahora conocido como Prueba de Turing. Para aprobar, una computadora debe conversar con suficiente naturalidad con alguien para convencer al administrador de la prueba de que también es humano. Aún no se sabe si ChatGPT ha sido aprobado, pero OpenAI ya está a punto de lanzar la próxima versión del robot de lenguaje.
Innovación por innovar
Esto significa que el progreso tecnológico ocurre de manera exponencial, en lugar de lineal, similar a la Ley evolutiva de rendimientos acelerados.
una maquina pensante
En 1950, Alan Turing publicó un artículo fundamental en el que postulaba que se podría decir que una máquina «piensa» si podría superar su llamado juego de imitación, ahora conocido como Prueba de Turing. Para aprobar, una computadora debe conversar con suficiente naturalidad con alguien para convencer al administrador de la prueba de que también es humano. Aún no se sabe si ChatGPT ha sido aprobado, pero OpenAI ya está a punto de lanzar la próxima versión del robot de lenguaje.
Innovación por innovar
Esto significa que el progreso tecnológico ocurre de manera exponencial, en lugar de lineal, similar a la Ley evolutiva de rendimientos acelerados.
La inevitable superinteligencia
Siempre hemos actuado bajo la suposición correcta de que no hay nada en la Tierra más inteligente que nosotros. No solo eso, sino que nuestra percepción incluso de la inteligencia a nivel humano está muy sesgada, como señaló Tim Urban en 2015. Pero la discrepancia real en inteligencia es efectivamente cero, en términos de potencia informática. Eso significa que probablemente ni siquiera nos daremos cuenta del momento en que la IA se vuelva tan inteligente como el ser humano más tonto, porque al mismo tiempo superará a Einstein.
Para una máquina, prácticamente no hay diferencia entre un coeficiente intelectual de 70 y 180. La superinteligencia no será simplemente un programa que pueda procesar información más rápido que una persona. Es poderoso en sí mismo, pero la separación vendría de la calidad de la inteligencia de una computadora. Si de alguna manera pudiéramos darles a los monos una mejora de 500 veces en su velocidad de pensamiento, todavía no demostrarían la inteligencia humana.
Ésa es una pequeña diferencia en la calidad que puede marcar la inteligencia. Por lo tanto, los humanos, a su vez, ni siquiera podrán comprender las creaciones potenciales de una IA altamente inteligente, incluso si intentan enseñarnos sobre ellas. Bostrom explicó que una superinteligencia funcional podría generar espontáneamente objetivos como la autoconservación y la mejora cognitiva. Ésta es la idea de «superación personal recursiva», cuando un programa puede realizar ajustes para mejorar su propia inteligencia.
El problema aquí es que una IA de rápido aprendizaje no vería la inteligencia a nivel humano como un hito. Según Bostrom, eso sería una amenaza existencial. «Dentro de treinta años tendremos los medios tecnológicos para crear una inteligencia sobrehumana», escribió Vinge hace treinta años.
Se conforman con un papel secundario, o algo peor
En un artículo de 1965, Irving John Good describió la Explosión de la Inteligencia como el momento en el que la IA va más allá de la inteligencia humana. Esto ilustra la Ley de Aceleración de Renderizado en un grado extremo. Simplemente no tenemos el estado de ánimo para comprender las implicaciones. Nuevamente, si simples mortales lograran inventar el colisionador de hadrones y el wifi, piensen que podrían construir algo 1000 veces más inteligente.
A Bostrom le preocupa que no tengamos la previsión o la capacidad de programar esta cosa súper inteligente para informarnos de sus decisiones. En el mejor de los casos, podríamos encontrarnos tocando un violín suave, casi como un animal doméstico, para una entidad supe inteligente. El hecho es que las especies más inteligentes de la Tierra siempre han sido las más poderosas. «No sabemos cuándo se producirá la explosión, aunque si nos acercamos el dispositivo a los oídos podemos escuchar un leve chasquido».