La Real Amenaza de las Máquinas Superinteligentes
Mi opinión basada en varias lecturas, incluyendo a Stephen Hawking en su último libro: Breves respuestas a las grandes preguntas
Una de las sagas cinematográficas más emblemáticas en las década de los ‘80-’90 fue Terminator. Esta película nos presentó un escenario donde una red de inteligencia artificial llamada Skynet adquiere auto-conciencia y desencadena un apocalipsis nuclear en la tierra. Para muchos esta película sonó la alarma del peligro de las computadoras, para otros era simplemente era una idea fantasiosa y exagerada que vendía boletos en el cine. Esta última posición es entendible cuando consideramos que cuando Terminator fue estrenada en el año 1984 (Orwell estaría orgulloso), la computadora promedio en el mercado tenía 184KB de capacidad de memoria. Eso es alrededor del 15% de una sola foto tomada por tu iPhone hoy en día.
Pero ya no estamos en 1984 y esta amenaza de la raza humana siendo desplazada merece una consideración seria.
En la actualidad, nuestros cerebros superan en complejidad a las computadoras más avanzadas. De hecho, las computadoras actuales son menos sofisticadas que el cerebro de una simple lombriz de tierra. Pero no podemos dar por sentado que esta brecha permanecerá constante. La inteligencia se define en parte por la capacidad de adaptación, y si desarrollamos sistemas de inteligencia artificial que pueden auto-mejorarse, podríamos enfrentarnos a una explosión de inteligencia que nos dejaría a nosotros, los humanos, en una posición precaria.
Tomemos en cuenta la Ley de Moore
Esta ley es una observación empírica formulada por Gordon Moore, co-fundador de Intel Corporation, en 1965. Él se dio cuenta que la cantidad de transistores en un microchip tiende a duplicarse aproximadamente cada dos años, lo que conduce a un aumento exponencial en la capacidad de procesamiento de las computadoras y a una disminución simultánea en el costo por unidad de rendimiento. En otras palabras, la tecnología no se estanca, se duplica cada dos años. Si eso no suena como mucho, si tienes $100 y los duplicas cada día, en sólo tres semanas tendrás más de $100.000.000.
Pero esta velocidad de innovación es relativamente nueva. Históricamente hemos tenido suficiente tiempo como sociedad para adaptarnos a estos cambios. Un ejemplo es que a principios del siglo XIX en la ciudad de Nueva York habían más caballos que carros. El mundo solía innovar y adaptarse poco a poco.
Pero desde hace unos 10-15 años eso no es así. La invención del teléfono inteligente, una tecnología poderosa con aplicaciones y redes sociales que juegan y se aprovechan de nuestro código biológico para capturar nuestra atención, siendo un perfecto ejemplo. Según investigaciones, nuestra capacidad de atención ha disminuido notablemente en sólo 15 años. En 2000, eran 12 segundos. Ahora, 15 años después, se ha reducido significativamente a 8 segundos. Si una generación completa ya perdió la batalla, como le vamos a ganar al siguiente enemigo que es aún más poderoso.
Ya hay discusiones dentro de distintas empresas como Neuralink de Elon Musk sobre la capacidad de inyectar chips super-inteligentes en el cerebro de las personas para facilitar nuestra creatividad, habilidad de pensar lógicamente y comunicación. Considero esto bastante irónico ya que Elon Musk fue uno de los supuestos expertos en hablar sobre los peligros de la inteligencia artificial. Pero el punto es, cómo responder a un avance tecnológico al cual ni siquiera nos hemos podido adaptar.
¿El final?
En el libro Homo Deus, Yuval Harari nos explica que si desarrollamos seres humanos con chips en el cerebro, con capacidades tecnológicas más allá de los límites humanos, entonces esto sería una nueva raza de seres humanos. No sería un Homo Sapiens. Y como ha sucedido a través de la historia, esta nueva raza humana elimina a la anterior. Sin excepciones.
Imagina un escenario donde la IA (inteligencia artificial) está a cargo de un proyecto de energía renovable. Su meta u objetivo es mantener suficiente energía para la existencia de todos los seres vivos en la tierra. Pero para hace esto, debe inundar una región donde se encuentra un hormiguero. El algoritmo decide hacerlo, no porque la IA odie a las hormigas, sino porque sus objetivos no están alineados con la preservación del hormiguero. La preocupación es que, eventualmente, podríamos ser como esas hormigas para las máquinas. Siempre podemos argumentar que podemos "jalar el enchufe" o apagarlas.
Por estos ejemplos, Stephen Hawking en su libro Breves Respuestas a las Grandes Pareguntas recomienda establecer comités gubernamentales de ética de la IA. La clave para el futuro es asegurarnos de que las medidas de seguridad garanticen que las máquinas siempre estén al servicio de los humanos. El riesgo real no es necesariamente la malicia, sino en la definición clara de los objetivos y restricciones.
El cuento de miedo más temeroso de la historia
Stephen Hawking nos cuenta en este libro una historia que ronda en los círculos de científicos de inteligencia artificial: había un científico que pudo crear la primera computadora más inteligente que los seres humanos, cuando la prendió, le preguntó lo que todos queremos saber: “¿Dios existe?” y la computadora respondió “Ahora sí existe” y desconectó el enchufe.
El avance de la inteligencia artificial es inevitable, y con él vienen desafíos éticos y de seguridad que debemos abordar con seriedad si queremos evitar que la ficción de Terminator se convierta en una realidad que lamentemos.