Inteligencia artificialSociedad inteligente

¿Y si llega alguna vez la superinteligencia artificial?

Publicado el

Si consiguiéramos crear una IA, el impacto sobre la vida de los seres humanos sería incomparable a cualquier cosa que hayamos conocido.

No es en absoluto algo seguro que podamos crear una inteligencia artificial general de un nivel igual o superior al humano. Incluso admitiendo su posibilidad teórica, podríamos fracasar en el empeño, dadas las dificultades de la tarea, o podríamos renunciar a realizarla por los peligros potenciales que acarrea. No obstante, si consiguiéramos crearla, el impacto sobre la vida de los seres humanos sería incomparable a cualquier cosa que hayamos conocido. Por eso, no está de más explorar algunas posibilidades en el supuesto de que fuera factible su realización. Aclaremos que un sistema de inteligencia artificial capaz de realizar múltiples tareas no sería todavía una inteligencia artificial general (IAG); dicho de otro modo, un sistema capaz de agrupar diferentes algoritmos para conseguir una diversidad de fines, pero siempre los mismos fines y en contextos con una variación limitada, no podría ser considerado aún una IAG. De igual modo, hay que decir que, si alguna vez creamos una IAG, esta podría quedar en un nivel humano o subhumano, y no convertirse en una superinteligencia. Su grado de inteligencia podría además variar en distintas capacidades. Podría ser muy inteligentes para algunas funciones y estar por debajo de la capacidad humana en otras. Además, una IAG no tendría por qué tener la capacidad para crear de forma recursiva inteligencias cada vez mayores, por lo que no tendría por qué darse una explosión de superinteligencia (la famosa singularidad). Finalmente, una IAG superinteligente no tendría por qué ser consciente, ni mucho menos tendría por qué apoderarse del mundo y amenazar la existencia del ser humano, como se refleja en los escenarios más distópicos. Desde hace tiempo algunos autores especulan con una explosión de superinteligencia Desde hace tiempo algunos autores han especulado con la idea de una explosión de superinteligencia, como el matemático Irvin J. Good, que a mediados de los sesenta escribía que una máquina superinteligente sería la última invención que el ser humano necesitaría hacer, siempre que la máquina nos dijera cómo mantenerla bajo control. La idea fue posteriormente recogida por el matemático y escritor Vernor Vinge a principios de los noventa, desarrollada por investigadores en el campo de la robótica y la IA, como Hans Moravec o Marvin Minsky, y popularizada por Ray Kurzweil en su libro de 2005 The Singularity is Near, aunque el que quizás sea el análisis más exhaustivo de dicha idea está en el libro de Nick Bostrom ‘Superintelligence’, publicado en 2014.
Thank you for watching
Es difícil imaginar los cambios que habría que afrontar en caso de tener una superinteligencia así, pero al menos cabe decir que se abriría entonces un elenco de posibilidades, sin que podamos saber cuál sería más probable. En la literatura sobre el tema suelen sugerirse algunas de las siguientes: 1. Las IAGs serán solo dispositivos que los seres humanos podrán usar integrándolos de forma más o menos íntima, pero circunstancial y ocasional, con su propia mente. Al igual que cualquier otra tecnología serán solo un medio para la potenciación del propio ser humano. Su nivel de inteligencia nunca será muy superior a la del humano. 2. Después de crear una o varias IAGs superiores a la inteligencia humana, sabremos cómo mantenerlas confinadas, de modo que nunca interactuarán por sí solas con el mundo exterior y siempre podremos tenerlas a nuestro servicio. Este confinamiento, entre otras cosas, significaría que jamás tendrían acceso a internet ni capacidad de intervención sobre el mundo real, directamente o a través de algún instrumento. Su función sería exclusivamente la de comunicarse con el ser humano (o con algunos seres humanos bien seleccionados y bien vigilados). Quizás el control se consiga haciendo que la supertinteligencia artificial solo pueda contestar a las preguntas mediante un sí o un no, incluso podría contemplarse la posibilidad de conseguir ese control mediante la mejora de la propia inteligencia humana por medios biotecnológicos, como sugiere Bostrom, lo que facilitaría que pudiéramos encontrar nuevos métodos efectivos de confinamiento. Las IAGs superpoderosas podrían conducir al exterminio de nuestra especie 3. Por mucho que se las intente confinar, las IAGs sabrán en algún momento cómo escapar del control humano, dada su superioridad en inteligencia, y serán capaces de crear nuevas IAGs aún superiores a ellas. Esto llevará a que finalmente las máquinas superinteligentes tomen el control de todo en muy poco tiempo. Por otra parte, aunque se creen varias IAGs diferentes, estas no tardarían en fundirse en una sola superinteligencia (aunque distribuida en su localización y funcionamiento), si es que su rendimiento fuese así mayor. Estas IAGs superpoderosas, sin necesidad de experimentar animadversión hacia los humanos, sino simplemente por indiferencia hacia su destino, podrían conducir al exterminio de nuestra especie. 4. Se producirá una estrecha unión simbiótica entre humanos y dispositivos con IAGs, de forma que el resultado final sea una entidad única y nueva: un cíborg superinteligente. Es lo que Harari ha descrito como la creación de la mente extraña (‘weird mind’) y el surgimiento del ‘Homo deus’. Algunos consideran que esta posibilidad es más realista de lo que suele creerse, puesto que sería absurdo pensar que, teniendo IAGs a nuestro alcance, el propio ser humano va a permanecer igual que hasta ahora, sin aprovechar la ocasión de mejorar su propia inteligencia. Otros, sin embargo, consideran muy difícil técnicamente esta integración. El volcado de la mente en una máquina, que sería su versión más extrema, presenta aún problemas mayores.
Predicciones espectaculares
Obviamente, ninguno de los escenarios que acabamos de esbozar puede ser descartado con argumentos definitivos. No obstante, pese a la insistencia con que se repiten, hay que tomar con mucha precaución las predicciones más espectaculares y apocalípticas, que suelen ser las que más atención reciben en los medios de comunicación. Siendo muy improbables, pueden infundir un miedo contraproducente al desarrollo de estas tecnologías. Por otra parte, cualquiera de estos escenarios está sujeto a objeciones que dejan en evidencia la incertidumbre en la que nos movemos. En el primer caso, hay que decir que el cíborg no es un objetivo deseable para muchas personas, que quizás una ciborgización sustancial nunca lo sea para la mayoría de la población, y que la interfaz cerebro-máquina presenta problemas técnicos difíciles de solventar, como ha explicado Bostrom. Con respecto al segundo caso, cabe aducir que una IAG suficientemente inteligente no se podría confinar por mucho tiempo. Podría haber impedimentos definitivos desde un punto de vista computacional para poder controlar por completo a una superinteligencia artificial que fuera de alguna utilidad para los humanos, es decir, un confinamiento total podría ser computacionalmente inviable. Por ejemplo, se ha argumentado que, en analogía con el famoso problema de la parada, no habría un programa capaz determinar en un número finito de pasos si otro programa cualquiera podría dañar al ser humano de alguna forma, por lo que no podría darse un control estricto de la posibilidad de daño. Por otra parte, incluso en el caso de que la superinteligencia artificial quedara siempre subordinada a los humanos, ¿qué pasaría si cae en manos de un terrorista, o un psicópata, o un ciberdelincuente o un tirano? Hay autores, sin embargo, que desconfían de esta visión pesimista y consideran que no tenemos ninguna razón de peso para suponer que el problema del control no podría resolverse. Podría haber impedimentos definitivos desde un punto de vista computacional para poder controlar por completo a una superinteligencia artificial Sobre la tercera posibilidad, se ha dicho en numerosas ocasiones que una IAG no tiene por qué dominar el mundo, puesto que para eso tendría que desarrollar una representación de sí misma (autoconsciencia) y la capacidad para marcarse objetivos de forma autónoma (voluntad). Finalmente, la cuarta posibilidad parece descuidar el hecho de que la integración total, más que potenciar al ser humano, podría transformarlo en algo tan distinto que equivaldría a su aniquilación, con lo cual no parece que sea un escenario apetecible en absoluto y que debamos buscar explícitamente, ni tampoco darlo por inevitable. Es posible que lo que nos traiga el futuro –o mejor dicho, lo que traigamos los seres humanos al futuro con nuestras acciones– sean los escenarios benignos y poco costosos desde el punto de vista de las transformaciones exigidas en los propios seres humanos, como serían el primero y el segundo, pero cabe también la posibilidad de escenarios que despertarían el rechazo de muchas personas porque esos costes ya no serían menores, como sería el cuarto, y, claro está, no puede excluirse por completo la posibilidad de escenarios nefastos para el ser humano, como lo sería el tercero. La cuestión es si podemos controlar el desarrollo de la inteligencia artificial para evitar los peores escenarios y lograr alguno de los mejores.

Fuente: https://blogs.elconfidencial.com/cultura/tribuna/2021-03-23/ia-inteligencia-artificial_3001116/

6 comentarios en “¿Y si llega alguna vez la superinteligencia artificial?

Los comentarios están cerrados.