domingo, septiembre 8, 2024
21.3 C
Madrid

IA, ea

"La superinteligencia artificial es algo esperanzador y no amenazador como suele ocurrir en las pelis"

Me he interesado por la inteligencia artificial desde la pregunta de si será la salvación de la humanidad.

Y me pregunto eso porque ésto, petar peta.

Tenemos un planeta superpoblado, que duplicó su población en cien años, de 1850 a 1950, y que solo necesitó cuarenta años más para volver a duplicarla hasta rebasar los cinco mil millones de personas en 1990.

- Publicidad -

Para 2050 la previsión es que seamos unos doce mil millones de habitantes y no parece que la Tierra vaya a poder soportar esa cantidad de voraces demandantes de recursos.

Es de estas cosas que la cuestión no es si habrá un desastre o no (supongo que que ya lo está habiendo, aunque poco a poco), sino cuándo y cómo sucederá.

Y teniendo en cuenta que la gente (y los gobiernos, que es donde está realmente el problema porque son los que tienen que guiar a la gente) en la práctica aún pasan bastante del cambio climático y demás… pues el cuándo sucederá el desastre en forma de hambrunas, guerras por el agua, etc, pinta más pronto que tarde.

- Publicidad -

Por eso para mí la superinteligencia artificial es algo esperanzador y no amenazador como suele ocurrir en las pelis.

Y me parece esperanzador porque pienso que una superinteligencia se dejará de pamplinas y prevendrá el desastre a toda costa poniendo el interés global por encima del interés económico y otros de menor importancia (los gobiernos, de hecho, antes de conformarse pasan por unas elecciones, y claro: si un político habla de ponerse serio con el tema climático, lo que hace es asegurarse de no salir elegido).

El interés por la IA lo he plasmado en leer parcialmente dos de los grandes libros sobre la temática: «Superinteligencia. Caminos, peligros, estrategias», de Nick Bostrom, y «La singularidad está cerca», de Ray Kurzweil.

(La singularidad se refiere al alcance, precisamente, del punto de inflexión en la inteligencia artificial a partir del cual ésta será superior a la humanidad)

Como son dos libros complejos de leer, pronto me centré más en uno y me dio por el primero.

Bostrom no se muestra optimista con la superinteligencia, pero ni siquiera con que se llegue a conseguir en el sentido de una inteligencia superior en todos los ámbitos… aclaración ésta necesaria porque la inteligencia artificial ya es muy superior a la humana en algunas tareas concretas como por ejemplo la capacidad de cálculo matemático, pero no hay ningún robot que supere a un humano inteligente en un compendio de múltiples tareas.

El libro Superinteligencia aborda también la posibilidad de conseguir ésta por otras vías como la genética o selección de embriones, proceso que sería como poco lento. O la implantación de dispositivos artificiales en cerebros humanos, lo cual tendría en último término limitaciones biológicas del estilo a las que ya tenemos ahora como la velocidad de comunicación entre neuronas, que es de unos 200 Hz… mucho menor que la de un procesador de un ordenador convencional (2 GHz).

El camino hacia la superinteligencia debe ser totalmente digital.

Una vía para llegar a ella es la «emulación de cerebro completo», algo así como construir un cerebro electrónico y a partir de éste tratar de mejorarlo; pero también se puede ir directamente hacia la superinteligencia de forma digital sin tratar de imitar nuestro cerebro, y esa es la vía con más posibilidades.

Entre otras ventajas, las mentes digitales no necesitarían de períodos de aprendizaje y podrían copiar y transferir datos casi de inmediato.

Y una superinteligencia podría usar ésta para mejorarse sucesivamente a sí misma (es por eso que podría producirse una «explosión» de inteligencia artificial).

En definitiva, si conseguimos desarrollar máquinas superinteligentes, su superioridad sobre las personas estaría fuera de toda duda… y aquí es donde empiezan los riesgos.

Por ejemplo: si los humanos fuéramos improductivos, y lo seríamos comparados con una superinteligencia ¿Para qué les serviríamos? ¿Nos harían lo que le hacemos nosotros a los animales ahora?

Así, parece peligroso crear humanoides superinteligentes y parece aconsejable confinar la superinteligencia a una máquina sin capacidad para moverse o con ésta limitada… pero incluso en ese caso, si la superinteligencia tiene acceso a Internet, podría ingeniárselas para imponerse de algún modo.

¿Creamos entonces una superinteligencia para luego tenerla limitada y perdernos parte de sus posibilidades?

Aún en el caso de que fuéramos prudentes hasta ese punto de poner limitaciones de movilidad y comunicación a una superinteligencia, ésta podría acabar en manos malintencionadas, como ha ocurrido con todos los avances de la humanidad, y surgir los problemas.

Una inteligencia superior podría desarrollar planes que incluyeran enmascarar sus verdaderas capacidades, hasta verse capaz de implementarlas con seguridad para superar a los humanos y que no la anularan.

¿Podrían hacerse las cosas de modo que esa superinteligencia estuviera controlada y solo en manos de personas responsables, haciendo por ejemplo que la propia máquina, con su superinteligencia, evitara que se la usara mal?

No podemos estar seguros, pero para abordar la cuestión llegamos a otra de las complejidades del asunto: ¿Le implementamos a la máquina una conciencia, o al menos una meta-finalidad-motivación? Es lo que sugería Asimov con las leyes de la robótica.

Estamos ya en terrenos pantanosos.

Imaginemos una posibilidad que nos vale para indicar de forma simplificada por dónde podrían ir ciertas meteduras de pata: si damos a una máquina superinteligente la finalidad o motivación, sin limitaciones, de conseguir la máxima eficacia fabricando alimentos, podría darle por convertirnos a nosotros mismos en alimento.

A cualquier nivel de inteligencia, incluso a la más avanzada, se le puede asignar cualquier finalidad y una máquina no va a tener sentimientos propiamente dichos (o tal vez sí… pero dejemos ahora la filosofía).

Una meta casi segura para la superIA, no obstante, es la de permanecer en el futuro… si bien las máquinas podrían plantearse perpetuarse a base de copias, no como entidades a nivel individual, y podrían por tanto sacrificar parte de su tropa en beneficio de la finalidad que su motivación quisiera conseguir.

(El que no importe la propia integridad, por cierto, ya sabemos que desgraciadamente tiene importantes ventajas para conseguir ciertos objetivos)

Pero incluso si pudiéramos implantar valores a la superIA ¿Qué valores implantar? ¿No podríamos implantar también valores equivocados?

Imaginemos que la superinteligencia hubiera surgido cuando estaba bien vista la esclavitud: se le hubiera implantado ese «valor» a las máquinas.

He puesto un ejemplo muy obvio, pero ¿Los valores occidentales actuales son ya los mejores?

Parece entonces que lo sensato sería dejar a la superinteligencia cierto libre albedrío. O la superIA podría arreglárselas finalmente, como hemos expuesto anteriormente, para sortear las limitaciones que se le hubieran programado e imponerse. Y ahí es donde unos se muestran aterrados con la posibilidad de la llegada de la singularidad de la superinteligencia… pero yo me muestro esperanzado porque ¿No es la inteligencia lo que nos hace «humanos» y nos ha permitido evolucionar?

Pues ea, por mí que llegue la superinteligencia cuanto antes porque, a la vista de cosas como salir elegido democráticamente un personaje como Trump en un país presuntamente muy civilizado… la inteligencia humana ofrece muchas dudas y la cosa va mal para nuestro planeta (y para nosotros, claro).

- Publicidad -
- Publicidad -

ÚLTIMAS NOTICIAS

- Publicidad -

Fiestas patronales en Torrejón de la Calzada: Programación completa

Desde el 5 de septiembre, con los torneos de tute, rana, mus y dominó, hasta el 9...

Almeida fulmina los patinetes de alquiler

El Ayuntamiento de Madrid ha iniciado el procedimiento de revocación de las autorizaciones concedidas a las tres...

El Banco Central Europeo da el visto bueno a la operación de BBVA y Banco Sabadell

BBVA ha recibido la aprobación (no oposición) del Banco Central Europeo (BCE) a su oferta a los...

Ruta de otoño en la Alcarria Madrileña

El verano, aunque en los últimos años cada vez dura más, empieza a despedirse para dar paso...

Guía práctica del curso escolar 2024/25

El curso escolar 2024/25 se ha puesto en marcha en la Comunidad de Madrid en los colegios...

Vuelve el festival ‘Locos x los 80’ a Torrejón con Toreros Muertos, Seguridad Social y Chimo Bayo

Torrejón de Ardoz se prepara para acoger una nueva edición del Festival Locos x los 80, uno...