Artículo Luis Meyer
ChatGPT no es solo una curiosidad llamativa. Es también la prueba que acerca al común de la población lo que la tecnología podría cambiar en un futuro no tan lejano. Las enormes capacidades de estas herramientas revolucionarán el mundo, pero también abrirán importantes debates. De hecho, cada vez más voces expertas, en su mayoría de la comunidad científica, reclaman una mayor integración de los valores humanos clásicos en este avance imparable hacia la inteligencia artificial.
La irrupción de ChatGPT ha bajado a la cotidianidad el potencial de la inteligencia artificial (IA) y nos ha permitido comprobar de primera mano hasta qué punto el futuro inmediato va a estar marcado por la disrupción, pero también por la incertidumbre. Las enormes capacidades de la aplicación no son ni una semilla antes de germinar respecto a lo que se avecina. «Hay cuatro categorías, por así decirlo, de dificultad creciente en la IA y nosotros apenas estamos en la primera», recuerda Senén Barro, director científico del CiTIUS-Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela.
«La primera fase, o sea, la actual, es en la que diseñamos inteligencias artificiales para propósitos específicos. Por ejemplo, ChatGPT, que puede, en definitiva, tener un diálogo fluido, rico, creativo y útil en la mayoría de los casos, pero no deja de ser un propósito específico», explica. Es también lo que ocurre con los sistemas que posibilitan los coches autónomos. «Es impresionante, pero, insisto, son desarrollos donde hay mucha intervención humana para orientarlos a propósitos concretos, por muy complejos que sean», especifica el experto. El siguiente paso, como describe Barro, será una IA de propósito general: que no solo tenga un saber muy amplio sobre todo, sino la capacidad de explorar nuevo conocimiento y de aprender de él, así como la de volverse competente en múltiples dominios y ante múltiples problemas, como pueden hacer las personas. «Aún no hemos ido a Marte porque es un reto mayúsculo», ejemplifica. «Sí sabemos que posiblemente lo podremos hacer dentro de veinte o treinta años, pero aún hay muchas incógnitas; y si ya hubiéramos desarrollado esa IA con propósito general, nos ayudaría a resolverlas y a andar ese camino», ejemplifica.
Tras ella llegará una inteligencia equivalente a la humana en todos los sentidos: en la resolución de problemas y en la capacidad de aprender, pero también con un carácter intuitivo. Será emocional. El último paso estará en la singularidad. «Será no solo equivalente a la humana, sino muy superior», aventura Barro. «Podría rediseñar otras inteligencias más competentes que la suya y, una vez superado ese umbral, es complicado saber hasta dónde podrá llegar, pero lo que es seguro es que nos habrá superado con creces», pronostica.
El siguiente paso será una IA de propósito general: que no solo tenga un saber muy amplio, sino la capacidad de explorar nuevo conocimiento y de aprender de él
Ante esta perspectiva, asumida ya por la comunidad tecnóloga y científica, urge más que nunca darle un reenfoque antropocéntrico a los avances tecnológicos: impregnar de valores humanos cada nuevo paso hacia una inteligencia artificial más capaz es clave para que siempre esté a nuestro servicio y no al revés, como advierte Barro. Esta necesidad se materializa en un movimiento que cada vez cobra más adeptos: el tecnohumanismo, que algunos también llaman tecnooptimismo, si bien su sentido no tiene nada que ver con autocomplacencia: es un tipo de activismo para enderezar una carrera tecnológica que, dicen, ya está peligrosamente deshumanizada.
«Para empezar, debemos recuperar la ética en todos esos avances, que ahora monopolizan unas pocas multinacionales tecnológicas sin control», opina Pedro Mújica, que se define como «tecnólogo humanista» y es el fundador de la consultora Wecolab Studio y el responsable de IANética, un proyecto tecnohumanista del Ayuntamiento de Valencia. «No tenemos más que observar lo que hacen con nuestros datos: dicen que los usan para darnos publicidad personalizada, pero en realidad pretenden la ultrapersonalización, lo que nos puede llevar a la individualización total y al aislamiento, y nos impediría unirnos y hacer cosas como sociedad colectiva», añade.
Mújica opina que los legisladores deben pisar el acelerador en este sentido. «La Ley de Regulación de la Inteligencia Artificial en la Comunidad Europea es un gran avance, pero todavía insuficiente», señala. Con todo, ya ha demostrado su eficacia: frenó las pretensiones del Gobierno de Polonia de instaurar un sistema de crédito social, como el que tiene China. «Aun así, las grandes corporaciones siguen sin someterse a una regulación severa. No es casual que surjan iniciativas como el Future of Life Institute –desde el que más de 3.500 científicos alertan de los grandes riesgos existenciales a los que nos pueden llevar avances como el metaverso o Neuralink [un dispositivo capaz de mapear el cerebro] sin un mínimo control–, que no para de reclamar a Bruselas una ley más fuerte sobre inteligencia artificial», indica.
Otros, como Rodrigo Taramona, consultor y divulgador de contenidos sobre el impacto de la tecnología en el comportamiento humano, abogan por el equilibrio. «Hay que encontrar ese punto entre los avances que nos pueden beneficiar muchísimo como sociedad y ser capaces de garantizar un uso ético, que no estén solo en manos de unos pocos, porque esta inteligencia no para de crecer y de sustituir cosas, para empezar, puestos de trabajo», apunta. Los efectos de las noticias falsas –que impulsaron el genocidio en Myanmar o el asalto al Capitolio– muestran, alerta, el potencial pernicioso de la tecnología. «Debería ser un toque de atención que nos convenciera más que nunca de la necesidad de volver a los valores humanistas y aplicarlos en cada avance tecnológico», asegura.
El dominio de la IA impulsa hoy la geopolítica, como lo hicieron en el pasado las religiones o los recursos naturales
Además, el dominio de la IA es hoy lo que impulsa la geopolítica, como lo hicieron en el pasado las religiones o los recursos naturales: la carrera entre China y Estados Unidos por ser la primera potencia no es armamentística, sino tecnológica. «El primer país que tenga una verdadera inteligencia artificial que le permita ser más productivo que el resto, e incluso más avanzado armamentísticamente, será el que tenga el poder», advierte José María Lassalle, director del Foro de Humanismo Tecnológico de ESADE y profesor de Filosofía del Derecho en la Universidad Pontificia de Comillas (ICADE). Aunque Lassalle reniega de catastrofismos y apuesta por «una visión optimista» sobre sus posibilidades, sí aboga por «redefinir el relato de la tecnología y las infraestructuras que está desarrollando». «No basta con interpretar de una manera utópica la capacidad tecnológica si no tenemos en cuenta que ya es un poder en sí misma y que ese poder se asienta sobre una estructura», explica. «Y eso supone que se lleven a cabo reformas que introduzcan mecanismos de justicia, de limitación ética, de redefinición del papel que el ser humano debe desempeñar en el desarrollo de una inteligencia colectiva que sea capaz de compensar el poder que, por ejemplo, la inteligencia artificial está acumulando a la hora de gestionar el mundo en el que vivimos», añade.
En esta línea, Barro propone redefinir un concepto fundamental: «Hace tiempo que pasamos por ser la sociedad del conocimiento, pero ahora estamos un poco más allá: ha llegado la hora de asumir que somos la sociedad de la inteligencia, tanto la humana como la no humana, y solo si tenemos esto claro podremos transformarla en grandes avances que nos beneficien a todos».
Nenhum comentário:
Postar um comentário