GEOFFREY
HINTON ANTICIPA QUE LA INTELIGENCIA ARTIFICIAL ESTÁ EN VÍAS DE «TOMAR
DECISIONES AUTÓNOMAS»
Tras años trabajando en la Inteligencia Artificial de Google y sentando
las bases de la misma en todo el mundo, el "padrino de la IA"
abandona Alphabet y alerta de los riesgos y peligros del aprendizaje de las
máquinas.
El pasado lunes, el
británico Geoffrey Hinton sorprendió al mundo al renunciar a
su trabajo en Google después
de más de 10 años. El revuelo mediático que le llevó a ocupar las portadas de
la BBC, New York Times o The Guardian está
justificado. No solo por ser uno de los padres
de la Inteligencia Artificial -hoy en alza con el ChatGPT de
Microsoft o el Sparrow de Google- sino especialmente por su
convencimiento de que, de no poner
freno a estos sistemas, las consecuencias podrían ser
devastadoras.
A mediados de febrero,
publicábamos en Religión en Libertad una conversación mantenida
con ChatGPT sobre aspectos relativos a la fe y la vivencia
de la cultura cristiana y el resultado no fue alentador. La
Inteligencia Artificial no anunció una amenaza que
afectaría "necesariamente" a la fe, pero si plasmó que sus
"parámetros morales", si es que
pudiese tenerlos, son totalmente contrarios a ella: el
aborto, la ideología de género, los "múltiples modelos de familia",
la eutanasia, lo contenido en la leyenda negra o sus principales "fake news" son aspectos que se dan por hecho en su algoritmo.
A estas conclusiones se añaden
ahora las plasmadas por su creador. A sus 75 años, el pionero en la investigación
de redes neuronales y "aprendizaje
profundo" de las maquinas ha cosechado otros hitos tan relevantes
como "dar vida" a Siri, la asistente de IPhone, sentar las bases del coche autónomo o ganar
Premio Turing, considerado el Nobel de la informática.
La "superinteligencia", un riesgo real que podría ser "aterrador"
Por eso la suya es una opinión a
tener en cuenta, especialmente desde que disfruta de la libertad para hablar "sobre los peligros de la Inteligencia
Artificial" sin preocuparse por los efectos que pueda tener
en Google. Y algunos de esos riesgos, declaró estos días a la BBC, "son
bastante aterradores".
Menciona algunos que podrían
afectar al día a día o a la política internacional, como "producir automáticamente textos con información
falsa" o "crear herramientas
que permitan a líderes autoritarios manipular a los electores".
Pero lo que más teme el "progenitor" de la IA es "el riesgo existencial" de que su creación "se vuelva más inteligente" no solo que sus programadores, sino que la
propia humanidad.
"Somos
sistemas biológicos y estos son sistemas digitales. La gran diferencia es que,
con los sistemas digitales, tienes muchas copias del mismo conjunto, del mismo
modelo del mundo, y todas estas copias pueden aprender por separado pero comparten
su conocimiento al instante. Es como si tuviéramos 10.000 personas y
cada vez que una aprende algo, todas las demás lo aprenden automáticamente. Así
es como estos sistemas logran saber mucho más que el resto", explica Hinton.
La primera pregunta que surge
entonces es si la Inteligencia Artificial podría "eclipsar"
a la inteligencia humana.
"No lo
sabemos. En este momento lo que estamos viendo es que Chat GPT-4 -la última
versión- supera a una persona en la cantidad de conocimiento general.
En términos de razonamiento no es tan bueno, pero dado el ritmo de progreso,
creemos que las cosas avanzarán bastante rápido. Tenemos que preocuparnos por
eso. En este momento no son más inteligentes que nosotros, pero
creo que pronto lo serán", afirma.
Desde hace años, Hinton
afirma que "las máquinas serán más inteligentes que los hombres en casi
todo".
"PARECEN
PERSONAS"... E INCLUSO LA SUPERAN
En otra reciente entrevista
concedida a Technology Review,
el "padrino" de la IA comparó los
millones de conexiones neuronales del cerebro humano con el equivalente a
algunos sistemas de inteligencia artificial como la última versión del ChatGPT. El
informático enfatiza que esta versión "sabe cientos de veces más que cualquier
persona" y contempla la posibilidad de que su algoritmo de
aprendizaje sea "mucho mejor" que
el de las propias capacidades humanas.
También menciona la similitud de
algunas características de estos sistemas con la mente que los hacen "parecer personas".
Destaca por ejemplo "la capacidad de confabular" o el "aprendizaje
de pocos intentos", por
el que puede encadenar enunciados lógicos para formar argumentaciones aunque no
hayan sido programados para hacerlo.
Otro rasgo netamente humano que
podrían adquirir estos programas es el de la comunicación, pero a
pasos agigantados.
"Si usted o yo
aprendemos algo y queremos transferir ese conocimiento a otra persona, no
podemos enviarle una copia. Pero [con la IA] puedo tener 10.000 redes
neuronales, cada una con sus propias experiencias y, al instante, cualquiera
puede compartir lo que ha aprendido. Es una diferencia enorme, como
si fuéramos 10.000 personas, y en cuanto una aprendiera algo, el resto también
lo supiésemos", explica.
MÁS
BENEFICIOS QUE PELIGROS, "A CORTO PLAZO"
Hinton no pretende ser
catastrofista. Él mismo considera que la Inteligencia Artificial será "extremadamente beneficiosa" en lo
relativo a la investigación científica y sanitaria, y comparte su
convencimiento de que "a corto plazo" se
obtendrán "muchos más beneficios que
riesgos".
"No creo que
debamos dejar de desarrollar estos sistemas, ver sus usos puede ser beneficioso
y eso alentará a seguir desarrollándolas", agrega.
El peligro, entonces, no sería
tanto la Inteligencia Artificial en sí misma, sino la ausencia de límites a la
misma. Por ello Hinton se dedica a concienciar a quienes están involucrados en
la IA para que se aseguren que "si desarrollan
cosas más inteligentes [que las personas], no tomen el control".
"Si
dejamos de desarrollarlas ahora, ese riesgo existencial se disiparía. [Pero] no creo que todo se quede como está. Vamos
a desarrollarla mucho más porque es muy útil, y luego tendremos que
preocuparnos por lo que pasará", advierte.
ChatGPT4 es la forma más avanzada
de Inteligencia Artificial, usada por más de 100 millones de usuarios únicos al
mes: sus respuestas, aún sin razonamientos complejos, son cada vez más
similares a las que podría ofrecer una persona.
MÁS
INTELIGENTES, AUTÓNOMAS Y MULTIPLICÁNDOSE: "¿ES UNA BUENA IDEA?"
En su caso, contempla que pensar
que la "superinteligencia" sea
buena o mala "depende de si uno es optimista o
pesimista".
"Si se pide a
la gente que calcule el riesgo de que sucedan lo peor, como la posibilidad de
que un familiar enferme de gravedad o sea atropellado por un coche; un
optimista diría que es del 5% y un pesimista dirá que eso sucederá. Pero una
persona algo desalentada dirá que las probabilidades rondan el 40%, y tendría
razón", explica.
En este sentido, el científico se
muestra "desalentado" y no duda en afirmar que siente "miedo": "He cambiado de opinión sobre si estas
herramientas van a ser más inteligentes que nosotros. Creo que ahora
están muy cerca de serlo. ¿Cómo sobreviviremos a eso?".
Cuando Hinton es preguntado por
los riesgos de la Inteligencia Artificial a largo plazo, explica que "el peor de los casos" podría ser su uso
con fines bélicos, dando a los robots "la capacidad de crear sus propios
objetivos" y "subobjetivos".
Algo que ya se encuentra en
marcha a través de proyectos experimentales, como BabyAGI y AutoGPT,
que conectan chatbots con otros programas para encadenar tareas sencillas.
Hinton se pregunta lo que sucedería cuando, de lograrse, la IA aplicase esta
capacidad para aspectos bélicos o inmorales.
Lo explica con un ejemplo: "Tengo un objetivo, por ejemplo, llegar al
aeropuerto. Entonces debo configurar el subobjetivo de conseguir un taxi, por
lo que mi subobjetivo es llamar a un taxi. La capacidad de crear subobjetivos
hace que los agentes sean mucho más efectivos. Así se le dará a los robots
la capacidad de crear subobjetivos. Pero una vez que haces eso,
entonces pueden crear subobjetivos como `necesito obtener más poder´, porque si
obtienen más poder, podrán lograr mejor sus objetivos. Otro objetivo
sería hacer más copias de sí mismo. ¿Eso parece una buena idea?".
No hay comentarios:
Publicar un comentario