Por: Floralicia Anzola
Una carta abierta firmada por cientos de destacados expertos en el campo de la inteligencia artificial, empresarios tecnológicos y científicos piden que se detenga el desarrollo y las pruebas de tecnologías de inteligencias artificiales más potentes que el modelo de lenguaje GPT-4, de OpenAI, por lo menos seis meses y exigen que la pausa sea «pública y verificable» . Así, esperan tener el tiempo necesario para estudiar adecuadamente los riesgos que podrían plantear, pero ¿será suficiente? o ¿quedará como una carta abierta al futuro que no llegamos a leer?.
La misiva advierte que los modelos de lenguaje como GPT-4 ya pueden competir con los humanos en una gama cada vez mayor de tareas, y podrían usarse para automatizar trabajos y difundir información incorrecta. La carta también plantea, aunque lejana, la perspectiva de sistemas de inteligencia artificial que podrían sustituir a los humanos y rehacer la civilización.
¿Es esto parte de la visión catastrofista de la humanidad?
Entre los 5500 expertos firmantes de la carta se encuentran personas de numerosas empresas tecnológicas que están creando modelos de lenguaje avanzado, como Microsoft y Google. La carta llega en un momento en el que los sistemas de inteligencia artificial están dando saltos cada vez más audaces e impresionantes, y los avances se están produciendo más rápido de lo que la sociedad y los reguladores pueden asumir.
Es importante señalar que, aunque GPT-4 y otros modelos de lenguaje avanzados han demostrado habilidades cada vez mayores en la resolución de problemas, también son capaces de cometer muchos errores triviales y lógicos, y pueden inventar información incorrecta, revelar prejuicios sociales arraigados y emitir expresiones de odio o potencialmente dañinas.Estos sistemas buscan que el resultado sea verosímil, no necesariamente cierto, y que parezca que lo ha dicho un humano y esto entraña un riesgo.
El otro asunto es lo que concierne a la privacidad. Estos sistemas basados en el aprendizaje automático, aprenden de los millones de textos, imágenes o vídeos publicados en internet, y los desarrolladores se quedan con los datos de las miles de « conversaciones» de los usuarios para mejorar los siguientes modelos.
Si las conversaciones a través de las que aprende pueden inocularse por millones, la desinformación se crearía desde la base misma y luciría absolutamente verosímil .
El asunto entraña tiempos, ética y reflexión, la tecnología va sin esos cuestionamientos como cortapisas, a otra velocidad.
El profesor Emérito de la Facultad de Economía de La Universidad de Nueva York y autor de bestsellers Nouriel Roubini ha dicho en su Twitter que “El Homo Sapiens puede estar casi obsoleto para cuando GPT-10 salga al mercado a finales de la década”.