Seamos sinceros: cada vez que lees el término inteligencia artificial de inmediato salta a tu mente algún elemento sacado de la ciencia ficción. Puede que sea algo tan lindo y “tangible” como Wall-E, o más conceptual como Skynet y sus terminators… o tal vez la voz de Scarlett Johansson. Al final te cuento qué pasa con ella.
Sin embargo, algo que nos está pasando a todos es que después de ser solamente un elemento de ciencia ficción, el concepto de Inteligencia Artificial cada vez aparece más en las noticias y pocos saben distinguir a qué se refieren.
Lo que dicen los datos
En un estudio de Oxford le preguntaron a 12,000 personas de 6 países diferentes sobre sus opiniones acerca de la inteligencia artificial generativa —ya sabes, esas herramientas que te ayudan a hacer una imagen del papa con una chamarra Moncler, o cosas como ChatGPT al que le puedes preguntar lo que sea.
Los resultados fueron reveladores: casi la mitad de los encuestados en todos los países solo conoce 1 de las 14 herramientas que les mencionaron.
Y peor aún, incluso entre aquellos que sí las conocen, el uso que le dan es demasiado esporádico. Un intento de prueba que no se integra al flujo de trabajo.
¿Quiere decir esto que hay demasiado hype alrededor de la IA?
Obviamente. Sino fuera así, el stock de Nvidia no habría crecido casi exponencialmente en el último año —de ser una empresa conocida principalmente por gamers a convertirse en una de las más valiosas del mundo.
Por otro lado, también es cierto que empresas que no se caracterizan por unirse tan rápido a tendencias de mercado ya lo están haciendo. Apple, en su evento para desarrolladores de 2024, anunció un montón de nuevas funcionalidades impulsadas por modelos de Inteligencia Artificial. Eso no es hype. Eso es infraestructura.
El problema del ícono
Pero al mismo tiempo, Apple se unió a la pelea por tratar de ayudarnos a definir qué ícono usar para representar a una IA. Porque aunque parezca algo demasiado tonto, nuestros problemas para definir el uso que le daremos a estas herramientas empiezan desde cómo las representamos.
Un e-mail tiene el símbolo de algo que llevamos usando casi 2,000 años. La pregunta es: ¿cómo se representa algo que solo estaba en nuestra imaginación hasta hace 2 años? Ese algo que es como un ente artificial, que está en todos lados, lo sabe todo y lo puede lograr todo… ah, pero que por cierto, al día de hoy no es nada de eso. Solo parece que razona como un niño de 7 años.
El problema de la voz
Con ese nivel de confusión conceptual, va OpenAI y durante el anuncio de su nueva versión de ChatGPT con capacidades de habla avanzadas, le ponen una voz que se parece sospechosamente a la de Scarlett Johansson en la película Her. Y por si le quedaban dudas a alguien de sus intenciones, va y lo postea en X.
Esto no es casualidad. Es una declaración de intención: el objetivo final es que la IA sea tu Samantha. Tu compañera. Tu sistema operativo que habita contigo.
Lo que viene después
El siguiente nivel será algo que ya está emergiendo: robots humanoides que razan en el uncanny valley, diseñados para museos, ayuda médica o educación. Pero hay muchas películas sobre lo que hacemos cuando los robots se parecen demasiado a nosotros.
La conclusión está sencillita
Regresando al estudio de Oxford: la mayoría de personas no está usando las herramientas que están saliendo, pero todo el mundo las usará en un futuro próximo, o se verá afectado por ellas.
Yo sigo sugiriendo lo mismo desde hace un año: pruébalas, intégralas en tu vida diaria tanto como puedas, y trata de entenderlas.
Luego no digas que nadie te lo advirtió.