Me gustaría mostrar mi agradecimiento a todos aquellos que han demostrado un interés en mi análisis sobre cómo ChatGPT provocará cambios radicales en el mundo que conocemos, en público y en privado. Por supuesto deseaba provocar, pero más que provocar, incitar a la reflexión sobre cada uno de nosotros, instituciones que respetamos, y sobre cómo nuestros trabajos pueden verse afectados. He experimentado varias “olas de Inteligencia Artificial” que han creado pequeños terremotos en la industria de la traducción, o incluso la industria del idioma… pequeñas industrias en realidad en comparación con otras. Hay mucha gente que no tiene ni idea ni necesita soluciones de traducción automática y desconocen Google Translate o DeepL, por ejemplo. ChatGPT, sin embargo, está presente en la prensa y los noticieros de casi todos los países del mundo.
En este segundo artículo quiero tocar algunos temas y preocupaciones que decidí dosificar en mi artículo anterior que espero ayuden mantener el debate vivo.
OpenAI ya ha expresado su preocupación por la generación de bulos y el mal uso de la herramienta porque al aumentar nuestras capacidades de generación de texto, podemos multiplicar nuestras capacidades de generación de noticias falsas, que pueden distribuirse con “calidad humana” y verificar los resultados en redes sociales. ChatGPT puede escribir una noticia en el estilo de Shakira o Barack Obama (en una reciente prueba interna, nuestro CTO obtuvo un artículo sobre anonimización de datos que resumía aspectos básicos y que comenzaba con un “My fellow Americans, Today, I would like to talk to you about an important issue that affects all of us: data masking.”
Para mí, la mayor ventaja es la realización de resúmenes: no podemos leer 100 libros sobre un tema especializado, y ChatGPT nos genera resúmenes de valor. El resumen que genera es mayor y más profundo al del típico abstract. Uno puede pedir una lista de 10 libros sobre gestión de empresa y recomendar los 3 mejores. Con dos páginas sabemos si todo el libro nos interesa o no. Y podemos decidir comprarlo. Es decir puede actuar como prescritor y todos sabemos que donde hay prescripción hay un peso que puede decantar las compras.
Al igual que sucede actualmente con la revisión de las traducciones automáticas por parte de traductores, ChatGPT puede generar artículos que uno corrige y aporta su “valor añadido” en forma de información actualizada y conocimiento del mundo. Al igual que sucedió con la traducción automática, solo los traductores que traducían como autómatas lo pasaron mal. Los buenos traductores creativos, capaces de pensar, cocrear, aportar valor cultural... superan a la máquina y siguen ganando mucho dinero.
Si hay tolerancia al fallo, como es en los (pre)procesos creativos, tenemos una herramienta que aumenta nuestras capacidades y resulta genial.
Se ha filtrado que el CEO pidió reuniones de emergencia para conseguir enormes cantidades de dinero “para parar esto ya”. Una de las ventajas de Google ha sido resolver problemas con la mayor velocidad compartida posible. Con Yahoo! se tardaban 40 segundos en resolver una duda y ha sido la auténtica obsesión de la empresa. El modelo se basa en la monetización de anuncios siguiendo nuestras tendencias de búsqueda, cosa que siempre me ha sorprendido, además de las miles de agencias SEO que saben cómo manipular el algoritmo para que ciertas webs aparezcan en primera página y no enterradas en 2ª o 3ª página. Eso, a mi parecer, es algo muy distinto a la verdadera búsqueda de conocimiento o la recomendación de un libro o una película.
Pero con ChatGPT vamos a tener una conversación emergente, nos vamos a quedar en él para pedir más información, mucho más completa. Posiblemente después hagamos búsquedas más específicas o pidamos ayuda. Google subió muy rápido a expensas de Yahoo!, por lo existe el mismo peligro. Sam Altman, el CEO de OpenAI ha declarado varias veces que en el mundo no ha sucedido nada excitante en los últimos 15 o 20 años excepto “buscar”. Mi apuesta es que habrá una hibridación entre las búsquedas y aportación de información de un modelo de lenguaje (de hecho, según escribo estas líneas, ya he cualificado como probador del sistema de Chat de Bing, quien parece haber “controlado” la tecnología para evitar ciertos desvaríos). El buscador you.com lleva tiempo haciendo lo mismo. Google es Google por la publicidad, si se transforma y se convierte en otra cosa, tal vez incluyendo tendencias de búsqueda en el propio Chat, hay competencia. Por eso Microsoft desembolsó 10.000 millones de dólares con una rapidez extraordinaria para integrar GPT-3 en Bing.
El gigante de las búsquedas ha recibido un torpedo en toda la línea de flotación. Nuestra relación con Google es input-output, no es cognitiva. Cuando utilizamos una red social tenemos mejor o peor experiencia, pero tampoco es cognitiva. Sabemos que estamos utilizando una herramienta y nuestro cerebro no se ve afectado. Sin embargo, al igual que sucede con la realidad virtual, a pesar de que “sepamos” que lo que estamos viendo no es real, nos afecta, (de ahí la parte de “realidad”) pues nuestro cerebro lo percibe como una experiencia cognitiva. ChatGPT nos ofrece información de forma cognitiva, nos resulta contundente y por lo tanto creíble - pese a que contenga errores. Sabemos que no es humano pero lo “percibimos” con un realismo humano y eso tiene efectos de atracción y de “compañerismo” sobre nuestro cerebro.
Sin embargo, las búsquedas y publicidad no van a ser la guerra de las big tech, sino la Inteligencia Artificial. Estamos ante una disrupción que cambia todo y que cambia a todas las big tech. Sabemos que Apple anunció una herramienta de búsqueda y que jamás se conforma con menos que la excelencia y lo perfecto. Tal vez haya noticias sorprendentes este año.
Amazon lleva años con Alexa para que esta fuera una forma más rápida de acceder a la información, dándole “tu vida” en el sentido de cerradura de la casa, el termostato, toda la domótica etc. No ha funcionado más allá de ser un buen despertador y poco más. La gente le ha dado una oportunidad pero se ha decantado por el móvil pero ¿y si ChatGPT es más rápido que el móvil en un servicio de voz en nuestras casas? ¿Podríamos llegar a estar rodeados por ChatGPT en nuestros hogares? Lo que sucede con Alexa también le sucede a Siri, aunque esta última parte con la ventaja de tener todo un sistema cerrado detrás.
Bien, ni Alexa era IA ni ChatGPT lo es. Se trata de asistentes, robots a nivel de “Her” con voces humanas. De hecho, ChatGPT, utilizando sus raíles de seguridad como debe, insiste mucho en que es un “modelo de lenguaje” y no está capacitado para dar tal o cual respuesta.
Ahora bien, si con el servicio VALL- E de Microsoft podemos clonar nuestras voces con 3 segundos de la nuestra para que funcione con otros modelos de IA generativa, como GPT-3, esto significa que un gran modelo de lenguaje como ChatGPT sería pronto capaz de ofrecer resultados de voz una vez integrado este modelo. No es ensoñación. La cuestión es cómo llevarlo a millones de usuarios de una forma ética y OpenAI lo deja claro en su web: están preocupados por los usos éticos de la IA, la exposición a menores de edad, etc.
Lo cual me lleva a la siguiente pregunta: si hay una preocupación sobre la salud mental de los jóvenes por su sobreexposición a la tecnología, ¿qué va a suceder ahora? ¿Vamos a preferir hablar con las máquinas, volviendo a los sentimientos desarrollados en la película Her? La realidad es que ya estamos hablando con las máquinas, cada día más, y tal vez lo prefiramos hasta cierto punto (por motivos demasiado largos para exponer en este artículo). En breve podemos estar haciéndonos estas preguntas: ¿cuánto tiempo más va a pasar un joven hablando con un modelo de lenguaje como ChatGPT que hablando con su padre o su madre? ¿Es eso bueno? En realidad, es inevitable. Muchos de nosotros recordamos la infancia y muchas series de TV y dibujos animados “clásicos” en experiencias que no tuvimos con nuestros padres, sino siendo jóvenes espectadores. Las nuevas generaciones se comunican a distancia, mantienen relaciones afectivas y familiares a distancia, muchas veces utilizando herramientas sociales. Repito: la nueva tecnología conversacional cambia no solo el modo de relacionarnos como humanos frente a las máquinas, sino también el modo de relacionarnos unos humanos con otros. Las interacciones inteligentes van a dejar de ser humano-a-humano para incorporar interacciones cognitivas humano-máquina.
La gente que lo ha probado dice que es un salto mucho más grande incluso que el dado desde GPT-2 a GPT3 y 3.5 (ChatGPT), entrenado con 175 mil millones de parámetros.
El año que viene experimentaremos con la versión 4, que es 500 veces más potente, con trillones de parámetros. Lo que está sucediendo ahora es un experimento / juguete. Con integraciones que veremos en IoT, posiblemente con voz, tendremos la sensación de estar tratando con una persona, no con la artificialidad de un Call Center. Podría ser un buscador / recomendador con funcionalidades de asistente e información mucho más completa que los pequeños resúmenes que nos aporta ahora.
También pueden surgir más versiones de pago, porque el coste computacional de ejecutar un gran modelo de lenguaje es cinco o seis veces más caro que un buscador. ¿Habrá personas con acceso a información y otros que no podrán permitírselo? ¿Estamos preparados para lo que viene?