Actualidad

Sam Altman, cofundador de ChatGPT, de visita en España, nos da 3 consejos para que la IA no nos perjudique

Compartir
Sam Altman, el fundador y CEO de OpenAI —la empresa estadounidense detrás de ChatGPT— ha estado este lunes en España. Ha utilizado su famoso asistente virtual para apañarse con las traducciones a español, aunque ha reconocido que no podría preguntarle cuál es el mejor sitio para salir de fiesta por Madrid porque está desactualizado: como mucho, ChatGPT le diría qué sitio era el mejor en 2021.
LMN

Altman anunció a finales de marzo una gira internacional para conocer a usuarios, desarrolladores y políticos que le llevará por varias ciudades de todo el mundo: entre otras, Bruselas, Londres, París, Dubai, Seúl y Tokio, además de la capital de nuestro país. Su agenda este lunes ha sido la siguiente: por la mañana se ha reunido con Pedro Sánchez y Nadia Calviño en Moncloa, después ha tenido un encuentro cerrado con desarrolladores en el Instituto de Empresa y por último ha dado una charla ante varios cientos de estudiantes internacionales en esta misma universidad.

Allí ha reivindicado el enorme potencial de la inteligencia artificial. «Es lo más divertido que he hecho nunca. Va a transformar el mundo de formas que aún desconocemos».

Altman, de 38 años, ya era conocido en el mundo tecnológico antes de lanzar ChatGPT. Durante muchos años presidió YCombinator, la aceleradora de ‘startups’ más famosa del mundo y de la que han salido grandes compañías como Airbnb, Dropbox, Reddit y Stripe. En 2015, Altman se unió a otros popes de Silicon Valley como Elon Musk y Peter Thiel para invertir juntos en OpenAI, en principio un laboratorio de investigación sin ánimo de lucro que buscaba «desarrollar la inteligencia artificial de la forma que más beneficie a la humanidad».

En 2019, OpenAI  empezó a captar inversión para poder contratar a gente y crear productos. En noviembre de 2022 lanzaron ChatGPT al público. El resto es historia: en pocos meses se ha convertido en un producto tremendamente popular, ha recibido una inversión de 10.000 millones de dólares de Microsoft y ha obligado a Google a acelerar y presentar Bard, su propio asistente basado en inteligencia artificial. OpenAI también está detrás de DALL-E, un programa basado en IA que crea imágenes a partir de las instrucciones que le des.

¿Para qué usa ChatGPT su fundador?

La charla de Altman ante los estudiantes ha estado dirigida por Joe Haslam, director ejecutivo del programa de ‘scaleup’ del Instituto de Empresa. Antes de empezar, Haslam ha asegurado que podían haber doblado el tamaño del auditorio de la cantidad de gente que había interesada en acudir. Además de los jóvenes estaban presentes algunos conocidos emprendedores e inversores españoles como Bernardo Hernández, ex-directivo de Google y Flickr.

«Hubo dos fases. La primera, cuando lo entrenamos con datos. La segunda, cuando nos enfocamos en que fuera bueno como chat. Esto lo tuvimos entre seis y ocho meses antes de lanzarlo. No esperábamos este éxito», ha explicado Mo Bavarian, científico en OpenAI que acompañaba a Altman.

«Básicamente, hubo tres milagros», ha añadido el fundador. «El primero, que hicimos un algoritmo que aprende. El segundo, que somos capaces de predecir lo bueno o malo que va a ser el resultado. Y el tercero, que podemos hacer que con pocos datos el modelo se comporte bien. Muchos expertos dijeron que no funcionaría. Aún hay preguntas sin resolver, como cuánto tiempo tardarán estos modelos en ser capaces de extraer conocimiento científico. Pero tenemos los ingredientes necesarios para ir en esa dirección».

Altman ha dicho que utiliza ChatGPT para programar y para tareas simples, pero que espera que en el futuro se convierta en un superasistente que le ayude con todo lo que hace en su ordenador a diario. Bavarian, por su parte, ha reconocido entre risas que lo usa para escribir las performance reviews, las revisiones trimestrales que este tipo de empresas acostumbran a hacer a todos los empleados. «No es muy divertido, así que le meto varios puntos y que lo escriba. También lo utilizo para escribir código y como parte de la investigación en el trabajo».

El entrevistador ha recordado que algunas de las creaciones de Silicon Valley han dañado a la democracia y afectan a la salud mental de los niños, a lo que Altman ha respondido que «es justo ser escéptico con lo que viene de allí, pero también se han hecho cosas geniales que a veces se olvidan».

Regulación: sí, pero sin pasarse

Con respecto a la regulación de la inteligencia artificial, cuyos primeros pasos se están dando ya en la Unión Europa con la redacción del reglamento europeo de inteligencia artificial (AI Act), Altman ha reconocido que «es importante. No vamos a evitarla. Queremos ser colaborativos con los gobiernos, pero también queremos ser un servicio que guste a la gente. Escucharemos a la gente todo lo que podamos». Según la nota distribuida con Moncloa, este ha sido uno de los temas tratados entre el presidente y el empresario.

Altman ha defendido una regulación global que afecte a los grandes modelos de IA como el de OpenAI, pero ha defendido que no se caiga en la hiperregulación, especialmente de cara a los modelos más pequeños y abiertos (open source). «Creemos que la regulación tiene que dirigirse a empresas como la nuestra, no a los pequeños modelos de la comunidad abierta», ha dicho.

«No nos juzguéis por nuestras palabras, juzgadnos por todo lo que hemos hecho para que ChatGPT sea seguro. Creemos que es bueno poner estos desarrollos en el mercado antes de que sean perfectos para que la gente se adapte y nos dé su opinión. Probablemente hagamos cosas mal, pero las ventajas son tremendas: productividad, educación…», ha concluido. «Tenemos que manejar los riesgos, pero creo que será la tecnología más habilitante que la humanidad haya visto nunca. El mundo va a ser muy diferente y mejor».

Los tres puntos de Sam Altman

El cofundador de OpenAI también se mostró abierto a la sugerencia de que los Gobiernos desarrollen laboratorios independientes para comprobar la fiabilidad de los modelos de Inteligencia Artificial.

La segunda medida es la de crear un conjunto de normas de seguridad para los modelos de Inteligencia Artificial que incluya evaluaciones de sus riesgos. Los congresistas defendieron que si bien es cierto que se necesita regulación pública, las empresas de IA como OpenAI no tienen que esperar al Congreso para instaurar mecanismos que permitan controlar el desarrollo de la tecnología.