Sam Altman dijo que los debates sobre los peligros de la Inteligencia Artificial son estériles hechos por personas que están todo el día en Twitter.
Todos los años, la Sohn Conference Foundation organiza un concurso de ideas donde también los expertos tech y CEO de startups debaten y presuponen lo que traerá el futuro. En esta ocasión, Patrick Collison, gerente de Stripe, entrevistó a su colega Sam Altman de OpenAI sobre los riesgos y posibilidades de la inteligancia artificial.
Además, reveló cuál es el uso más común que le dan los usuarios a su herramienta: “El caso de uso más común del ChatGPT es el resumen de textos para poder mantenerse al día con los mensajes de correo electrónico y de Slack”.
La charla fue escalando en intensidad y el primer tema fue económico: World Coin, el proyecto “cripto” de Altman. A su entender, la IA podría desencadenar un aumento masivo del crecimiento económico real al identificar las inversiones y los diseños más productivos para las empresas.
De este modo, la IA puede tener impactos económicos mucho más relevantes y profundos. Él mismo pone como ejemplo que una IA que pudiera asignar eficazmente fondos a la investigación del cáncer podría ahorrar miles de millones de dólares al tiempo que acelera los avances en la búsqueda de una cura.
El plato fuerte se sirvió de inmediato ya que se habló del impacto de ChatGPT y de todo lo que OpenAI está haciendo en el sector de las búsquedas web.
“Los modelos lingüísticos van a cambiar mucho la búsqueda en Internet, pero no son una amenaza para la búsqueda. Y serían una amenaza para Google sólo si no hiciera nada al respecto y obviamente, Google no va a hacer nada”, señaló Altman.
Además, reveló que está desarrollando un programa que permite la conversación natural con agentes de IA (programas como AutoGPT, que utilizar modelos lingüísticos de forma autónoma, sin depender de humanos), lo que podría tener importantes consecuencias sociales.
Confiar sólo en el aprendizaje por refuerzo para la IA no es una solución adecuada a largo plazo. La clave para conseguir la ‘alineación’ (término para la convergencia de intereses IA/humanos) es comprender el funcionamiento interno de los modelos.
“Creo que los materiales nucleares y los superordenadores de IA tienen algunas similitudes y que es en este campo en el que podemos sacar más paralelismos e inspiración que de otros. Pero también querría advertir a la gente acerca de apresurarse a sacar conclusiones de esto. Estoy pensando, concretamente, en plantear algo así como una OIEA para la inteligencia artificial”.
Por eso entiende que, aunque hay que evitar la tentación de inspirarse demasiado en tecnologías previas, instaurar una agencia reguladora mundial para los potentes sistemas de entrenamiento de IA es crucial para la seguridad.
Debates estériles de Twitter
Al ser consultado sobre los temores que despierta estos avances en una sociedad que ve como estos sistemas inteligentes se quedan con sus puestos de trabajo, el CEO de OpenAI cargó contra los debates en las redes sociales.
Considera que existen demasiadas discusiones que no aportan nada ya que posteriormente no se extrapolan realmente a un trabajo real que llegue a un puerto concreto. De esta manera, se pierde mucho en el camino y son debates estériles y discusiones bizantinas que no llegan a absolutamente ningún puerto.
Muchas de las personas que dicen estar preocupados por la seguridad de las IA solamente se pasan el día en Twitter diciendo que están muy preocupados por la seguridad de la IA.
“Hay personas que está muy preocupada y que hace un gran trabajo técnico al respecto, pero necesitamos más gente así. Lo que el mundo necesita no son más personas que escriban discusiones filosóficas largas en Twitter”, sentenció Altman.