GPT 3

¿Qué es GPT3? ¿Qué cambia respecto a las versiones anteriores? Por Daniel Yankelevich



practia.global

Hace un tiempo se hablaba del modelo de inteligencia artificial demasiado peligroso como para abrirse al público. Era el GTP2, un modelo que permitía generar textos casi iguales a los que escribe cualquier humano. Entrenado con cientos de millones de parámetros, la prensa especializada titulaba “La AI demasiado peligrosa como para ser lanzada al mercado” (Deep Learning, 29 de Abril de 2019), “La AI que escribe prosa convincente nos pone en riesgo de la producción en masa de fake-news” (Technology Review, 14 de Febrero de 2019). Se trata de un modelo que viene a coronar una tendencia llamada “Transformers” – no como los Decepticons de las películas, sino una serie de modelos de generación de texto en forma “inteligente” que comenzó allá por el 2017 y dio luz a modelos con nombres como Elmo y Bert. Una versión de GTP2, entrenado con más de mil millones de parámetros, vió la luz en noviembre de 2019. En una presentación sobre Ética y AI yo comenté sobre la huella de carbono que genera entrenar uno de estos modelos monstruosos: el equivalente a años de un auto, en algunos casos más que lo que genera un auto (a nafta) en su vida útil completa.

Para más información: http://www.practia.global/Perspectiva-Digital/Paginas/escribiendo-en-la-frontera-GPT3.aspx

#DanielYankelevich #Practia #GPT3 #inteligenciaArtificial #IA #GTP2 #Lenguaje #FakeNews