Es el último boom dentro de la industria de la Inteligencia Artificial. GPT-3 (siglas de Generative Pre-trained Transformer 3) es un modelo de lenguaje autorregresivo que utiliza el aprendizaje profundo para producir textos similares a los humanos. De la factoría OpenIA, son muchos los desarrolladores y especialistas en Inteligencia Artificial que están haciendo diversas pruebas con este código (te recomendamos que leas este artículo de Xataka para saber más acerca de GPT3).
Así que nosotros nos hemos puesto en contacto con varios especialistas en IA para saber su opinión sobre GPT-3. Esto es lo que nos han contado.
Andrés Torrubia
CEO y cofundador de FIXR
Es, de los tres, el único que ha tenido ocasión de probar GPT3, aunque antes de hacerlo ya realizó un podcast sobre GPT-3 en el que contaba sus primeras impresiones.
Para que veamos el potencial de esta herramienta, Andrés Torrubia ha introducido un texto de Xataka en el que le preguntábamos a él y a otros expertos de IA qué podíamos esperar de esta tecnología en una década. ¿Qué resultados dio GPT3? Según Torrubia, la máquina fue capaz de escribir textos como éste.
«GPT-3 tiene una interfaz muy natural, adaptado más a las personas, lo que abre posibilidades para que quien lo use no necesariamente sepa nada de programación».
Nerea Luis
Doctora en IA e ingeniera de Sngular
Aunque esta doctora en Inteligencia Artificial aún no ha podido probarlo, sí que se ha documentado e informado sobre cómo funciona. Para Nerea Luis, GPT-3 es “la viva confirmación” de que el área del Natural Language Processing “está avanzando más que nunca a pasos agigantados”.
Esta experta cree que podemos hacernos una idea del potencial de esta herramienta cuando lo hacemos desde el prisma de una conversación y del estilo del lenguaje a utilizar. “GPT-3 es un generador de textos que intentará dar una respuesta acorde a las expectativas esperadas por el usuario en cuanto a contexto y estilo que se ha fijado en el texto de muestra que el sistema recibe como entrada”, explica.
«GPT-3 es la viva confirmación de que el área del Natural Language Processing está avanzando más que nunca a pasos agigantados”.
David Pereira
Responsable de Data & Intelligence para everis y del Centro de Excelencia global de IA para el grupo NTT DATA.
Tampoco David Pereira ha tenido la oportunidad de probarlo, aunque reconoce que, después de haber analizado todos los usos prácticos, tiene aún más ganas de hacerlo.
Pereira cree que estamos ante una demostración de que, “a pesar de muchas opiniones en contra, el Deep Learning todavía tiene recorrido para hacer avanzar el campo de la Inteligencia Artificial”, aunque para ello se incurra en un gran impacto medioambiental (debido a la potencia de cálculo y por tanto energía necesaria para entrenar un modelo del tamaño de GPT-3 (750 billones de parámetros vs los 1,5 billones de su “hermano pequeño” de 2019, GPT-2)”.
«El límite a los casos de uso de GPT-3 va a venir dictada por la creatividad que seamos capaces de lograr y por el control de los sesgos».
Fuente: Xataka