A estas alturas sería muy raro que no hubieses oído hablar aún de GPT-3, el modelo de lenguaje natural creado por OpenAI que es capaz de crear de la nada sus propios artículos, opiniones editoriales, poemas y, sí, también código. Y aunque hay ejemplos de esto último muy alucinantes como este o este otro con Excel y hay quien vaticina que acabará con los programadores, seguro que el que lo dijo no ha tenido que tomar nunca requisitos de clientes 😁
Bromas aparte, se trata de una alucinante implementación práctica de la potencia de los algoritmos de aprendizaje automático cuando tienen un "corpus" de entrenamiento lo suficientemente bueno y se afinan bien.
Aunque GPT-3 está basado en la misma tecnología de Machine Learning que GPT-2, lanzada el año pasado, esta nueva versión es un modelo muchísimo mayor. Utiliza 175.000 millones de parámetros entrenables (😱) lo que lo hace 100 veces mayor que su predecesor y 10 veces mayor que su competidor más cercano, Turing NLG de Microsoft, con "tan solo" 17.000 millones de parámetros.
Los expertos que han podido probar este modelo están impresionados. Y lo que más impresiona ya no es tanto su tamaño sino sus capacidades de generación de textos, que rivalizan con las de muchos profesionales humanos. Lo único que tienes que hacer es darle una frase inicial sobre un tema y la AI lo continúa de manera coherente y "humana". Se ha utilizado para escribir artículos, historias, canciones, entrevistas, manuales técnicos y hasta poesía. Es el sistema que más cerca está de pasar el test de Turing hasta la fecha.
Lo último que lo ha traído a la actualidad ha sido el caso de un estudiante, Liam Porr , que ha creado un blog generado 100% de forma automática con GPT-3 y que ha logrado llegar a número 1 en Hacker News, nada menos. Porr elegía los temas y ajustaba el título para lograr el mayor impacto de SEO, pero el resto de los contenidos es, tal cual, lo que generó GPT-3. Échale un vistazo al blog (en inglés, aunque la tecnología funciona en muchos otros idiomas) y te costará creer que no sean artículos escritos por una persona.
Tenemos ejemplos desde hace años sobre cómo el Machine Learning es capaz de generar contenidos automáticos (un porcentaje muy alto de los artículos de economía y de deportes ya se generan de esta forma hace tiempo), y se ha especulado mucho sobre cómo GPT-3 y similares podrían afectar al trabajo de periodistas y generadores de contenido en general.
Esta tecnología es alucinante y abre una nueva era en el engaño, las fake news y el contenido hueco, vacío de humanidad. Pero tiene muchas aplicaciones benignas también. Es por esto que Open AI no va a liberar el modelo como Open Source sino que lo expone a través de una API a la que da acceso previa petición y análisis de ésta. De esta forma pueden responder al mal uso de la tecnología, cosa que no podrían hacer si la liberasen. Aparte de esto Open AI, que nació como una organización de investigación sin ánimo de lucro a finales de 2015, se ha convertido en una empresa con objetivos comerciales en la que Microsoft ha invertido 1.000 millones de dólares para crear uno de los mayores supercomputadores que se ejecutan en Azure. Elon Musk también es uno de los inversores en la empresa.
Estamos entrando en la era del Machine Learning y el futuro será de las empresas y organizaciones que sepan seguirle el ritmo 🤖
Top comments (0)