¡Que me lo escriba el robot! Sistema GPT-2

¡Que me lo escriba el robot! Sistema GPT-2

El modelo de lenguaje GPT se basa en redes neuronales que aprenden de textos existentes para acabar completando textos por lo tanto creando contenidos originales muy convincentes, tanto que su evolución en GTP-2 generó una gran polémica ante el peligro de la creación de noticias «falsas» por estas inteligencias artificiales.

Los textos en lenguaje GPT-2 no sólo pueden ayudar a terminar frases o artículos sino que podrían crearlos con variabilidad y riqueza lingüística.

¿Podemos ser capaces de diferenciar textos escritos por una máquina o por un ser humano? La respuesta próximamente… Mientras tanto os el enlace al proyecto : Language Models are Unsupervised Multitask Learners

Para abrir boca, he aquí algunas frases del abstract

«Los modelos comienzan a aprender estas tareas sin ninguna supervisión explícita cuando se les capacita en un nuevo conjunto de datos(…)»

«El modelo refleja estas mejoras y contiene párrafos de texto coherentes. Estos hallazgos sugieren un camino prometedor hacia la construcción de sistemas de procesamiento del lenguaje que aprendan a realizar tareas desde
sus demostraciones naturales.»

Inquietante ¿no?

Imagen: Gerd Altmann