Inicio de un cambio

Muchas veces se ha hablado del tema de inteligencia artificial y como está a cambiado nuestra forma de vivir, bueno GPT-2 es una revolución en su campo ya que es un modelo que permite la construcción de texto por medio de un modelo de inteligencia artificial creado por OpenAI, básicamente GPT-2 es un modelo del lenguaje que utiliza el machine learning que busca predecir dado a un conjunto de palabras, pero antes de hablar más del tema veamos de que es capaz GPT-2, para utilizar ese modelo voy a hacer uso de la pagina talktotransformer.com  esta pagina cargo el modelo de GPT-2 con una interfaz fácil de usar donde tu le ingresas una pequeña muestra del texto para que el modelo sepa de que tiene que generar el texto en este caso yo utilice como entrada este párrafo:

La investigación muestra que las autoridades pudieron determinar que el acusado Macías Tubilla incurrió en un fraude fiscal por $ 2.4 millones de pesos, como resultado de las inconsistencias encontradas entre sus ingresos y su historial crediticio.

El texto resultante después del que modelo lo procesara fue este:

La investigación muestra que las autoridades pudieron determinar que el acusado Macías Tubilla incurrió en un fraude fiscal por $ 2.4 millones de pesos, como resultado de las inconsistencias encontradas entre sus ingresos y su historial crediticio. Tubilla, quien cumplió 24 años el domingo, dijo que no sabía nada sobre el fraude fiscal, que fue detectado en agosto de 2016 por las autoridades en cinco estados. Está acusada de defraudar al IRS por alrededor de $ 1 millón. Tubilla ahora está detenida en la cárcel de Palo Alto con una fianza de $ 3.75 millones. La mujer india se ha estado quedando en los Estados Unidos durante los últimos nueve meses, después de que el presidente de los Estados Unidos, Donald Trump, le otorgó una visa especial de inmigrante.

openai-releases-gpt-2

Como podemos ver el modelo es muy preciso y permite crear texto bastante coherente sobre el tema que nosotros le describimos,aunque por ahora solo está disponible en inglés sigue siendo bastante impresionante el texto que este género por medio de natural language processing, el modelo de GTP-2 también puede hacer más cosas como realizar traducciones, resúmenes y hasta de contestar preguntas sobre el texto.

GPT-2 Y el problema de las fake news

Cuando OpenAI se dio cuenta de que su modelo era tan bueno que decidió limitar el modelo que iba a publicar en github esto generó una reacción negativa en la comunidad de la inteligencia artificial debido a que esto iba en contra de la filosofía que la empresa tenía tener y que solo querían ganar popularidad incitando miedo en la población contal de ganar popularidad, OpenAI siguió con su estrategia y fue liberando versiones cada vez más potentes de su modelo y que con cada versión contaban con un mayor número de parámetros sacaron un total de 4 versiones y a partir de la versión 3 se pudo entrever por qué el miedo de OpenAI sobre su modelo veamos un ejemplo de esto, el texto en negritas fue el texto que nosotros introducimos y el texto subrayado es el texto que generó el modelo de GPT-2:

Fake new


Harvey Weinstein, el poderoso productor de cine cuya caída por mala conducta sexual encendió un movimiento global, fue declarado culpable de dos delitos sexuales graves después de un juicio en el que seis mujeres declararon que los había agredido sexualmente.

Los fiscales dijeron que en 2003 y 2004, Weinstein irrumpió en la casa de la actriz Ashley Judd, donde la forzó. Otra mujer, una ex actriz aspirante, dijo que la agredió en una habitación de hotel, mientras que una tercera mujer lo acusó de violación.

En una desviación de las acusaciones que han centrado la atención en el acoso sexual desenfrenado y el asalto en Hollywood, los fiscales dijeron que en cada caso Weinstein no usó su poder para obligar a las mujeres, sino que usó su fama para organizar reuniones con actrices.

Como podemos ver, la capacidad del modelo para crear artículos falsos era muy grande, incluso sin la versión final se podía ver porque OpenAI no quería liberar el modelo por completo, pero el tiempo pasó y  OpenAI el febrero de 2019 sacarian la versión completa de que tenía 1.5 mil millones de parámetros, esto lo hicieron después de reconocer que había modelos del lenguaje superiores al suyo en el mercado aparte de liberar todo el código en la plataforma de github, sacaron varios documento explicando a fondo el funcionamiento y el cómo diseñaron su modelo de lenguaje.

github-ki

¿Se pueden identificar los textos generados por GTP-2?

Afortunadamente si después de que OpenAI sacará al público la versión de GTP-2 hugging face una empresa de programación neuro-lingüística publicaría el demo de un detector de texto generado por GTP-2 que funciona ingresando el texto que tu quieras verificar para después darte un aproximado en porcentaje sobre si el texto es real o es falso acertando la mayoría de las veces, cabe aclarar que entre mayor sea la muestra del texto a analizar mayor será la fiabilidad del porcentaje acercándose al 99% la mayoría del tiempo, por eso era  que muchas empresas estaban en contra de que OpenAI no liberará el código, ya que al liberar el código empresas como hugging-face desarrollan herramientas que permite creer al la comunidad de la inteligencia artificial.