historiasdecracks
historiasdecracks
todo lo que lees podría ser falso

“La marca personal será fundamental para fiarse de cualquier contenido de Internet”

Esa es la conclusión a la que he llegado después de leer este artículo de Dan Bradbury publicado en Naked Security.

Según este artículo,  unos científicos han desarrollado un software capaz de escribir algo aparentemente bueno en décimas de segundo. De hecho, según explica el autor, los textos son tan agudos y sobre temas tan variados que los creadores tienen miedo de sacar una versión completa. Los resultados son geniales, si no fuera porque la herramienta inventa todo lo que escribe.

Ya no sabremos de qué fiarnos ni con quién estamos hablando. Pero como todas las amenazas, se puede convertir en oportunidad para aquellas entidades y personas que producen contenido y trabajan su marca personal. Porque serán identificadas como confiables, auténticas y veraces. Porque se sabrá que son ellas, personas, las que hacen el contenido, y no un software.

 

¿Softwares capaces de escribir algo genial en segundos?

Según cuenta Dan Bradbury, un equipo de científicos que trabaja en OpenAl han creado un súper software capaz de crear textos geniales en cuestión de segundos -al menos a nivel gramatical y ortográfico- sobre todo tipo de temas.

Básicamente, funcionan como el texto predictivo de nuestros teléfonos móviles, aunque de una forma mucho más refinada. La herramienta coge una muestra de texto escrito por un autor real y continúa escribiendo el artículo, siendo capaz de crear docenas de líneas a partir de una frase introductoria.

Bradbury aclara que no discrimina sobre temas y que usa más de 40Gb de texto que ha obtenido de todo tipo de fuentes de internet para crear un texto más que convincente sobre cualquier cosa.

El problema que yo veo es que la herramienta se lo inventa todo. Es decir, todas las fuentes y hechos que se mencionan son mentira. Y, lo que es peor, de una forma que te lo crees, o al menos no lo dudas. ¿Qué hace que un texto sea genial? Una de la primeras cosas en las que nos fijamos para saber decidir si un libro o artículo es bueno es cómo está escrito. Es decir, si no tiene faltas de ortografía o si sus frases son comprensibles. También es importante que nos resulte comprensible y que sea fácil de leer, que podamos entender el mensaje que se busca transmitir.

Sin embargo, hay algo esencial para que un texto sea de calidad: que nos aporte algo. ¿Esto qué significa? Algo tan simple como que si lo que estamos leyendo es falso, no importa lo “bien escrito” que esté el texto, no podremos hablar de calidad.

 

¿La veracidad se ha vuelto vintage?

Os contaré una anécdota al respecto, aunque esta vez no sobre un texto escrito por una máquina, sino por un humano creando Fake News. ¿Habéis visto el vídeo que se volvió viral sobre la censura de gimnastas de Irán

Iranian TV censorship of women’s track and field competition

Un amigo mío que posee una de las listas de distribución de contenidos más interesantes que conozco, acostumbrado a consumir, discernir, comprobar y asegurar cada uno de los enlaces que envía desde hace años, picó como un colegial. 

  • Recibió un enlace a Twitter con ese vídeo y noticia que le impactó mucho
  • El remitente era una persona de total confianza
  • Después de la sorpresa inicial al ver ese contenido fue a YouTube a ver si averiguaba algo más al respecto
  • Vió varias versiones del vídeo, con cientos de comentarios alguna de ellas, y descubres que hay incluso otro vídeo relacionado que te explica cómo consigue la televisión iraní hacer ese tipo de efectos en directo
  • Total: que envía a sus amigos ese vídeo falso contribuyendo así a difundir una mentira
  • Hasta que otra persona le advierte que ha picado
  • Entonces le toca rectificar y pedir disculpas por difundir algo que no responde a la realidad.

El mismo amigo me envió semanas más tarde otro vídeo muy inquietante que nos muestra cómo se crearán algunas de las futuras fake news. En este caso, una imagen de Al Pacino generada por una aplicación, suple la verdadera de Robert de Niro. Una peligrosa tecnología que permite sustituir un rostro por otro en vídeo alterando la realidad

El vídeo lo colgó el propio Robert de Niro en Twitter y dura apenas 33”  

https://twitter.com/robertdenirous/status/1182336435422203905?s=12

La marca personal será crítica para fiarnos de lo que se consumimos

Yo no sé vosotros, pero yo durante días me he vuelto paranoica, comprobando una y otra vez noticias, buscando fuentes para contrastar lo que decían. Y ¿sabéis qué? Que nuevamente son personas conocidas, o la marca personal de los protagonistas, los que me han dado una pista de lo que me podía fiar. Las personas con marca personal han resultado ser los mejores  los auditores de veracidad más veraces. 

Un texto que ofrece una opinión “según el doctor o científico Fulanito” inventado por uno de estos software automáticos podría ser visto como bueno. Pero, si es el nombre de Arturo Pérez Reverte o Enrique Dans es el que aparece en la firma, el lector tiene la seguridad de que la información que se le está dando es verdadera. Porque sabrá que hay una persona detrás validando y que, si fuera falso, se preocuparía por desmentirlo para no poner en peligro su propia reputación.

En un mundo donde la robotización parece que quiere hacer a los humanos iguales o poco significativos, la marca personal será la herramienta que hará a los creadores relevantes, diferentes e imprescindibles. Los que nos ayudará a decir “De esto me fío o no me fío”, y que ayudará a pillar las mentiras más rápidamente. 

Por eso, es extremadamente importante que los escritores se hagan eco de sus textos, las personas de sus opiniones, y demuestren que una herramienta automática o un algoritmo que suplanta su identidad puede crear un artículo de una forma mucho más rápida y eficaz o un vídeo que parezca que dijo algo que no dijo. 

Y demostrar que la mentira, en internet y en la vida, tiene las patitas muy cortas.

¡Hablemos!
1
¿Necesitas ayuda?
Encantada de saludarte, soy María José del equipo de Arancha Ruiz ¿En qué te podemos ayudar?