Las noticias falsas se propagan en línea más rápido, más lejos y de manera más profunda que la verdad, pero sí se pueden contener, así es cómo.
Traducción del texto original de HBR
https://hbr.org/cover-story/2018/07/truth-disrupted
En marzo de 2018, el Presidente de Estados Unidos, Donald Trump, publicó en su cuenta de Twitter que Amazon, no pagaba ni pagaba muy pocos impuestos a los estados y a los efectos de enviar a la compañía a la baja en el valor de sus acciones, justo en la peor época de los últimos dos años.
Aunque el mandatario estaba equivocado y el precio de la acción se recuperó, este incidente fue un problema: las compañías son muy vulnerables a la viralización de la “desinformación” – desinformación en redes sociales, y que nadie está exento o seguro, de un daño de éstos. La viralización de la información falsa tiene implicaciones para nuestra democracia, economía, negocios e incluso, para la seguridad nacional, por lo que tiene que hacer un esfuerzo concertado para entender esto y direccionarlo.
Soroush Vosoughi, Deb Roy y Sinan Aral, han estudiado la viralización de las noticias falsas, -se usa el término falso porque las noticias falsas , se ha vuelto al término polarizado que se aplica para las noticias que no avalan su posición-; Lo que encontré fue sorprendente y aterrador, porque más rápido, más profundo y más extenso, que la verdad en todas las categorías de información, especialmente en la política.
La importancia de comprender este fenómeno es compleja, ya que hay mayor probabilidad de que este problema empeore por el avance de la tecnología y la manipulación del audio y el video, lo cual permite distorsionar la realidad de manera más convincente y con menor posibilidad de descubrirse. La buena noticia, es que los investigadores expertos en AI y las plataformas de redes sociales, se han tomado el tema en serio y están indagando tanto en la naturaleza del problema, como en la posible solución.
¿Por qué son peligrosas las noticias?
Las personas han creado historias falsas y dispersadas desde que existen memorias, pero las cosas son diferentes actualmente. El medio social aumenta la velocidad y la amplitud con la información circulante volviéndose extremadamente potente en muy poco tiempo. Además, las mismas plataformas se han vuelto a la fuente principal de información de muchas personas, esto aunado a que no hay necesidad de contar con las mismas, tampoco existe una salvaguarda que nos indique si es o no falsa.
El hecho es que esa información se distribuye tan fácilmente en redes que no solo es molesta, sino peligrosa y costosa; tanto que se está convirtiendo en una preocupación para los procesos democráticos. Este fue el caso de Alexander Nix, el CEO de Cambridge Analítica, quien contó cómo su compañía hizo las historias y las propagaba en línea para influenciar en las elecciones globales.
Las noticias falsas pueden dirigir mal una tarea, como cuando las fuerzas del orden son los primeros en responder y confían en la parte de la información recopilada por las redes durante un ataque terrorista. La desinformación viajó sin ninguna restricción cuando estalló aquella bomba en el maratón de Boston en 2013; por ejemplo, no se sabía que parte del campus del MIT se encuentra a salvo.
Twitter estaba más actualizado que la televisión o el radio, en cuanto a la información falsa, la cual se esparcía y desorientaba a las fuerzas del orden, esto al margen de las verdaderas noticias de última hora . Si los terroristas sabían que las autoridades confiaban en las redes sociales, podían usarlas en contra de las autoridades. Cuando las redes sociales estén contaminadas son fuentes de inteligencia, se pueden convertir en una arma.
La desinformación afecta la economía, la inversión y el valor de los negocios. En 2014, un tweet falso informó que Barack Obama, había sido herido en una explosión, el valor patrimonial cayó en casi 130 mil millones de dólares en un solo día. Los inversionistas actualmente basan sus decisiones en los algoritmos de susceptibilidades de las redes sociales. Cuando la información falsa se infiltra en estos medios, los inversionistas consumen la información e invierten con ella, nadie ha medido en las generaciones anteriores, pero las medidas que han afectado a la economía han sido amplias.
La información falsa puede afectar negativamente a la inversión, reducir el rendimiento, disminuir el pronóstico de ventas, modificar el sistema de inventarios, y la planeación, pero también puede dañar la reputación y el valor de esta, su valor de mercado Por ejemplo, cuando el presidente Trump tuiteó sobre Amazon, fue solo un caso de los casos en que una falsa acusación hirió a una corporación.
El sitio de comprobación de noticias falsas, https://www.snopes.com/ tiene un listado de más de 50 rumores y todo el tiempo está en actualización, entre dichos rumores están los que American Airlines ha entrado en bancarrota, que Starbucks repartía frappuccinos a trabajadores indocumentados, que Indra Nooyi, la CEO de PepsiCo, había comentado entre los partidarios de Tumop, que se llevaría el negocio a otra parte. En cuanto a los algoritmos de comercio, no hay una estimación exacta de cuánto daño ha sido la desinformación en los negocios, pero el aumento en cuanto a la frecuencia evidencian que es un problema a gran escala.
¿Cómo se viralizan las noticias falsas?
Algunos hallazgos de esta investigación arrogan dudas sobre explicaciones aparentemente obvias, de qué preguntas las noticias falsas viajan rápido y ampliamente. Por ejemplo, las personas influyentes , pero los datos revelan lo contrario, quienes tienen menos acceso a ellos, tienen menos seguidores, siguen menos personas, son menos activos en Twitter, pocas veces son cuentas verificadas y tener menos tiempo en la red social, lo anterior sugiere que las noticias falsas se diferencian más rápido y lejos, sin importar a qué grupo pertenecen los difusores.
También se cree por la lectura de periódicos y de testimonios gubernamentales, que los robots son un factor importante para la hora de difundir la información falsa, pero de acuerdo con los datos de los consultores, los bots, la información en la misma cantidad de noticias , lo que sugiere que, las noticias falsas se viralizan más rápido porque la gente más procibe un compartirlas.
La susceptibilidad a la falsedad puede explicarse mejor con “hipótesis de la novedad”. De acuerdo con nuestro estudio, las noticias falsas son más novedosas que la verdad, lo que fomenta que las personas las compartan. Los rumores falsos también inspiran una mayor sorpresa y discusión en las respuestas; al contrario de la verdad que inspiró mayor anticipación, alegría y confianza. Las personas puede ser simplemente más propensas a compartir notas sorprendentes, noticias salaces.
Formas de combatir noticias falsas
Lado de la oferta | Lado de la demanda | |
Educación | Educar a los anunciantes y medios de comunicación sobre las consecuencias y sanciones por difundir falsedades | Educar a los consumidores para detectar y que se resistan a difundir noticias falsas |
Incentivos | Eliminar a los productores de noticias falsas de las plataformas y reducir el alcance de los contenidos falsos | Permitir a los consumidores marcar o señalar las noticias falsas |
Herramientas tecnológicas | Crear o mejorar los algoritmos para identificar noticias falsas y cuentas que las viralizan | Desarrollar herramientas de bloqueo automático con controles de usuario que les permitan aceptar o rechazar la información falsa y sobre esto utilizar machine learning para el supervisado y aprendizaje con base en lo ejecutado por el humano en el circuito (HITL) para implementar esas elecciones |
Regulación | Imponer sanciones por falsedad | Fortalecer las leyes de responsabilidad en línea |
Combatiendo noticias falsas
Una forma amplia de combatir la falsedad en línea es considerar la perspectiva del consumidor. El enfoque del lado de la demanda podría ser, por ejemplo, educar a los consumidores proporcionándoles información sobre la calidad de una historia o de un tweet.
El enfoque del lado de la oferta abordaría el problema desde su origen creando así, desincentivos para que los medios sociales y que los proveedores de contenido publiquen y difundan noticias falsas. Los dos enfoques son complementarios, pero ambos esenciales. Sin duda los algoritmos serán cruciales para ejecutar cualquiera de las dos; adicionalmente, los gobiernos necesitarán descubrir cómo pueden desempeñar un papel de supervisión útil, no destructivo.
Proteger y educar al consumidor: Supongamos que podemos evaluar y comunicar la precisión de la información y las noticias disponibles en la red con etiquetas, lo que hacemos con la comida. En la mayoría de los países, los alimentos envasados están cuidadosamente etiquetados; sabemos cuántas calorías tiene, los gramos de azúcar, la cantidad de proteínas o cuánta grasa trans contiene. Sabemos también si es orgánico o de libre pastoreo y si fue producido en una planta que también procesa trigo o maní. (Antes esa información, no siempre estaba disponible, ahora lo es porque los consumidores se movilizaron y los gobiernos hicieron regulaciones).
Pero, cuando consumimos noticias -especialmente en línea-, tenemos muchísima menos información, no sabemos si la fuente tiende a diseminar información verdadera o falsa, o si la historia lo es, ni siquiera sabemos cómo se produjo la noticia, si el editor utilizó una o tres fuentes para llegar a un hecho, así como tampoco, cuántos reporteros trabajaron en la historia, cuántas entrevistas se llevaron a cabo o cuánto investigaron.
Este es un camino importante que hay que seguir, pero plantea varios interrogantes que carecen de respuestas fáciles:
¿Sabemos cómo identificar con precisión las noticias falsas? En el estudio utilizaron múltiples tweets cuya veracidad había sido evaluada por seis organizaciones independientes de verificación de datos. Posteriormente, se usaron estudiantes que trabajaban de forma independiente en el MIT y Wellesley para verificar el sesgo de los verificadores de esos tweets.
Obviamente, este proceso sería difícil de escalar, por lo que construir algoritmos que puedan predecir de manera eficiente la veracidad del contenido será crítico. En su tesis doctoral en el MIT, Soroush Vossoughi, desarrolló uno de los primeros algoritmos para detectar y predecir automáticamente la veracidad de los rumores que se difunden en Twitter en tiempo real: él clasificó las características semánticas y sintácticas para identificar esos rumores con un 91% de precisión, además de que predice su veracidad en tiempo real con una precisión del 75% usando el estilo lingüístico, las características de las personas involucradas en la propagación y la dinámica de viralización. Y aunque se han visto otras investigaciones recientes también prometedoras, nos encontramos lejos de tener una metodología acorde para identificar noticias falsas.
¿Quién puede decidir qué es verdadero o falso? Esta es la pregunta medular y que no tiene una respuesta clara. ¿Deberíamos dejar esto en plataformas como Facebook o Twitter?, ¿deberían los reguladores decidir?, ¿deberíamos confiar en organizaciones de verificación de datos o establecer algún tipo de comisión independiente?
Parece imposible garantizar que los inspectores de datos o las comisiones, no se vayan a politizar, por lo que es necesario pensar e investigar más a profundidad antes de tener respuestas acertadas.
Respondiendo a la presión, Facebook anunció que añadiría un botón de “acerca de este artículo” a las publicaciones de noticias en su sitio. Dicho botón llevaría a más información, incluidos artículos relacionados con el tema, historias publicadas recientemente por el mismo editor y así un enlace a su página de Wikipedia. Esto puede llevarnos a en dirección correcta, pero necesitamos más.
¿El etiquetado preciso realmente retrasaría la difusión de las noticias falsas? La evidencia científica sobre la efectividad del etiquetado no es concluyente, algunas investigaciones muestran que el etiquetado de noticias falsas disminuye la propagación de la desinformación, pero a su vez, otro demuestra lo contrario. Pocas investigaciones en esta área han sido publicadas o revisadas, por lo que necesitamos la experimentación para aprender cómo las etiquetas pueden limitar la propagación de falsedad. Por ejemplo, ¿funcionaría mejor un “puntaje de veracidad” que un enlace a la página de Wikipedia del editor?
Modificar los incentivos para los creadores de contenido, los anunciantes y las compañías de medios sociales. El ecosistema de las redes sociales depende de la viralización del contenido, entre más atención tenga el contenido, más valor se crea y más ingresos por publicidad se generan. En este sentido, el modelo de negocio de los anuncios publicitarios en cierta forma fomentan la viralización de noticias falsas, porque como lo hemos visto, la desinformación viaja más lejos, rápido, a fondo y ampliamente que las noticias verdaderas.
Se documentó extensamente que la producción de noticias falsas en Macedonia, durante la elección presidencial de Estados Unidos en 2016, fue motivada más por intereses económicos que políticos, ya que los productores descubrieron que podían ganar más por publicidad con historias falsas, que con las verdaderas.
Los incentivos económicos, producto de la circulación de noticias falsas, son a corto plazo y no requiere mucha imaginación. A largo plazo, la viralización de las noticias falsas degradan las plataformas, lastiman la publicidad y merma la credibilidad sobre los creadores de contenido real, de lo cual la mayoría está consciente.
Estamos en las primeras etapas para poder plantearnos cómo los proveedores pueden o requieren cambiar, para lo que vemos dos posibilidades:
Modificar radicalmente el sistema de negocio del ecosistema. Lo anterior significaría reemplazar el modelo comercial impulsado por publicidad de Facebook y de otras compañías de redes sociales, por un modelo de suscripción. La razón fundamental es la priorización de clics y la que, participación fomenta el contenido sensacionalista y falso. Si los usuarios simplemente pagan una suscripción mensual, de acuerdo con cada plataforma, los incentivos de uso podrían alinearse con mejores intereses.
Esta posibilidad ya se encuentra en el radar de Facebook. En el programa Today Show, Sheryl Sandberg, la COO (Chief Operating Officer) hizo flotar la idea de convertir a Facebook en un modelo freemium, en el cual los usuarios pagarían para apagar los anuncios así como, la recopilación de datos. Económicamente hablando, esto podría ser benéfico, los modelos freemium son dominantes: Pandora permite escuchar de forma gratuita con anuncios pero cargos por hacerlo sin publicidad y The New York Times permite leer 10 artículos gratis al mes y posteriormente cobra.
¿Pero esto es realista? Facebook y algunas otras grandes compañías han creado un sector económico muy valioso. Es difícil imaginar que se alejen de lo que les genera dinero y que se creó sin la presión de los reguladores (que analizaremos a continuación).
__________________
Hablando en términos prácticos, ¿por qué “la verdad” importa?
Tener una comprensión compartida de los hechos y de cómo se llegó a ellos, es fundamental para cualquier esfuerzo humano colectivo, sea dentro o fuera de línea. Los científicos crean el conocimiento al reunir evidencia para apoyar o validar una hipótesis; los abogados discuten los casos sobre la base de lo que pueden probar, más allá de una duda razonable, los gestores de fondos de acciones deciden comprar o vender a la luz de los hechos que pueden determinarse sobre el rendimiento de una empresa.
Existen estándares de evidencia e informes en cada una de estas ramas y tanto en las compañías como con socios comerciales, es donde mayor veracidad debe existir. De acuerdo con la teoría de las decisiones, el éxito de las mismas depende de si las acciones están alineadas con la realidad en la que son implementadas. Si Tesla, aumenta la producción en respuesta a las predicciones de una demanda falsa, su negocio puede quedar paralizado. Si el mercado capitaliza una compañía como Theranos, sobre una base de mentiras en cuanto a su tecnología, las inversiones a gran escala se desperdician y el valor se destruye.
Por supuesto que la comprensión de la verdad evoluciona, los hallazgos científicos no se consideran sólidos hasta que se haya replicado y generalmente se refutan en el proceso. Lo que se considera una prueba en un tribunal cambia, cuando la ciencia forense o las sentencias se modifican.
Los ejecutivos de negocio alguna vez consideraron su experiencia e intuición como las herramientas más importantes que tenían a la hora de tomar decisiones, pero hoy en día los datos y los análisis detrás de la toma de decisiones vinieron a cambiar ese sentido instintivo.
Incluso, con todas las advertencias es difícil escapar de esta realidad: necesitamos la verdad para garantizar que nuestras decisiones tengan sentido en el mundo donde se promulgan y que estamos en el mismo barco cuando nos coordinamos o colaboramos.
__________________
Incluso, si pudiéramos mover una varita mágica y reinventar los modelos comerciales subyacentes a las plataformas de redes sociales, ¿sería prudente?, muchos editores de medios pequeños que producen contenido diverso, no podrían sobrevivir sin los ingresos de publicidad, a diferencia de medios más grandes que tienen una escala que hace que los modelos de suscripción funcionen.
En lugar de pagar por servicios múltiples, lo más probable es que los consumidores elijan una suscripción en cada categoría de contenido (noticias, deportes, opinión, etc). En consecuencia, el mercado de la producción de contenido se reduciría y se vería monopolizado por unas pocas empresas haciendo que el daño a la sociedad por la pérdida de la diversidad de información sea un riesgo.
El cambio no solo perjudicaría a editores y a consumidores pues el ecosistema de marketing digital de redes sociales sostiene a muchas otras empresas, es fuente de empleo de un número importante de personas y de cantidad de productos en marcas, agencias, mesas de negociación, plataformas de demanda, intercambio de anuncios, redes publicitarias y plataformas de comercio electrónico.
Otra consideración importante, es que ese movimiento puede acelerar la inequidad. De acuerdo con un estudio de PEW realizado en 2017, cerca del 70% de los adultos americanos, “toman varias de las noticias de redes sociales” y el 70% de las personas que usan Twitter “lo hacen para informarse”. En cuanto a las noticias, los usuarios de Facebook tienen relación y conexiones esenciales para conseguir trabajo y manejar oportunidades de negocio. Moverlos a un modelo de suscripción restringiría el acceso a aquellas personas que no puedan pagar por él.
Adicionalmente, un cambio a modelo de suscripciones también corre el riesgo de exacerbar la brecha de privacidad: la distribución desigual de la privacidad en toda la sociedad, donde solo los usuarios con más recursos podrían pagar, por ejemplo $9,99 dólares al mes por Facebook. Si creemos que la privacidad y la protección de nuestros datos son cuestiones valiosas, ¿qué opinamos de una sociedad en la que los ricos compran libertad, mientras que a los pobres se les exigen intercambios por acceso a información y fuentes de trabajo?
En otras palabras, es poco probable un cambio radical en el ecosistema de las redes sociales, al menos en los Estados Unidos y a juicio de los autores, tampoco debería ocurrir porque la regulación torpe correría el riesgo de destruir el valor que estas empresas han creado para los consumidores y accionistas, y así desatar una serie de consecuencias negativas involuntarias.
Este tipo de intervención implicaría modificar varios algoritmos que se usan actualmente en el ecosistema de las redes y requeriría la cooperación una gran variedad de partes interesadas. Los algoritmos de noticias determinan lo que los usuarios ven en su feed: identifican tendencias y aumentan el alcance y popularidad del contenido más interesante (para bien y para mal).
Los modelos de orientación de anuncios y las API´s permiten a los anunciantes, campañas políticas y, al parecer, a actores extranjeros dirigir el contenido a audiencias específicas, como es el caso de los más susceptibles a las noticias falsas sobre un tema en particular. Con un sistema de puntuación de veracidad relativamente preciso, estos algoritmos podrían modificarse para reducir la propagación de la falsedad en línea.
Otro enfoque importante sería el trabajar en el del diseño y prueba de la información en sí misma, los efectos psicológicos del diseño de la información y la presentación de las noticias en línea afectarían la forma en la que consumimos, respondemos y compartimos el contenido. Si ese diseño toma en cuenta la falsedad podría ayudar a reducir la propagación de la misma.
Regulación
El tema de la supervisión gubernamental sobre los gigantes de las redes sociales, ha estado vigente. Mark Zuckerberg, testificó ante el Congreso de Estados Unidos el pasado marzo y abril de 2018, y ante el Parlamento Europeo en mayo; el mismo mes, la Unión Europea implementó su Reglamento General de Protección de Datos (GDPR por sus siglas en inglés), un marco regulatorio difícil y de gran alcance para proteger la privacidad del consumidor. Es un gran avance sobre la forma correcta de abordar la privacidad de los datos y el antimonopolio, pero los reguladores deben ser consultados por expertos en economía digital y andarse con cuidado.
Aunque algunos legisladores estadounidenses parecen convencidos de que Facebook debe regularse, otros parecen no entender los matices de cómo la regulación podría afectar a la sociedad y a la economía, muchas de las implicaciones no son visibles. Preguntar si debemos regular, no tiene sentido. La mejor pregunta es, ¿cómo puede la regulación preservar los efectos positivos de las redes sociales toda vez que limita sus consecuencias negativas?
Por lo que hemos visto regular noticias falsas es complicado, ya que inevitablemente surge la pregunta de ¿quién tendrá el poder de decidir qué información se debe difundir? Esta es quizá, la pregunta más importante que enfrentan las democracias en la era de la información. Si no le damos al gobierno el derecho de censurar los medios informativos, ¿queremos darle el derecho de controlar cómo se difunde información en línea? Dictadores y otros líderes autoritarios podrían abusar del poder, por ejemplo en Malasia, se ordenó recientemente una pena de prisión de seis años para los proveedores de noticias falsas. Tales medidas draconianas podrían usarse fácilmente para acallar la oposición y promover la represión.
Adicionalmente, está la cuestión de medir realmente la responsabilidad de las empresas de medios sociales por lo que fluye por sus plataformas y canales. La Ley de Decencia en las Comunicaciones (LCA) de los Estados Unidos, estableció en 1996, que las plataformas como Facebook se considerarían entidades paso, no responsables de lo que los usuarios publican en línea. Esta decisión se tomó en virtud de la protección de expresión y de la libertad de Internet. Sin embargo la ley está siendo impugnada en un intento de forjar instancias conocidas para impedir que la libertad de expresión genere un daño que supere los beneficios. Por ejemplo, el Senado aprobó recientemente la Ley de Detención de Habilitación de Tráfico Sexual y lo que hace que Facebook sea responsable de los anuncios de tráfico sexual en su plataforma. La ley pasó por una abrumadora votación de 97 a favor y 2 en contra.
El CDA, puede ser la clave para hacer que las plataformas sean más responsables del impacto en el mundo y su uso es crítico, en la medida en que el discurso y los legisladores se enfrenten a mayores desafíos, el balance entre los beneficios y los daños deberán ser revaluados.
Otro ejemplo de la complejidad del discurso político, es el caso de Maryland que acaba de aprobar una legislación que exige que las plataformas de redes sociales rastreen todos los aviso políticos y los usuarios etiquetados, lo que autoriza a la junta electoral a investigar las denuncias contra los anuncios en línea o supresión de votantes. Facebook y Twitter respaldaron la “Ley de Anuncios Honestos” (Honest Ads Act) que implementaría restricciones similares pero a nivel federal y ya han adoptado la mayoría de sus disposiciones, pero algunos creen que la ley de Maryland pueda ser declarada inconstitucional por violar la primera enmienda. Adicionalmente, la regulación puede ser tomada como prejuiciosa y egoísta.
La recopilación de datos personales es complicada. Es fácil olvidar cuántas industrias y servicios sociales dependen de tal recolección. Por ejemplo, todo el sistema de calificación crediticia recopila, utiliza y vende datos a los anunciantes para que puedan segmentarlos, el acceso del consumidor a tarjetas de crédito, hipotecas, atención médica, viajes, servicios sociales y educación, requieren también la recopilación de datos privados. Los reguladores deben ponderar los beneficios de restringir la recolección de los mismos, contra el daño que la restricción podría causar a esos servicios esenciales.
La restricción de la recopilación de datos, su aceptación o la implementación de un API que permita la portabilidad de los mismos, puede tener consecuencias imprevistas. Un buen argumento a favor es el de la competencia. La portabilidad de los datos permitiría el acceso a nuevas empresas y por lo tanto una red mayor, pero actualmente se está criticando a Facebook que compartió datos con firmas de hardware globales, proveedores de servicios móviles y desarrolladores de aplicaciones en China y otros lugares, por lo que se necesitan ideas sobre cómo garantizar los datos y la competencia simultáneamente porque de lo contrario se fortalecería uno y se podría debilitar al otro.
Aunque se garantizara la seguridad, no está claro que la portabilidad mejore la competencia. Por ejemplo, es posible que los usuarios permitan compartir sus datos entre plataformas pero no necesariamente con las empresas que los utilizan, precisamente porque no confían en ellas. Imponer restricciones universales a la privacidad de datos, siendo que Facebook ya es un monopolio puede provocar que no surjan competidores de la red social, incrementando su poder en el mercado.
¿Deberían combinarse las restricciones a la recopilación y uso de datos con las acciones antimonopolios? Hay que vigilar de cerca mientras el Reglamento General de Protección de Datos (GDPR por sus siglas en inglés) sigue desplegándose, porque la implementación simultánea de restricciones de privacidad y portabilidad de datos puede presagiar lo que sucederá después en los Estados Unidos.
Como investigadores, los autores del presente documento están preocupados por lo que llaman la paradoja de la transparencia: en este momento Facebook se encuentra bajo presión para revelar más sobre cómo funciona la publicidad dirigida, los algoritmos de noticias, de tendencias y cómo Rusia u otra entidad puede difundir propaganda y noticias falsas en la red. Pero al mismo tiempo enfrenta fuertes presiones para resguardar los datos, aumentar la seguridad y proteger la privacidad de los usuario.
Aunque Facebook ha estado trabajando para ayudar a los académicos a evaluar el impacto de las redes sociales en las elecciones, como la colaboración con Gary King de Harvard y Nate Persily de Stanford, lo que proporciona un nuevo modelo para la colaboración entre la industria y el sector académico y es un paso bienvenido, existe un riesgo real, y es que la compañía reaccione de forma exagerada al asunto de Cambridge Analytica y ponga restricciones innecesarias a lo que comparte de manera colaborativa y por lo mismo afectar la realización de la investigación que tan desesperadamente se necesita.
Los siguiente desafíos
Acabar con la marea de información falsa no será una tarea fácil, el primer y quizá mayor desafío, es que casi todas las soluciones dependen de la definición de lo que es verdadero o falso. Para que las etiquetas nos informen o los algoritmos puedan bloquear la difusión de las noticias falsas, debemos determinar la línea entre la verdad y la falsedad y otorgarle a alguien el derecho de decidir, por lo mismo es un problema difícil de resolver.
En segundo lugar, la desinformación está en constante movimiento, a medida que desarrollemos diseños para luchar contra la falsedad, aquellos que estén interesados en seguir promoviendo esto, se irán adaptando. Algunas de las noticias falsas que se estudiaron fueron de una categoría denominada mixta, que ocultan la falsedad en un manto de verdad, lo que las hace más difícil de detectar y más difícil de ignorar a nivel consumo. Si la falsedad es estrictamente vigilada, las historias mezcladas intencionalmente pueden volverse más frecuentes.
En tercer lugar, no hemos visto nada todavía, la falsedad con la que contamos hoy no es tan sofisticada e insidiosa como la seguramente veremos en el futuro cercano. En 2016 Rusia, en un esfuerzo por manipular las elecciones presidenciales de Estados Unidos, publicó mensajes políticos basados en textos en fotos manipuladas, pero las falsas noticias del futuro se manifestarán en audio y videos falsos construidos para parecer reales y que pueden cambiar la percepción de la realidad. Sólo imaginemos, lo que en cierta manera ya existen vídeos falsos de políticos comprometidos en un comportamiento que puede acabar con su carrera. Existe además la posibilidad de que el software de deep fakes se vuelva democrático facilitando su acceso y uso haría más complicada la detección.
Finalmente, no debemos cerrar las investigaciones independientes sobre cómo las plataformas sociales están afectando a la sociedad. En este momento, la forma en que las personas reaccionan a los anuncios microtargeteados puede ser la mejor indicación de cómo responderán a la manipulación política. Estas reacciones no son insignificantes, pero tampoco son impresionantes: las tasas de conversión de la base están en el rango de .01% a 0.1%. Con esos números tan bajos, ¿es realmente probable que Cambridge Analytica logre tasas de conversión entre el 5% y el 7% como testificó el denunciante Christopher Wylie? No lo sabemos, pero tenemos que hacerlo y con mayor razón si tenemos la intención de abordar con eficiencia los desafíos que tenemos por delante para nuestro ecosistema de información global.
_______________
El aumento de las noticias falsas amenaza con crear lo que el redactor atlántico Franklin Foer llama “el fin de la realidad”, pues vivimos en un mundo donde los destinatarios falsean las elecciones para las decisiones electorales y las elecciones democráticas, los políticos se defienden creando noticias falsas contra la oposición y las nuevas tecnologías crean realidades virtuales y artificiales, tan convincentes que compiten contra la verdad.
Si las tendencias logran separar lo que es real de la percepción colectiva de la verdad, estaremos en graves problemas. Las plataformas, los científicos y los reguladores necesitan trabajar juntos para preservar y promover la verdad antes de que nos enfrentemos a una batalla en todo el sentido de la palabra, por la realidad. LA GRAN IDEA