Los prejuicios en el periodismo no son nada nuevo, pero hay preocupaciones crecientes de que la tecnología nos está empujando a cámaras de eco donde solo escuchamos un lado de la historia. Ahora una startup dice que está usando AI para brindarnos una fuente de noticias verdaderamente imparcial.
Knowhere lanzó a principios de este mes, junto con un anuncio de que había recaudado $ 1.8 millones en capital de riesgo. El sitio usa AI para agregar noticias de cientos de fuentes y crear tres versiones de cada historia: una sesgada a la izquierda, otra a la derecha y otra que pretende ser imparcial.
Los algoritmos de procesamiento de lenguaje natural navegan a través de más de mil fuentes de noticias para identificar historias populares, le dijo la compañía a Motherboard . Analiza estas historias en términos narrativos, hechos y sesgos y utiliza la base de datos resultante para armar tres versiones de la historia. En historias no políticas, las categorías son imparciales, positivas y negativas.
Estas historias se pueden escribir en cualquier lugar de 1 a 15 minutos, dependiendo de la cantidad de desacuerdo que exista entre las fuentes y los editores humanos, quienes luego le dan una oportunidad al artículo antes de que se publique.
La compañía dice que su objetivo es hacer que las máquinas hagan lo que los humanos no pueden: examinar las historias escritas sobre eventos importantes para extraer los hechos y narrativas más destacados.
"Estamos practicando una forma de periodismo que supera la sobrecarga de información y sus silos resultantes, tratando de conciliar las muchas narrativas diferentes salidos de cada historia, y dando nuestros primeros pasos hacia una fuente de registro verdaderamente comprensible para todos", el fundador y editor en jefe, Nathaniel Barling, dijo en un comunicado .
La compañía no es la primera en sugerir que es posible que tengamos que conseguir máquinas en nuestros esfuerzos por superar la desinformación y el sesgo de la era posterior a la verdad . Las elecciones presidenciales estadounidenses de 2016 trajeron el término "noticias falsas" a la conciencia pública, y gran parte del esfuerzo en esta área hasta ahora ha sido eliminar artículos deliberadamente engañosos en Internet.
Facebook ha estado probando una serie de herramientas que destacan posibles noticias falsas y enlaces a artículos que las disputan. Según los informes, ejecutivos de Google también sugirieron la idea de una extensión de navegador que pudiera señalar material sospechoso en los sitios web de Facebook o Twitter en la reunión del Foro Económico Mundial en Davos en febrero.
Ahora AI se alista en la batalla también, de acuerdo con MIT Tech Review . Startup AdVerif.ai está creando algoritmos para ayudar a las plataformas de contenido a detectar historias falsas, y los voluntarios en la comunidad de AI han comenzado el Fake News Challenge , una competencia diseñada para impulsar el desarrollo de herramientas de aprendizaje automático para la verificación de datos.
Aunque esto puede ser más difícil de lo que parece. Como Martin Robbins escribe en The Guardian , no siempre es fácil encontrar lo que cuenta como noticias falsas. Verificar las afirmaciones sobre los números en comparación con los conjuntos de datos disponibles públicamente es una cosa, pero tratar de descubrir la verdad en tratos políticos poco claros y cerrados a puerta cerrada puede no ser tan simple.
El problema que trata Knowhere es aún más complicado y matizado. Incluso si los hechos en una historia son verdaderos, la forma en que se presentan se puede ajustar para apoyar una agenda particular, y prácticamente todas las organizaciones de noticias son culpables de esto en diversos grados.
Incluso con la mejor voluntad del mundo, es difícil de evitar, porque gran parte de lo que escriben los periodistas es subjetiva. No es posible tener una opinión completamente imparcial sobre política o religión, y las creencias de un escritor o editor indudablemente se filtrarán en su copia.
La esperanza de la compañía es que al tomar una muestra amplia de fuentes de noticias, todas sesgadas en diferentes grados, puedan identificar una vía intermedia. Eventualmente planean eliminar las tres versiones y simplemente publicar la imparcial.
Pero puede que no sea así de simple. Para empezar, Knowhere admitió en Motherboard que los fundadores han ponderado la confiabilidad de las fuentes de forma manual en función de su reputación de precisión. Y cuando las historias escritas a máquina se pasan a los editores, no solo verifican los errores y el estilo, sino que también buscan signos de parcialidad en las versiones imparciales de las historias. Estas ediciones se usan luego para entrenar aún más los algoritmos.
Está bien establecido que AI tiene una fuerte tendencia a detectar los sesgos humanos , e incluso las señales sutiles pueden tener un impacto significativo cuando se amplifican a través de miles de ejemplos de entrenamiento. Las decisiones humanas sobre confiabilidad e imparcialidad no pueden evitar ser subjetivas, y aunque cualquier sesgo puede ser sutil, si aparecen bajo la bandera "imparcial" podrían ser insidiosas.
Un enfoque potencialmente más prometedor puede ser simplemente ampliar la exposición de la gente a narrativas competitivas y dejar que ellos decidan, efectivamente, eliminar la versión "imparcial" de las historias de Knowhere y simplemente mostrarles a los lectores las tomas de izquierda y derecha.
El año pasado, investigadores finlandeses e italianos desarrollaron un algoritmo que podía detectar las tendencias políticas de los usuarios de las redes sociales y presentarlos con puntos de vista opuestos. La extensión de Chrome EscapeYourBubble hace algo similar al insertar noticias en el feed de noticias de Facebook de un usuario que las expone a puntos de vista opuestos.
Desafortunadamente, la mayoría de la gente está muy cómoda con sus prejuicios. Se necesita una persona particularmente abierta para instalar un servicio que desafíe deliberadamente sus puntos de vista, y los sitios de redes sociales no suelen imponer el contenido que los usuarios consideran controvertido por temor a expulsarlos.
En última instancia, y tal vez no sea sorprendente, puede ser difícil encontrar soluciones tecnológicas simples para los problemas humanos de desinformación y prejuicios.
Comentarios
Publicar un comentario
Tu opinión importa !!!!!!!!!
Saludos crema