Según una nueva investigación de la Universidad de Binghamton, la Universidad Estatal de Nueva York.
La investigación dirigida por Thi Tran, profesora asistente de sistemas de información gerencial en la Escuela de Administración de la Universidad de Binghamton, amplía los estudios existentes al ofrecer herramientas para reconocer patrones en la información errónea y ayudar a los creadores de contenido a detectar a los peores infractores.
«Espero que esta investigación nos ayude a educar a más personas sobre cómo ser conscientes de los patrones», dijo Tran, «para que sepan cuándo verificar algo antes de compartirlo y estén más atentos a las discrepancias entre el título y el contenido en sí, lo que mantendría la la información errónea se propague sin querer».
La investigación de Tran propuso sistemas de aprendizaje automático, una rama de la inteligencia synthetic (IA) y la informática que utiliza datos y algoritmos para imitar la forma en que los humanos aprenden mientras mejoran gradualmente su precisión, para ayudar a determinar la escala en la que el contenido podría causar el mayor daño. a su audiencia.
Los ejemplos podrían incluir historias que circularon durante el apogeo de la pandemia de COVID-19 que promocionan falsos tratamientos alternativos a la vacuna.
El marco usaría datos y algoritmos para detectar indicadores de información errónea y usaría esos ejemplos para informar y mejorar el proceso de detección. También consideraría las características de los usuarios de personas con experiencia previa o conocimiento sobre noticias falsas para ayudar a armar un índice de daño. El índice reflejaría la gravedad del posible daño a una persona en ciertos contextos si fuera expuesta y víctima de la información errónea.
«Es más probable que nos interesen las noticias falsas si causan un daño que afecta a los lectores o al público. Si las personas perciben que no hay daño, es más possible que compartan la información errónea», dijo Tran. «Los daños provienen de si las audiencias actúan de acuerdo con las afirmaciones de la desinformación, o si rechazan la acción adecuada debido a ello. Si tenemos una forma sistemática de identificar dónde la desinformación hará más daño, eso nos ayudará a saber dónde enfocarnos. en la mitigación».
Según la información recopilada, dijo Tran, el sistema de aprendizaje automático podría ayudar a los mitigadores de noticias falsas a discernir qué mensajes probablemente sean más dañinos si se les permite propagarse sin ser cuestionados.
«Su nivel educativo o creencias políticas, entre otras cosas, pueden desempeñar un papel en la probabilidad de que confíe en un mensaje de información errónea o no, y el sistema de aprendizaje automático puede aprender esos factores», dijo Tran. «Por ejemplo, el sistema puede sugerir, de acuerdo con las características de un mensaje y su personalidad y antecedentes, and so on., que es un 70% possible que se convierta en víctima de ese mensaje de desinformación específico».
Si bien se han realizado otros estudios sobre el uso de blockchain, un tipo de tecnología de foundation de datos compartida, como una herramienta para combatir las noticias falsas, la investigación de Tran también amplía los hallazgos anteriores al explorar más de cerca la aceptabilidad de dichos sistemas por parte del usuario.
Tran propuso encuestar a 1000 personas de dos grupos: mitigadores de noticias falsas (organizaciones gubernamentales, medios de comunicación y administradores de redes sociales) y usuarios de contenido que podrían estar expuestos a mensajes de noticias falsas. La encuesta establecería tres sistemas de cadena de bloques existentes y mediría la voluntad de los participantes de usar esos sistemas en diferentes escenarios.
La trazabilidad es una de las buenas características de blockchain, dijo Tran, porque puede identificar y clasificar las fuentes de información errónea para ayudar a reconocer los patrones.
«El modelo de investigación que construí nos permite probar diferentes teorías y luego demostrar cuál es la mejor manera de convencer a las personas de usar algo de blockchain para combatir la desinformación», dijo Tran.
Tran presentó recientemente su investigación en una conferencia organizada por SPIE, la organización internacional sin fines de lucro dedicada al avance de la investigación y las tecnologías basadas en la luz. Un documento se centró en el marco basado en el aprendizaje automático y otro documento trató sobre el uso de blockchain.