¿Es posible crear un sistema confiable para clasificar la verdad de la desinformación en Internet? ¿Cómo podría implementarse un sistema así?

El sistema del que hablas ya existe. No solo existe, existe en múltiples formas y en múltiples lugares.

Si bien no sé si fue el primero, es el primer sistema que me viene a la mente. Google!

Por lo que puedo decir, Google fue el primer motor de búsqueda en usar clasificaciones para mostrar los resultados de búsqueda. Cuando se creó Google por primera vez, era como cualquier otro motor de búsqueda, pero había algo especial incorporado en Google que usted y yo no podíamos ver. Google usaría el tiempo, los enlaces y el recuento de palabras para determinar qué información fue más útil.

La mayor cantidad de enlaces a una página significaba que más personas creían en la validez y utilidad de la información en la página. Google creó un algoritmo que combina esta información con el número o las palabras en una página relacionada con una búsqueda. Finalmente llegamos al punto en el que el resultado de búsqueda n. ° 1 tenía una precisión de más del 90%. Este fue el punto en el que llamar a Google se hizo popular.

Cuando la gente descubrió cómo Google llegó a sus resultados de búsqueda, nació una industria completamente nueva. Ingrese a SEO (optimización de motores de búsqueda).

Al principio, el SEO consistía en aclarar la información mediante el uso de palabras clave. Por ejemplo. Si tuviera una página web que tratara de autos Ford. En lugar de decir algo como “el Ford Mustang tiene una velocidad máxima de 200 mph y pasa de cero a sesenta en 3.4 segundos, también lo hace” bla, bla.

Para “optimizar” esto para los motores de búsqueda (Google), escribiría algo así como “el Ford Mustang tiene una velocidad máxima de 200 millas por hora, el Ford Mustang también hace cero a 60 en 3.4 segundos, el Ford Mustang también” bla bla bla.

En este último, mencioné a Ford y Mustang un 200% más. En un momento, esto habría sido suficiente para obtener el lugar número uno en Google si, si hubiera suficientes personas vinculadas a mi página.

La gente aprendió a jugar el sistema cada vez más usando todo tipo de técnicas. Esto hizo que Google hiciera algunos cambios en sus algoritmos. Esto llevó a Wikipedia a convertirse en el resultado de búsqueda número 1 con mayor frecuencia en consultas de búsqueda de relación de información.

Esto es significativo porque Wikipedia utiliza métodos completamente diferentes para verificar y clasificar la información.

Por separado, Google y Wikipedia son sistemas que clasifican y verifican la validez de la información. Para conseguirla, son un sistema muy poderoso con una precisión de aproximadamente el 99%.

Es imposible construir un sistema exacto para este problema en el caso general.

El principal problema es que no hay una forma absoluta de certificar que una respuesta es veraz.
Si supiéramos la respuesta real a una pregunta, ¿por qué necesitaríamos buscarla?

Por lo tanto, el problema se reduce a comparar información con un estándar de oro o usar heurísticas como encontrar un consenso mayoritario o clasificar la información confiando en las fuentes de las respuestas, que nunca son mecanismos exactos.

Esto no excluye la posibilidad de construir un sistema para un dominio restringido, como señaló el usuario de Quora.

A nivel mundial, esto no es posible. Es posible que sistemas más pequeños sean seleccionados y tengan verificaciones de confiabilidad. Incluso con un sistema pequeño, habrá algunos errores. Cuanto más grande es el sistema, más difícil es.

Incluso si desarrollamos un sistema que fuera bastante bueno, todos los sistemas se pueden jugar. Hay toda una industria basada en los resultados de juegos de Google. Cuando piensas en los fanáticos que impulsan agresivamente una visión del mundo, o en los resultados financieros disponibles al hacer que tu aceite de serpiente sea considerado “confiable”, es inevitable que la gente intente manipular los resultados.

En este momento, lo más cercano que tenemos a dicho sistema son los “verificadores de hechos”, de los cuales hay muchos, algunos especializados en política, otros en “leyenda urbana” (como Myth Busters) y otros. Sospecho que la base de dicho sistema tendría que basarse en la reputación de la fuente de la información, incluida la reputación de los “verificadores de hechos” que revisan la información. Tendría que haber algún tipo de recompensa por mantener una reputación impecable. El sistema también necesita un medio para vincular o adjuntar la evaluación de la información a cada iteración de la información en la web, o al menos a las fuentes más populares. La evaluación incluiría una medida de la reputación de la fuente y / o de los resultados y la reputación de cualquier verificación de hechos realizada. Obviamente, no estoy describiendo un sistema automático, sino una red de personas que se encargan de realizar dicha evaluación. Ahora que lo considero, tal sistema ya puede estar en su lugar, pero solo está disponible por un precio y no se publicita ampliamente.

En cuanto a la cuestión de “qué es la verdad”, pensaría que la utilidad de la información sería un factor para evaluar su verdad potencial. Por lo tanto, la evaluación de una declaración atribuida a un líder religioso o espiritual famoso solo podría indicar si la atribución es correcta o no. Luego, el lector tendría que decidir si considera que la fuente de la declaración es una fuente confiable en su área. La evaluación de tales líderes puede ser en términos de si se puede confiar o no en ellos para actuar de acuerdo con sus principios establecidos, por ejemplo, o si se comportan de una manera reconocida como que usan la religión como un medio para cumplir sus propios intereses personales. , a diferencia de los de sus seguidores.
Por otro lado, la evaluación de la información atribuida a la investigación científica debería tener en cuenta el proceso de revisión por pares, la replicación exitosa, la coherencia con otros resultados de la investigación, etc., así como la reputación del investigador y sus investigadores. empleadores o fuente de financiación. Las noticias del día podrían evaluarse sobre la base de la corroboración de fuentes confiables. El punto principal es que si la reputación pudiera evaluarse de manera confiable y cultivarse por medios sujetos a revisión, tal sistema podría ser posible.

Puede ser posible, pero primero debe crear una IA capaz de comprender el significado de cualquier oración, comprender el concepto y equipararlo con algo ya verificado. Si es igual, déjalo pasar, si no descarta.
Lo que acabo de describir en tan pocas palabras requeriría años de trabajo de cientos de programadores y millones, si no más, de líneas de código, sin mencionar una supermega computadora.

Y una vez que logramos crear una IA así, abrimos las posibilidades que puedes ver en las películas (como la IA decide que la humanidad misma es descartar y nos mata a todos)

No diré “no”, pero diré “no es probable”. En su forma más básica, dicho sistema tendría que examinar cada nueva información y compararla con los “hechos” establecidos. Lo que no esté de acuerdo con estos “hechos” puede calificarse de información errónea.

Esto plantea dos preguntas:

  1. ¿Quién decide qué es o no un hecho y cómo evitamos que esas personas registren falsedades?
  2. ¿Qué sucede cuando se hacen nuevos descubrimientos (fácticos)?

No. En primer lugar, debe traducir el problema en un formalismo decidible, y no existe un mecanismo acordado para hacerlo. En segundo lugar, debe ‘decidir’ y existen problemas indecidibles bien conocidos en todos los formalismos: incluso la prueba de Gödel de que todos los formalismos (suficientemente complicados) son inconsistentes o incompletos. Sin embargo, el problema de traducción, incluso con un formalismo acordado, es el verdadero asesino.

No estoy seguro de que sea una clasificación generalmente significativa, las nociones de verdad de sentido común son sensibles al contexto:

  • Ningún pingüino sobrevivió el invierno pasado en el Ártico puede ser una verdad engañosa.
  • Los tigres que nunca han vivido en África se hicieron verificablemente falsos cuando el primero fue importado a un zoológico, pero puede ser una declaración informativa (aunque imprecisa).
  • Esta afirmación es falsa de acuerdo con Internet Truth Machine es imposible para la Internet Truth Machine clasificar correctamente.

Sospecho que lo más veraz que podríamos tomar de clasificar Internet estaría limitado a una visión general sistemática de lo que la mayoría señala que están dispuestos a aceptar. Eso podría ser útil, pero no creo que sea un criterio objetivo para decidir sobre información confiable.

En cuanto a la implementación, supongo que estás viendo un intento en este momento.
No está del todo claro exactamente qué quieren decir las personas cuando hacen clic en este sitio, pero sí cuenta con cierto número de aprobaciones, verrugas semi confiables y todo.

Antes de comenzar a trabajar con un sistema de este tipo, debe definir qué verdad en el contexto de la red mundial en el contexto de su sistema abstraído hacia la implementación. Una vez que pueda determinar eso, todo lo que tendrá que hacer es escribir sus estructuras de datos y algoritmos y allí su sistema estará listo para su implementación. Los mejores deseos.

Es posible separar las mentiras obvias de la verdad, pero si invento una mentira elaborada y luego la difundo con pequeños consejos a los medios, no se notará, ya que el sistema necesitará una IA que pueda comprender el pensamiento humano. Ese tipo de IA no es posible de hacer, al menos con la tecnología actual.

Si. A través de la minería de datos.