¿Es buena la decisión de Facebook de seleccionar algorítmicamente temas de tendencias?

Creo que están lanzando deliberadamente una peor experiencia porque este producto no es lo suficientemente importante como para que valga la pena ser percibido como una plataforma sesgada, todavía.

Facebook quiere ser utilizado por todos en Internet, con más de mil millones de usuarios, están tan cerca como cualquiera ha logrado eso. Las noticias son importantes para alimentar y, en general, Facebook:

Entonces, las noticias son importantes para Facebook. Intentaron genuinamente construir un buen producto, y dado el estado de PNL y Aprendizaje automático hoy en día, se necesitan humanos para resumir historias, deduplicarlas y, en general, ofrecer la mejor experiencia de usuario posible . Eche un vistazo a esto antes / después, el antes es claramente la experiencia de lectura más útil.

Cuando vi por primera vez la nueva versión, pensé que era un experimento intentar hacer que la sección fuera más clickbaity y no algo que esperaría que la compañía enviara, pero después de leer las noticias me di cuenta de que eliminaron los resúmenes para no hacer el enlace más clickbaity, pero porque querían eliminar el sesgo humano.

Como usuario, esto apesta: ahora veo más títulos malos e historias resumidas incorrectamente y no confío tanto en el producto, pero entiendo por qué lo hicieron. Cualquier otra parte de Facebook es una plataforma desprovista de la opinión de la compañía: suministro de noticias, páginas, grupos, mensajería, etc. Eso es lo que les permite ser tan ubicuos, es un producto que no tiene una opinión propia, por lo que es de valor para todos. Blue Feed, Red Feed es un gran ejemplo de esto:

Es un hecho bien conocido que la contratación de Facebook no está perfectamente distribuida entre todas las poblaciones, y es realmente difícil hacerlo así: ex empleado de Facebook: el 90% del equipo de Trending Topics era liberal, Breitbart consiguió un escrutinio adicional: Breitbart.

Creo que acaban de concluir que no importa cuán imparcial intenten ser, siempre y cuando el grupo demográfico de sus empleados no represente un conjunto completamente imparcial (esto es casi imposible de lograr), no podrían convencer al mundo exterior. En ese punto, la conclusión natural es hacer que el producto específico sea algorítmico e imparcial, a un costo local para el producto, pero en general positivo para la percepción de la empresa.

Yo diría que es pobre, pero por una razón bastante específica.

El problema es que están tratando de realizar una tarea que no es exclusivamente una tarea de PNL, utilizando exclusivamente PNL.

La gente entiende el contexto. Tenemos un modelo mental de eventos mundiales, personas, cómo interactúan, y podemos resumir adecuadamente el contexto en pocas palabras. Sabemos lo que destaca y lo que la gente encontrará interesante (que a veces es diferente de lo que mucha gente dice actualmente).

Tenemos modelos mentales de grupos sociales que nos permiten distinguir entre cosas que solo son populares en ciertos subgrupos y cosas que tienen una gran popularidad, que atraerían a muchos para la mayoría de las personas.

Podemos distinguir entre varias cosas que suceden alrededor de la misma persona al mismo tiempo (he visto que Facebook confunde o agrupa varios eventos).

No creo que Facebook tenga un motor con un modelo del mundo moderadamente bueno que utilice para distinguir el contexto, porque eso parece un montón de trabajo por hacer para mejorar el servicio en un 30%. Y lo sería.

Pero hasta que obtenga algo en ese sentido, será significativamente peor que un humano intentando la misma tarea. La tecnología aún no está implementada para que se cree con una cantidad razonable de trabajo y aún sea comparable a una persona.