Es nuestra responsabilidad encontrar maneras
de añadir los valores humanos en las estructuras
tecnológicas para crear el discurso en línea que queremos.
G. Kasparov
Ahora, más que nunca, el tema de las noticias falsas está en primera línea de nuestro debate social.
¿Qué dio origen a su ubiquidad? ¿Cómo se combate? ¿Es simplemente el resultado de la apertura de Internet que ha abierto un espacio más amplio para la comunicación?
Los especialistas en esta área del conocimiento han venido comentando lo acostumbrado que estaban a los comentarios de “trolls” (una persona con identidad desconocida que publica mensajes provocadores) en los artículos en línea o en las redes sociales, negándose a creer que este fenómeno es un aspecto ineludible de las últimas tecnologías de comunicación.
En la estructura de Internet no hay algo que requiera que la verdad se pierda en un pantano de hechos opcionales y ataques personales. Puede que ahora sea más fácil que esto suceda, dado el gran volumen de información que se puede transmitir en línea, pero establecer los estándares para el discurso que se quiere aún es una responsabilidad individual (personal u organizacional).
A medida que ellos escriben sobre inteligencia artificial y colaboración entre humanos y máquinas (“Pensamiento Profundo”; “Deep Thinking” en inglés), los avances tecnológicos pueden presentar nuevos obstáculos, pero superar estos retos hará de los usuarios ser más creativos, ya que obliga a innovar en lugar de retroceder en el progreso ya logrado. Así que se ha de pensar más creativamente, a ver si se pueden resolver los problemas sin restringir las viejas libertades.
Una respuesta al incesable troleo en línea (la publicación en la multimalla mundial -www- de mensajes provocativos, ofensivos o fuera de lugar con el fin de boicotear algo o a alguien, o entorpecer la comunicación) es cruzarse de brazos y entender que este tipo de actividad es una parte integral de Internet y que, si se quiere tener un debate donde todos los participantes están informados y son considerados, hay que desconectarse y realizar un cara a cara. El enfoque más productivo sería preguntarse cómo se puede combinar los mejores elementos de la interacción humana con el extraordinario potencial de la tecnología. Recientemente, una compañía de noticias noruega mostró un ejemplo de esto.
NRK ha implementado una prueba piloto sobre ciertas historias, que requiere que los lectores respondan varias preguntas de múltiple elección para poder comentar. El beneficio es doble: disuadir a los “trolls” profesionales haciendo que el proceso requiera más tiempo y, para los lectores, estipulando que tienen al menos una mínima comprensión de los hechos antes de comentar sin leer más que el título de la noticia. En otras palabras, el método apunta tanto a campañas de desinformación deliberadas (en las que se disemina (información falsa) como al peligro de una discusión no basada en pruebas reales, sino en prejuicios arraigados.
Esta intervención tiene como propósito reintroducir estándares claramente humanos en la discusión en línea. Si se quiere facilitar el debate productivo sobre el futuro de la sociedad, se debe preservar un marco común de conocimiento y normas para una comunicación respetuosa. No hay una razón por la que no se pueda hacerlo en Internet, ya que se sigue aprovechando su poder para democratizar la información.
Simplemente, se necesita encontrar nuevas maneras de integrar los valores en las actuales estructuras tecnológicas. Una manera de hacerlo puede ser un test sobre noticias, pero hay incontables posibilidades esperando a ser explotadas. ¿Tiene aún los moderadores humanos un rol decisivo en la regulación de las discusiones virtuales? ¿Pueden ser entrenados los algoritmos para moderar la civilidad humana del mismo modo que filtras palabras malsonantes en los mensajes de texto y contraseñas débiles en sitios web bancarios? No se pretende tener la respuesta. Se debe preguntar qué se valora y qué medidas se están disponiendo a poner en marcha para crear el entorno en línea que se quiere.
Al mismo tiempo que se piensa creativamente cómo mantener la calidad del discurso, también se debe salvaguardar su seguridad. Éste es otro ejemplo de qué y cómo las nuevas tecnologías empujan más allá de los límites para encontrar problemas de creciente complejidad. ¿Cómo se pude aplicar la anterior estrategia de fusionar lo mejor de las máquinas y de los humanos para hacer frente a los desafíos de seguridad?
Se puede hacer que la gestión de contraseñas sea más sencilla de utilizar, ampliando el enfoque de las empresas que proporcionan software de cifrado de contraseñas para eliminar la necesidad de memorizar decenas de credenciales. O se puede hacer que el intercambio de datos personales por servicios gratuitos sea más explícito, recordando a los usuarios que se inscriben que están cediendo acceso a su información personal.
Independientemente de las medidas exactas, se deben aprovechar las fortalezas y debilidades humanas con el fin de realizar acciones que garanticen una seguridad más intuitiva y atractiva. Es decir, más humana. Ningún sistema de seguridad funcionará si la gente se niega a usarlo o si no sabe cómo usarlo de manera efectiva En algunos casos, la seguridad pasa a ser una cuestión de defensa colectiva, donde una pequeña cantidad de gente puede poner a millones en riesgo. Es probable que se tenga que implementar la coerción regulatoria, del mismo modo que los padres están obligados a vacunar a sus hijos antes de enviarlos a la escuela (por el mismo motivo: seguridad). Por ejemplo, un fabricante que produce un dispositivo que puede ser fácilmente explotado y convertido en un arma en línea debe asumir la responsabilidad. ¿Qué pasa con los usuarios individuales que no pueden actualizar sus computadoras, permitiéndole a redes de computadoras infectadas con malware que son controladas por un ciberdelincuente (“botnets”) unirse y paralizar Internet? ¿Deberían estas máquinas ser eliminadas de Internet? ¿En qué momento la ciberseguridad se convierte en una cuestión de responsabilidad legal cuando otros se ponen en riesgo, como conducir ebrio?
Cada una de las personas tiene la responsabilidad, como ciudadano de la era digital, de pensar en cómo se contribuye a la conversación. También las personas son responsables de mantener segura la información y, por extensión, el sistema. A menudo, estas responsabilidades se entrelazan, como cuando Facebook usa la información que recopila de los usuarios para determinar qué noticias deben aparecer en sus “feeds” de noticias.
Nuestros contactos: e-mail: [email protected]; X (antes: Twetter). @genacción; Instagram: @gerenciaenaccionve; Facebook: gerenciaenaccionvzla; y Whatsapp: 584244115051.
Escuche el micro-programa “Gerencia en Acción” de lunes a viernes a las 12:45 pm por MAX FM 29,9 o por www.maxfm929.com.