26.4 C
Nueva York
Más

    El nuevo poder de los algoritmos: cómo la IA está destruyendo el periodismo y reinventándolo

    Published:

    Un viaje a través de los campos de batalla éticos de una industria en transición

    Vincent Berthier, de Reporteros Sin Fronteras, lo califica de "arma contra el periodismo". Anderson Cooper, Gayle King y Clarissa Ward ya han sido víctimas. Los deepfakes transforman rostros confiables en instrumentos de desinformación. Mientras tanto, las redacciones, desde Silicon Valley hasta Bruselas, luchan por el futuro de una profesión más antigua que cualquier tecnología y más frágil de lo que jamás imaginamos.

    La máquina habla con tu voz.

    Era un video que nadie debería haber visto. Gayle King, la respetada presentadora de CBS Mornings, habló directamente a la cámara sobre su supuesto secreto para bajar de peso: "Chicas, la verdad es que no esperaba que mi pérdida de peso generara tantas preguntas. Mis mensajes directos en Instagram están inundados". Su voz me sonaba familiar, su rostro se movía con naturalidad, solo que las palabras no coincidían con el movimiento de sus labios. Y Gayle King nunca grabó el video del producto dietético "Artipet".

    "Publiqué un video promocionando mi programa de radio el 31 de agosto, y manipularon mi voz y video para que pareciera que lo estaba promocionando", escribió King en Instagram. "¡Nunca he oído hablar de este producto ni lo he usado! Por favor, no se dejen engañar por estos videos de IA..."

    La experiencia de King ya no es un incidente aislado. Los deepfakes han atacado a periodistas de medios como CNN, CBS, BBC y VOA, haciéndose pasar por periodistas destacados como Anderson Cooper, Clarissa Ward y Gayle King. Lo que antes era ciencia ficción es ahora una realidad digitalmente accesible: la inteligencia artificial no solo puede escribir texto, sino también imitar rostros y voces humanas con tanta perfección que incluso los expertos tienen dificultades para detectar la falsificación.

    Las aterradoras estadísticas detrás de esto: Este año se publicaron en línea tres veces más deepfakes de vídeo de todo tipo y ocho veces más deepfakes de voz que en el mismo período de 2022, informa DeepMedia, una empresa que trabaja en herramientas de detección.

    Pero la revolución de la inteligencia artificial en el periodismo no se limita al turbio mundo de los deepfakes. Permea todos los aspectos de la producción periodística: desde la generación automatizada de artículos hasta la curación de contenido personalizada, desde la verificación de datos en tiempo real hasta la segmentación precisa de la audiencia. La pregunta ya no es si la IA transformará el periodismo; ya lo está haciendo. La pregunta crucial es: ¿Podremos controlar esta transformación o nos controlará ella a nosotros?

    Europa está construyendo los límites del futuro de la IA

    Mientras Silicon Valley desarrolla sistemas de IA a la velocidad del capital riesgo, Europa ha adoptado un enfoque diferente: prioriza la regulación antes que la innovación. El Reglamento de IA de la UE (Ley de IA) es el primer marco jurídico integral del mundo para la IA, que entrará en vigor el 1 de agosto de 2024. Sin embargo, para el sector de los medios de comunicación, este logro pionero conlleva dificultades inesperadas.

    La profesora Natali Helberger critica la Ley de IA por ofrecer “en general menos garantías legales y menos requisitos legales para las organizaciones de medios”, una laguna notable en una regulación que pretende promover una IA fiable.

    El problema del control editorial Se está convirtiendo en la cuestión interpretativa central de nuestro tiempo: el artículo 50 del Reglamento sobre IA exige que los textos generados o manipulados por IA, publicados con fines de información pública sobre asuntos de interés público, revelen que el contenido fue generado o manipulado artificialmente. Pero ¿qué constituye exactamente el «control editorial»? ¿Y cuándo se debe informar explícitamente a los consumidores sobre la participación de la IA?

    Las respuestas a estas preguntas son más que nimiedades académicas. Definen nada menos que el futuro de la verdad en las sociedades democráticas.

    Agnes Stenbom, experta del sector, advierte: Las organizaciones de medios no deberían confiar enteramente en la Ley de IA, especialmente porque todavía está en desarrollo, sino buscar el diálogo y la cooperación entre ellas para encontrar soluciones comunes.

    Los algoritmos del sesgo

    Detrás de las deslumbrantes promesas de la revolución de la IA se esconde una cruda verdad: los algoritmos son tan objetivos como las personas que los programan y los datos con los que se entrenan. Inclinación – La distorsión sistemática – es el espectro que ronda las redacciones de Europa.

    Un análisis reciente de 14 publicaciones científicas identificó el sesgo como la preocupación ética más común en relación con la adopción de tecnologías de IA generativa en los medios de comunicación. Estos sesgos se manifiestan de diversas formas, a menudo sutiles:

    • Sesgo de selección en la selección de temas noticiosos: ¿Qué historias son clasificadas como “importantes” por los algoritmos?
    • Sesgo de confirmación causado por sistemas de recomendación algorítmica: ¿Los sistemas de IA refuerzan las cámaras de eco existentes?
    • Distorsiones demográficas: ¿Cuyas voces se escuchan y cuáles se ignoran?

    Un ejemplo concreto de la práctica: Si un sistema de IA ha sido entrenado principalmente con textos de periodistas blancos, hombres, de países occidentales, considerará esta perspectiva como “normal” y sistemáticamente subrepresentará o malinterpretará otros puntos de vista.

    La población alemana se muestra particularmente escéptica sobre este aspecto. Un estudio representativo del Monitor de Opinión sobre Inteligencia Artificial (MeMo:KI), con 1035 participantes, reveló que el uso de la IA en las redacciones se ve con mucha crítica. Los encuestados perciben poca mejora en la calidad periodística gracias a la IA y la mayoría está a favor de una regulación estricta.

    La Carta de París: un manifiesto para la supervivencia

    En noviembre de 2023, 32 expertos de 20 países se reunieron en París para crear lo que muchos consideraban imposible: un consenso ético global sobre la IA en el periodismo. Presidida por la periodista y ganadora del Premio Nobel de la Paz, Maria Ressa, la comisión desarrolló la Carta de París sobre IA y Periodismo, el primer referente ético internacional de este tipo.

    María Ressa advierte urgentemente: La inteligencia artificial podría brindar servicios extraordinarios a la humanidad, pero claramente tiene el potencial de aumentar la manipulación mental a una escala nunca antes vista en la historia.

    La carta establece diez principios básicos que deberían servir de brújula ante las tormentas éticas de la revolución de la IA:

    1. La ética debe guiar las decisiones tecnológicas en los medios
    2. La toma de decisiones humanas debe seguir siendo el centro de las decisiones editoriales
    3. Los medios de comunicación deben ayudar a la sociedad a distinguir entre el contenido auténtico y el sintético
    4. Los medios de comunicación deben participar en la gobernanza global de la IA

    “Como guardianes esenciales del derecho a la información, los periodistas, los medios de comunicación y los grupos de apoyo periodístico deben desempeñar un papel activo en la gobernanza de los sistemas de IA”, afirma la carta.

    Pero las buenas palabras por sí solas no bastan. El verdadero desafío reside en la implementación, y en la cuestión de si una industria que ya lucha por su supervivencia económica puede reunir los recursos y la voluntad para priorizar los estándares éticos sobre las mejoras de eficiencia a corto plazo.

    Los medios alemanes en el experimento de IA

    Mientras los debates internacionales se intensifican, las empresas de medios alemanas ya están experimentando con el futuro. La editorial Spiegel Se considera pionera y lleva años utilizando IA en diversas aplicaciones editoriales: desde el doblaje y la transcripción de textos hasta la evaluación de las contribuciones de los usuarios. Particularmente innovador fue el uso de generadores de imágenes como Midjourney para los artículos de portada sobre "El Fin de la Verdad", con estricta transparencia para los usuarios.

    Reuters Alemania Ha adoptado un enfoque diferente: con "Fact Genie", desarrollaron una herramienta interna que escanea comunicados de prensa en segundos y sugiere titulares al equipo editorial. Sabine Wollrab, jefa de la oficina de Reuters para Alemania, Austria y Suiza, enfatiza: "La confianza es uno de nuestros puntos fuertes. Reuters es una marca muy fiable. Y no queremos vender eso a la IA".

    El periódico Frankfurter Allgemeine Zeitung muestra cómo puede ser la integración selectiva de IA: utiliza IA específicamente para la optimización de negocios digitales, doblaje, transcripción y archivo, pero excluye categóricamente las contribuciones originales con texto generado por IA.

    El Correos del RinUn asistente con asistencia mediante IA gestiona las llamadas de los clientes las 24 horas del día y ha convertido a la empresa en uno de los operadores de centros de llamadas más eficientes de la industria de los medios, informa Margret Seeger, directora de publicaciones digitales y jefa de IA en Rheinische Post Media Group.

    Las alucinaciones de las máquinas

    Quizás la característica más inquietante de los sistemas modernos de IA sea su tendencia a la "alucinación": la generación de información aparentemente plausible, pero factualmente incorrecta. Esta tendencia desafía fundamentalmente principios periodísticos básicos como la veracidad y la precisión.

    Un ejemplo reciente: En diciembre, la corresponsal de CNN, Clarissa Ward, apareció en televisión durante 12 minutos para informar que se había encontrado con un prisionero en Damasco, la capital de Siria, tras el derrocamiento del dictador Bashar al-Assad. Este afirmó llamarse Adel Ghurbal, pero los verificadores de datos determinaron que su verdadero nombre era Salama Mohammad Salama, quien en realidad era teniente de la fuerza aérea de Assad.

    Este ejemplo muestra que los límites entre el error humano y la desinformación de las máquinas se están difuminando. El desafío se ve agravado por el hecho de que la responsabilidad por el contenido defectuoso generado por IA sigue siendo poco clara desde el punto de vista legal y ético.

    En este sentido, el Consejo de Prensa Alemán ha aclarado que el Código de Prensa se aplica sin restricciones al contenido asistido por IA y que la responsabilidad editorial recae en los humanos. Pero ¿qué implica esto en la práctica si un sistema de IA produce desinformación que un editor con exceso de trabajo no detecta a tiempo?

    La lucha por la propiedad intelectual

    Tras los debates éticos, se libra una encarnizada guerra económica: la cuestión de los derechos de autor. Muchos editores se quejan de que sus artículos se han utilizado para entrenar modelos de IA sin permiso, lo que plantea problemas legales y éticos. El NUJ (Sindicato Nacional de Periodistas) ha declarado explícitamente que sus miembros no autorizan el uso de sus obras protegidas por derechos de autor para el entrenamiento de IA.

    Felix Simon, investigador del Oxford Internet Institute, identificó un “desequilibrio de poder familiar” entre los editores de noticias y las empresas de tecnología que se está viendo exacerbado por la adopción de IA. Las empresas de medios que han producido contenidos durante décadas ahora se encuentran en la posición de que su trabajo sea utilizado, sin compensación, para entrenar sistemas que potencialmente podrían volverlos obsoletos.

    Es una paradoja de proporciones kafkianas: la industria que se supone debe democratizar la información se ve amenazada por su propia producción.

    Empleos en la era de los algoritmos

    La preocupación por los empleos no es infundada. Una encuesta reciente a profesionales de los medios de comunicación reveló que el 57,2 % de los periodistas teme que la IA reemplace más puestos de trabajo en los próximos años. El 21 % de los periodistas encuestados ya informa haber perdido su trabajo debido a la implementación de la IA.

    Un ejemplo impactante de Polonia: La estación de radio polaca OFF Radio Krakow causó revuelo internacional en octubre de 2024 cuando despidió a una docena de periodistas y los reemplazó por presentadores generados por inteligencia artificial. La emisora incluso transmitió una “entrevista” con la fallecida premio Nobel Wisława Szymborska, quien falleció en 2012.

    Mateusz Demski, periodista despedido, lanzó una petición contra la "sustitución de empleados por inteligencia artificial". Más de 23.000 personas firmaron la petición. Tras solo una semana de intensas protestas, la emisora canceló el "experimento" previsto, de tres meses de duración, un caso excepcional de oposición pública que revierte la implementación de una IA.

    Pero el temor va más allá de las preocupaciones laborales. Esta evolución va de la mano con una preocupación más fundamental sobre la pérdida de la identidad humana y la autonomía en el periodismo, expresada por más del 60% de los encuestados.

    ¿Qué significa para una democracia que las voces que informan a sus ciudadanos ya no sean humanas?

    Confianza pública: ¿un contrato social roto?

    El público alemán reacciona con marcado escepticismo ante la revolución de la IA en los medios. El Informe de Noticias Digitales 2024 del Instituto Reuters confirma esta tendencia: la mitad de los encuestados alemanes se sienten incómodos con las noticias generadas predominantemente por IA.

    Particularmente digno de mención: Incluso los adultos jóvenes, que generalmente son más abiertos a las noticias generadas por IA, ven la información política proveniente de fuentes de IA con un escepticismo similar al de los encuestados de mayor edad.

    Un hallazgo preocupante muestra que las personas, en general, desconfían de las fuentes de noticias, independientemente de si el artículo fue escrito por una IA o por un periodista humano. Esto apunta a una crisis de confianza más profunda que trasciende el debate sobre la IA.

    La pregunta central es: ¿Pueden los medios recuperar la confianza siendo más transparentes en el uso de la IA, o la transparencia, paradójicamente, aumenta la desconfianza?

    Perspectivas internacionales: Lecciones del mundo

    En Indonesia Ofrece a las redacciones información valiosa sobre los desafíos del periodismo semiautomatizado. Una revisión bibliográfica de los últimos cinco años reveló que, si bien la IA puede aumentar la eficiencia, existen deficiencias significativas en la calidad del contenido. El estudio enfatiza la necesidad de capacitar a los periodistas en el uso responsable de la IA.

    En los Estados Unidos Un estudio exhaustivo del Centro Tow de Periodismo Digital de la Universidad de Columbia, que encuestó a más de 130 periodistas de 35 empresas de medios, muestra que la apertura a las tecnologías de IA está impulsada no solo por mejoras técnicas, sino también por la presión del mercado y la esperanza de nuevos modelos de negocios.

    La lección: La adopción de IA no es un fenómeno puramente técnico, sino profundamente económico y cultural.

    Perspectivas futuras: La siguiente etapa de la evolución

    Florian Schmidt, del equipo de verificación de datos de la APA, predice que las imágenes y los vídeos generados por IA serán prácticamente irreconocibles en unos meses. El periodista científico Ranga Yogeshwar advierte que «por primera vez en la historia de la humanidad, el lenguaje ya no es un monopolio humano».

    Este desarrollo tiene implicaciones fundamentales para la democracia, la economía y la jurisprudencia. Si la comunicación auténtica ya no puede distinguirse de la comunicación sintética, debemos repensar todos nuestros sistemas de búsqueda de la verdad.

    Algunos estiman que hasta el 90% del contenido en línea podría generarse sintéticamente para 2026. En un mundo así, el papel del periodismo no desaparecerá, sino que cambiará fundamentalmente y se convertirá en un curador de la autenticidad en un océano de lo sintético.

    Recomendaciones para la acción: Una brújula en medio de la tormenta

    De la experiencia internacional y de los hallazgos científicos se pueden derivar recomendaciones concretas de acción:

    Para empresas de medios:

    • Implementación de estrictos estándares de transparencia: Cualquier uso de IA debe estar claramente marcado
    • Inversión en educación: Formación continua de periodistas en el uso de IA
    • Marcos éticos: Desarrollo de directrices internas para el uso de IA
    • Humano en el circuito: Garantizar el control humano sobre todas las decisiones editoriales

    Para los reguladores:

    • Aclaración de la Ley de IA: Aclaración de los términos “control editorial” y obligaciones de transparencia
    • Coordinación internacional: Colaboración en el desarrollo de estándares globales
    • Mecanismos de ejecución: Aplicación efectiva de las regulaciones existentes

    Para la sociedad:

    • Alfabetización mediática: Educación en el reconocimiento de contenidos generados por IA
    • Conciencia crítica: Cuestionando las fuentes de información
    • Apoyando medios de comunicación de alta calidad: Decisiones de consumo conscientes

    Epílogo: El momento de la decisión

    Nos encontramos en un punto de inflexión histórico. La ampliación del plazo de implementación de la Ley de IA de la UE hasta 2027 podría resultar problemática, ya que los daños causados por el uso no regulado de la IA podrían volverse irreversibles.

    El futuro del periodismo no estará determinado por si se utiliza IA, sino por cuán responsable y éticamente se lleve a cabo esta integración. El desarrollo de directrices éticas sólidas, la capacitación continua de los profesionales de los medios y una mayor concienciación pública son cruciales para mantener la confianza pública y garantizar la función democrática del periodismo.

    Vincent Berthier, de Reporteros sin Fronteras, lo resumió así: Los deepfakes son un “arma contra el periodismo” porque socavan la confianza en los medios y explotan la confiabilidad de los medios con fines de desinformación.

    La ironía de la historia: Una tecnología que prometía brindarnos conocimiento infinito podría anunciar el fin de la verdad. Depende de todos —periodistas, tecnólogos, reguladores y ciudadanos— asegurar que esto no suceda.

    La batalla por el futuro de la verdad ha comenzado. ¿De qué lado estás?

    Este artículo se basa en un análisis exhaustivo de estudios académicos actuales, informes de la industria y enfoques regulatorios internacionales. Todas las fuentes han sido verificadas y se ajustan a los avances actuales.

    Recursos y enlaces adicionales

    Reglamento europeo:

    Normas internacionales:

    Problema de deepfake:

    Panorama mediático alemán:

    Estudios de casos internacionales:

    Recursos técnicos:

    Related articles

    Recent articles