II La identidad digital como derecho: la vanguardia danesa y la visión de Elefantes Esmeralda frente a los deepfakes
Share
Tecnología con la humanidad: el Estado árbitro (no amo) y la brújula ética ciudadana
Lograr un equilibrio entre tecnología y humanidad exige un marco regulatorio inteligente y una sociedad activa y consciente . Ni el laissez-faire tecnológico ni el control totalitario son deseables; en su lugar, se propone un Estado árbitro que establezca reglas del juego justas, junto con una ciudadanía empoderada que lidere con el ejemplo ético en la esfera digital. Esto se inspira tanto en el pensamiento austríaco (Estado limitado que garantiza libertades) como en enfoques regenerativos que enfatizan la colaboración público-privada y la resiliencia de la comunidad.
Dinamarca encarna en buena medida ese rol arbitral . Su gobierno, lejos de demonizar la IA o acaparar su control, ha definido unas reglas claras para que la tecnología sirva al ser humano y no lo atropelle. El ministro Engel-Schmidt afirmó que si las plataformas no cooperan con la nueva ley, Dinamarca está dispuesta a tomar “medidas adicionales” e incluso escalar el asunto a la Comisión Europea [70][71] . Esto muestra un Estado firme en hacer cumplir las normas, incluso con “tarjeta roja” (multas severas) a los gigantes tecnológicos que las violan [72] . Al mismo tiempo, la función es de árbitro imparcial : la ley se aplica a todos los actores por igual y protege a todos los ciudadanos por igual. No se trata de un Estado paternalista que dicta qué es verdad (no hay un Ministerio de la Verdad que censura los contenidos preventivamente), sino de un Estado que garantiza las condiciones para que la verdad y la confianza puedan sobrevivir. En términos futbolísticos, pone las reglas y sanciona las faltas, pero no mete los goles: quienes “meten los goles” de la veracidad serán los ciudadanos, medios y empresas actuando correctamente una vez establecidas las normas.
Este modelo regulatorio participativo es congruente con iniciativas globales de cooperación. Por ejemplo, el Foro Económico Mundial impulsa una Coalición Global para la Seguridad Digital destinada a facilitar la colaboración público-privada contra contenidos dañinos en línea, deepfakes incluidos [73][74]. La coalición promueve compartir mejores prácticas regulatorias y mejorar la alfabetización mediática digital a nivel mundial[74]. Dinamarca, con su liderazgo, envía “señales políticas contundentes” a Bruselas y al resto de la UE de que es hora de tomar acción coordinada en este tema[75]. Esto es el Estado actuando como catalizador y “árbitro interregional”, inspirando a otros Estados a pitar las mismas reglas en el juego global del internet. En América Latina, sería deseable una convergencia similar: hasta ahora cada país avanza a su ritmo y no existe un marco regional para IA[27]. Siguiendo el ejemplo europeo, nuestros gobiernos podrían trabajar juntos (quizá en la OEA o CEPAL) para desarrollar lineamientos comunes que aborden los deepfakes respetando nuestra realidad cultural y jurídica. Un marco latinoamericano de IA con enfoque en derechos humanos sería un paso importante para no quedarnos atrás. Como sugiere la autora Elisa Simó, la ausencia de regulación puede verse como “una oportunidad” para incorporar la IA generativa en textos jurídicos desde el inicio, aprendiendo de las lecciones europeas y evitando errores[76]. Esto exige visión y coordinación estatal, es decir, liderazgo público con mentalidad de árbitro que vela por el bien común más allá de fronteras.
No obstante, incluso las mejores leyes quedarán en letra muerta sin una ética ciudadana activa. Aquí entra el concepto de liderazgo ciudadano y colectivo. Elefantes Esmeralda enfatiza un “liderazgo transformador” no basado en autoridad sino en inspiración, integridad y servicio a la comunidad[64][65]. En el contexto digital, todos podemos y debemos ejercer ese liderazgo en nuestra esfera de influencia: como usuarios, creadores de contenido, periodistas, educadores, padres de familia, etc. ¿Cómo? Por un lado, practicando la responsabilidad digital individual: verificar la información antes de compartirla, no difundir deepfakes ni aunque parezcan “divertidos” (detrás puede haber una víctima real), denunciar contenidos falsos o dañinos en las plataformas, exigir transparencia a las empresas que usamos. Cada retuit que nos ahorramos de un video dudoso es una pequeña victoria ética. Cada vez que educamos a alguien sobre los deepfakes, ejercemos liderazgo.
Por otro lado, está la acción colectiva organizada. La sociedad civil, las ONGs, las comunidades tecnológicas pueden unirse para combatir la desinformación. Existen ya grupos de fact-checkers y periodistas investigando y desenmascarando deepfakes notables. Por ejemplo, tras la aparición de un video falso, muchas veces son ciudadanos expertos quienes detectan fallos pixelados o incongruencias y alertan al público. Este tipo oficioso de “cuerpo de bomberos digital” es crucial. Las plataformas tecnológicas deben escuchar a estos actores y facilitar la colaboración. Podría impulsarse, por ejemplo, la creación de una red ciudadana latinoamericana de alerta de deepfakes, donde circulen rápidamente las desmentidas o confirmaciones. También se necesita educación mediática e informacional a gran escala: así como UNESCO señala que la alfabetización mediática es un imperativo democrático (pues 62% de creadores confiesan no verificar fuentes antes de difundir algo)[77], nuestros sistemas educativos y medios de comunicación deben enseñar al público cómo detectar un deepfake y no caer presa de la manipulación[78]. Un pueblo informado y crítico es la mejor defensa contra la mentira digital.
Esta movilización ciudadana encarna la idea de que “la ética digital es asunto de todos”. No podemos delegarla por completo en gobiernos o corporaciones. El Estado puede arbitrarnos el derecho a nuestra imagen, pero cada quien debe asumir la defensa activa de su autenticidad y la de su comunidad. Si recibimos un audio alarmista, ejercitemos la sabiduría emocional (primer principio del Elefante Esmeralda)[79] y no reaccionemos con pánico inmediato; contrastemos fuentes, usemos la razón. Si vemos a alguien compartiendo un video falso, corrijámoslo con empatía y datos, no con burla –así construimos confianza en vez de polarización. Este es un liderazgo distribuido: millones de pequeñas acciones correctas guiadas por una brújula ética interior.
En el ideario de Elefantes Esmeralda se destaca la “memoria colectiva e intergeneracional”[59][80]. Aplicado aquí, implica transmitir las lecciones que aprendamos sobre los deepfakes a las nuevas generaciones y también aprender de los jóvenes, nativos digitales, sus perspectivas. Involucrar a los jóvenes es clave, pues suelen estar en la vanguardia tanto del uso de IA como de los movimientos por un internet seguro. Iniciativas lideradas por jóvenes –como concursos para crear campañas anti-desinformación en redes, o hackathones para desarrollar detectores de deepfakes de código abierto– pueden ser poderosas. A su vez, la sabiduría de generaciones mayores en pensamiento crítico y valores humanistas debe ser transmitida para dar profundidad a la ética digital juvenil. Esta colaboración intergeneracional forja una cultura ética compartida, donde la tecnología se integra con valores atemporales (honestidad, respeto, solidaridad). Tal cultura es en última instancia más fuerte que cualquier normativa, porque actúa desde la convicción interna de las personas.
Un Estado moderado y ciudadano, una sociedad civil vibrante y ética, y empresas comprometidas con el bien común (no olvidemos involucrar al sector privado en soluciones voluntarias) forman el triángulo virtuoso para domesticar a la IA sin sofocar su potencial. Empresas de redes sociales, por ejemplo, podrían adoptar códigos de conducta más estrictos aún antes de que la ley los obligue; algunas ya exploran watermarks o detectores automáticos de contenido sintético. La autorregulación responsable, motivada por la presión de usuarios conscientes y autoridades vigilantes, es parte del panorama deseado.
Así, la visión es lograr una tecnología con rostro humano. Que la IA avance, sí, pero guiada por esa “brújula ética” que Elefantes Esmeralda invoca[81]. Ni ludismo (rechazar la tecnología por miedo) ni tecnoidolatría (adoptarla acríticamente): un camino del medio donde la innovación se filtra por el tamiz de la ética y las necesidades humanas reales. Como bien lo articuló la presidenta de la Comisión Europea, “la IA segura y confiable” se garantiza estableciendo “líneas rojas” que protejan los derechos, mientras se aprovechan las eficiencias que brinda[61]. En la UE se clasifican los sistemas de IA por nivel de riesgo, prohibiendo los inaceptables; ese enfoque podría servir de guía para Latinoamérica[66][67]. El Estado árbitro define esas líneas; la sociedad vigilante se asegura de que se respeten y de no cruzar éticamente incluso las zonas grises no legisladas.
Conclusión
Enfrentar la era de los deepfakes y la IA generativa exige, al igual que el mítico Elefante Esmeralda, una mezcla de sabiduría ancestral y valentía innovadora. Dinamarca ha dado un ejemplo luminoso al erigir un dique legal contra la manipulación digital de nuestras identidades, reivindicando principios universales en territorio inexplorado. Su nueva ley –que consagra el derecho de cada persona a su imagen, voz y cuerpo en el mundo virtual– es más que una norma jurídica: es una declaración de que la autenticidad y la dignidad humanas no serán sacrificadas en el altar de la tecnología[12]. Es un llamado a que la creatividad de la IA encuentre límites donde empieza la integridad del ser humano.
La visión de Elefantes Esmeralda aporta el marco filosófico para comprender la trascendencia de esta ruta. Nos recuerda el propósito superior detrás de cada política (proteger lo que nos hace humanos), la necesidad de honrar la dignidad inviolable de cada individuo, de perseguir un desarrollo sostenible que no quiebre nuestra confianza social, de preservar la libertad personal aun en tiempos de algoritmos poderosos, y de orientar la innovación hacia el bien común y no hacia la codicia. En la convergencia de la ley danesa y los principios esmeralda vemos vislumbrarse un nuevo paradigma ético-tecnológico: uno en el que la tecnología sirve a la humanidad con respeto, y la humanidad abraza la tecnología con sabiduría.
El desafío, especialmente para el mundo hispanohablante, está lanzado. Debemos suplir nuestros vacíos normativos, sí, pero también activar nuestro liderazgo ciudadano para demandar y construir entornos digitales sanos. Cada país tendrá que hallar su versión de la “ley deepfake”, adaptada a su realidad, tal vez integrándola en marcos de protección de datos, de propiedad intelectual o de derechos de la personalidad. Pero más allá del texto legal, lo que definirá nuestro éxito será la conciencia colectiva que desarrollemos. Que no toleremos la mentira viral, que apoyemos a las víctimas de suplantación, que eduquemos a nuestros hijos en un uso crítico y ético de las nuevas herramientas.
En última instancia, la figura del Elefante Esmeralda se alza como símbolo de lo que aspiramos ser en esta era de IA: gigantes de sabiduría y bondad que, pese a la adversidad, brillan con luz propia para iluminar a su manada. Kalath, el elefante de la leyenda, decidió romper el silencio y mostrar el camino con autenticidad y coraje[53]. Sigamos su ejemplo. Que nuestras democracias, cual elefantes esmeralda, marchen firmes y unidas, protegiendo la verdad y la dignidad en cada pisada. Que la tecnología encuentre en nosotros guardianes éticos que la dominen con propósito, y no amos ciegos que se dejen arrastrar. Y que en este proceso de transformación positiva, recordemos siempre que la grandeza de lo humano –esa chispa esmeralda irrepetible en cada uno– jamás debe ser opacada por ninguna sombra digital.
[8][6] Dinamarca garantiza por ley que cada persona tenga derechos de autor sobre su imagen, voz y cuerpo, en respuesta al auge de los deepfakes. Esta reforma al copyright –la primera de su tipo en Europa– busca reforzar la protección contra imitaciones digitales de la identidad personal[6].
[11][12] Jakob Engel-Schmidt, ministro de cultura danés, subrayó que “todos tienen derecho a su propio cuerpo, su propia voz y sus propios rasgos faciales”, lamentando que la ley actual no protege a las personas frente a la IA generativa[11]. La propuesta pretende enviar un mensaje inequívoco: las personas son dueñas de su propia identidad, que debe considerarse su propiedad intelectual[12].
[9][22] Con un amplio acuerdo multipartidista, el Folketing (parlamento) de Dinamarca acordó impulsar una ley que hará ilegal compartir deepfakes u otras imitaciones digitales realistas de características personales sin consentimiento[9]. “Todos deberían tener el derecho a su propio cuerpo, voz y rasgos faciales. (...) La tecnología avanza tan rápido que pronto no distinguiremos un video real de uno manipulado”, declaró Engel-Schmidt, abogando por extender estos derechos a toda Europa[22].
[33][14] El proyecto de ley danés, presentado el 26 de junio de 2025, permite a cualquier persona exigir la eliminación inmediata de contenido que use su rostro, voz o gestos sin consentimiento expreso[82]. Asimismo, las plataformas tecnológicas que no retiren el contenido manipulado tras denuncia formal enfrentarían severas sanciones, incluyendo fuertes multas y posible supervisión de autoridades de la UE, en consonancia con el Reglamento de Servicios Digitales[14].
[5][2] Los deepfakes se han convertido en herramientas de “guerra cognitiva” –distorsionan la percepción de la realidad– y de “guerra emocional”, activando emociones instintivas como el miedo u odio para motivar acciones o polarizar comunidades[5]. En política y medios, sus efectos pueden ser devastadores: un deepfake viral puede impulsar narrativas falsas, sembrar discordia y minar la confianza en instituciones democráticas, máxime cuando los algoritmos amplifican esta desinformación buscando engagement[2].
[3][4] Ejemplos recientes muestran el uso preocupante de deepfakes en desinformación: videos falsos del expresidente de EE.UU. Joe Biden o del presidente ucraniano Volodímir Zelenski han circulado dotando de alta credibilidad a mensajes falsos al parecer provenir de fuentes confiables[3]. No solo la política es blanco: en fraude financiero, delincuentes usaron un clon de voz por IA de un alto directivo para engañar a un empleado de finanzas de la firma Arup y lograr transferir 25 millones de dólares a ciberdelincuentes[4].
[39][42] Diversos estudios revelan que el 96% de los deepfakes online son de contenido sexual no consentido, involucrando en 99% de los casos a mujeres, lo que supone una nueva forma de violencia de género digital[39]. Latinoamérica aún carece de una respuesta normativa integral a este fenómeno: la región se halla en etapa incipiente de regulación de IA, con vacíos legales que pueden verse como oportunidad para incorporar la IA generativa en la legislación aprendiendo de la experiencia europea[42].
[36][81] Dinamarca espera que su iniciativa sea replicada en la UE, en momentos en que atravesamos “una era de profunda desconfianza hacia lo que se ve online” y se requiere adaptar la legislación a una realidad donde las identidades deban tratarse como propiedad para proteger a las personas[36]. Elefantes Esmeralda apunta precisamente a proveer esa “brújula ética” en tiempos de acelerada irrupción de la IA, sirviendo de guía orientadora para tomar decisiones responsables e innovadoras sin perder el rumbo humano[81].
[53] [54] La leyenda de Kalath –el elefante esmeralda– simboliza la valentía de revelar la propia esencia con sabiduría y autenticidad, iluminando a la comunidad [53] . Inspirada en ese espíritu transformador, la Comunidad Elefante Esmeralda articula principios que trascienden modas superficiales para centrarse en valores profundos y perdurables, reflejando lecciones atemporales de autenticidad, sabiduría emocional, memoria colectiva, sostenibilidad y liderazgo transformador al servicio del bien común [54] .
[65] [51] En la Declaración de Principios del Elefante Esmeralda se enfatiza que el fin no es el beneficio individual sino el bien común: el liderazgo auténtico busca inspirar a otros a dejar intereses egoístas para perseguir el bienestar colectivo [65] . Ese liderazgo transformador propicia cambios organizacionales y sociales que honran la dignidad humana y la sostenibilidad, reconociendo la conexión sagrada entre integridad personal, lazos comunitarios y respeto por la naturaleza [51] .
[52] [45] La autenticidad se erige como piedra angular de los principios de la Comunidad Elefante Esmeralda, entendida como fidelidad a la propia esencia y valor humano [52] . En similar sentido, Viktor Frankl –referente filosófico del proyecto– enseñó la importancia vital del significado y propósito: incluso en la adversidad más oscura, el ser humano puede encontrar un propósito que dé sentido a su existencia, lecciones de resiliencia, libertad interior y búsqueda de sentido que hoy resultan imprescindibles para afrontar el “vacío existencial” de nuestro tiempo [45] .
[24] [75] El ministro danés destacó la enorme respuesta positiva al proyecto danés, con cobertura mundial y colegas europeos mostrando gran interés –ejemplo: Irlanda ya anunció que planea seguir las reglas danesas [24] . Con Dinamarca ocupando la presidencia del Consejo de la UE, el país ha expresado su ambición de colocar medios y cultura al centro de la democracia europea, promoviendo iniciativas como el Escudo Europeo de la Democracia; su reciente enmienda nacional de derechos de autor seguramente enviará señales políticas contundentes a Bruselas y al conjunto de la UE [75] .
[29] [30] España, por su parte, aprobó en marzo de 2025 un proyecto de ley que impone fuertes multas a empresas que utilizan contenidos generados por IA sin etiquetarlos adecuadamente como tales, en un intento por frenar los llamados “deepfakes” y la desinformación asociada [29] . Este proyecto –que adopta las directrices de la futura Ley de IA de la UE– tipifica la falta de etiquetado como infracción grave con multas de hasta 35 millones de euros o el 7% de la facturación anual, posicionando a España entre los primeros países europeos en aplicar estas normas de transparencia sobre IA [30] .
[44] [66] Los ataques con deepfakes se duplican cada seis meses: solo en el segundo trimestre de 2025 se reportaron públicamente 487 incidentes (41% más que el trimestre anterior, más de 300% que el año anterior), con pérdidas financieras directas cercanas a 350 millones de dólares [44] . En respuesta al creciente riesgo global, la UE ha marcado una vía regulatoria intermedia –sin caer en optimismo tecnológico ni en fobia– clasificando sistemas de IA por medidas nivel de riesgo y exigiendo proporcionales, llegando a prohibir aquellas prácticas de IA consideradas inaceptables; este enfoque equilibrado podría servir de hoja de ruta para los Estados latinoamericanos que desean una IA segura y confiable en línea con la protección de derechos [66] [67] .
Un ejemplo visual del proceso de creación de un deepfake : una actriz con un modelo de malla alámbrica verde superpuesta en su rostro durante la filmación de un vídeo de reanimación facial sintética (Londres, 2019). Este método de IA permite clonar o manipular los movimientos faciales de una persona, generando un vídeo falsificado que aparentemente es real [83] [84] . La técnica ilustra cómo se puede encajar digitalmente la identidad de alguien en una actuación artificial, subrayando la necesidad de leyes que impidan hacerlo sin consentimiento. Plataformas y herramientas de este tipo han proliferado, democratizando la creación de deepfakes y ampliando el potencial de abuso –de ahí la importancia de una respuesta ética y legal decidida. [84]
La protección de la identidad personal en la era digital se vuelve crucial ante la mirada penetrante de la IA. En la imagen, un primer plano conceptual evoca la singularidad irrepetible del ser humano –simbolizada en el brillo intenso del ojo– frente a una tecnología capaz de replicar rostros con detalle inquietante. Salvaguardar ese destello de individualidad es el objetivo de la nueva ley: que cada mirada, cada voz, conserven su autenticidad bajo el control de su dueño. Con iniciativas así, se busca un equilibrio donde la innovación tecnológica no apague la luz humana, sino que la respete y, idealmente, la potencie.
[1] [9] [22] [23] [24] Kulturministeren vil udbrede deepfake-lov til resten af Europa
https://kum.dk/aktuelt/nyheder/kulturministeren-vil-udbrede-deepfake-lov-til-resten-af-europa
[2] [5] [77] [78] Deepfakes y Desinformación: Análisis de la Tendencia en Google Trends MéxicoAnálisis de tendencias 1) Introducción: de la desinformación a los deepfakesEn la era digital, la desinformación ha evolucionado desde contentamientos simples —como las noticias falsas— hasta sofisticadas técnicas de manipulación mediática. La clasificación actual distingue entre: • Misinformation (información errónea sin intención maliciosa), • Disinformation (contenido falso intencional), • Malinformation (verdades usadas para dañar), • y deepfakes, que utilizan IA para generar videos y audios hiperrealistas que sim
[3] [4] [37] [38] [44] [73] [74] [75] Legislación sobre deepfakes: las medidas que tomó Dinamarca | Foro Económico Mundial
[6] [7] [12] [13] [36] [43] LexLatin | ¿Derechos de autor sobre rostro y voz? Dinamarca propone ley contra los deepfakes
https://lexlatin.com/noticias/derechos-autor-rostro-voz-dinamarca-ley-contra-deepfakes
[8] [11] [15] [21] [70] [71] [72] Denmark to tackle deepfakes by giving people copyright to their own features | Deepfake | The Guardian
[10] [14] [16] [20] [33] [34] [49] [82] Dinamarca propone derechos de autor sobre la imagen personal para frenar los abusos con IA
[17] [18] [19] [68] [69] Harnessing Copyright Law to Tackle The Growing Threat of Deepfakes | Panitch Schwarze Belisario & Nadel LLP
https://www.panitchlaw.com/harnessing-copyright-law-to-tackle-the-growing-threat-of-deepfakes/
[25] [26] Danish citizens to get copyright to their whole body – what about the Netherlands? - Leiden University
[27] [35] [39] [40] [41] [42] [61] [66] [67] [76] ¿Ver para creer? Deepfakes y violencia de género en Latinoamérica - Agenda Estado de Derecho
https://agendaestadodederecho.com/deepfakes-y-violencia-de-genero-en-latinoamerica/
[28] España califica como delito el deepfake, o videos sexuales falsos ...
[29] [30] [31] [32] España impondrá fuertes multas por no etiquetar los contenidos generados por IA
[45] [46] [47] [48] [63] Del elefante gris al elefante esmeralda: Viktor Frankl, transformación – Elefantes Esmeralda
[50] Principios – Elefantes Esmeralda
https://elefantesmeralda.com/blogs/principios
[51] [52] [53] [54] [57] [58] [59] [64] [65] [79] [80] Declaración de Principios de la Comunidad del Elefante Esmeralda – Elefantes Esmeralda
[55] [56] [60] [62] [81] Visión de Elefantes Esmeralda
https://elefantesmeralda.com/blogs/principios/vision-de-elefantes-esmeralda
[83] [84] British lawmakers call for pause in live facial recognition surveillance | Reuters