I La identidad digital como derecho: la vanguardia danesa y la visión de Elefantes Esmeralda frente a los deepfakes

Introducción

En la era de la inteligencia artificial (IA) generativa, la línea entre lo real y lo ficticio se ha vuelto difusa. Videos, imágenes y voces sintéticas (deepfakes) circulan por la red con un realismo tal que socavan la confianza pública en la información[1][2]. Una fake news ahora puede venir acompañada de la imagen convincente de un líder diciendo palabras que jamás pronunció, o la voz inconfundible de un familiar pidiendo ayuda en una estafa elaborada[3][4]. Esta tecnología plantea riesgos profundos: desde la desinformación política hasta la suplantación de identidades y la manipulación emocional de la ciudadanía, erosionando los cimientos de la confianza social[5][2].

Frente a este desafío, Dinamarca ha dado un paso audaz y pionero: propuso modificar su ley de derechos de autor para garantizar que cada ciudadano tenga copyright sobre su propia imagen, voz y cuerpo, fortaleciendo así la protección de la identidad digital[6]. Esta medida vanguardista –la primera de su tipo en Europa– busca frenar los abusos de la IA generativa otorgando a las personas un control sin precedentes sobre el uso de su imagen personal[6][7]. En este ensayo se analiza el contexto ético-legal de la iniciativa danesa y los peligros que la motivan, para luego argumentar cómo dicha política se alinea con los principios de Elefantes Esmeralda –un proyecto filosófico que promueve una visión humana, digna, sostenible y libre en la transformación digital–. Asimismo, se explora la importancia de equilibrar tecnología y humanidad mediante un Estado regulador “árbitro, no amo”, y la necesidad de un liderazgo ciudadano colectivo que forje una ética digital centrada en el ser humano. La figura del Elefante Esmeralda emergerá como un símbolo inspirador de autenticidad, ética y transformación positiva en plena era de la IA.

Contexto ético y legal: la medida danesa contra los deepfakes

En junio de 2025, el gobierno danés anunció un acuerdo político multipartidista para reformar la ley de copyright y enfrentar la amenaza de los deepfakes[8][9]. Con el respaldo de alrededor del 90% del Parlamento de Dinamarca[10], la iniciativa asegura un derecho exclusivo de cada persona sobre su propio cuerpo, rostro y voz, sentando así el principio de que la identidad personal es inviolable y pertenece únicamente a su titular[11][6]. Jakob Engel-Schmidt, ministro de Cultura danés y artífice de la propuesta, fue enfático al declarar que “todos tienen derecho a su propio cuerpo, su propia voz y sus propios rasgos faciales”, lamentando que la ley vigente no brinde esa protección frente a la IA generativa[11][12]. En palabras del ministro, “los seres humanos pueden ser pasados por la fotocopiadora digital y utilizados indebidamente para todo tipo de fines, y no estoy dispuesto a aceptarlo”[13]. Esta postura ética reivindica la dignidad humana en la esfera digital: nadie debería ver su imagen convertida en marioneta sintética sin consentimiento.

¿En qué consiste exactamente la ley danesa? En esencia, otorga a cada ciudadano tres poderes fundamentales sobre deepfakes hechos a su costa[7]. Primero, el derecho a exigir la remoción de cualquier contenido generado por IA que use su imagen, voz o corporidad sin permiso[7]. Segundo, la facultad de reclamar una compensación económica por los daños que tal uso no autorizado le cause[7]. Tercero, establece la responsabilidad de las plataformas digitales: sitios web y redes sociales que hospeden deepfakes deberán eliminarlos activamente tras ser notificados, so pena de enfrentar severas sanciones[7][14]. De hecho, el incumplimiento por parte de las plataformas podría acarrear multas “importantes” y hasta la supervisión directa de autoridades europeas, en línea con el marco del Reglamento de Servicios Digitales de la UE (DSA)[14]. La ley también tipifica la creación o compartición de deepfakes sin etiquetado o consentimiento como una infracción sancionable, aunque exime expresamente las parodias y sátiras legítimas[15][16]. Esta última excepción muestra el cuidado de los legisladores daneses por no coartar la libertad de expresión: el objetivo es frenar los abusos maliciosos, no censurar el humor, la crítica o la creación artística transformativa.

Es importante destacar el carácter preventivo y proactivo de la medida. A diferencia de otras jurisdicciones que castigan a posteriori la difamación o usurpación de imagen, Dinamarca busca prevenir el daño desde el inicio, empoderando a los individuos para detener la circulación de la falsificación antes de que prolifere[17]. En palabras de un análisis legal, Dinamarca está adoptando un enfoque proactivo para mitigar los daños causados por la tecnología deepfake, tratando las identidades personales como “propiedad intelectual” que se puede proteger[17]. Así, el simple acto de crear o difundir un deepfake realista de alguien sin su consentimiento será considerado ilícito civil (y potencialmente penal en ciertos casos), independientemente de que cause un perjuicio demostrable[18][19]. Esto marca un cambio de paradigma jurídico: la identidad personal –ese conjunto único de rostro, voz, cuerpo y gestos que nos caracteriza– pasa a ser tratada como una obra creativa protegida por derechos de autor, con el propio individuo como autor y dueño de sí mismo[20]. Dinamarca envía así un mensaje inequívoco al mundo: la persona no es un insumo libre para la manipulación digital ajena, sino un sujeto de derechos cuya autonomía y esencia merecen resguardo en la era tecnológica[21][22].

La medida ha sido elogiada como pionera en Europa, e incluso el gobierno danés aspira a que se replique a nivel continental. Aprovechando que Dinamarca asumirá la presidencia del Consejo de la UE en 2026, Engel-Schmidt anunció que promoverá extender esta protección de la identidad digital a toda Europa[23][24]. Países como Irlanda ya expresaron su interés en seguir el ejemplo danés[24], y en los Países Bajos se discute un proyecto similar para dar un “derecho absoluto” sobre la propia imagen y eliminar la incierta ponderación actual entre derechos de imagen y libertad de creación[25]. Esta ola regulatoria sugiere que estamos ante el surgimiento de un nuevo derecho fundamental digital: el derecho a la propia identidad en entornos de IA. Cabe resaltar que Dinamarca no partió de un vacío legal absoluto; ya existían figuras como el “derecho al retrato” o normas sobre datos personales para frenar usos indebidos de la imagen[26]. Sin embargo, esas herramientas resultaban insuficientes ante deepfakes ultrarrealistas, pues implicaban complejas ponderaciones o requerían probar intenciones dañinas. En cambio, la reforma danesa elimina ambigüedades: si es tu cara o tu voz, tú decides – salvo contadas excepciones de interés público legítimo (parodia, etc.).

Ahora bien, ¿qué ocurre en el mundo hispanohablante? Lamentablemente, existen vacíos normativos significativos frente a los deepfakes. Ningún país de América Latina ha promulgado aún una ley específica que otorgue derechos de autor sobre la propia imagen digital. En general, la región se halla en una etapa muy incipiente de regulación de IA, con esfuerzos aislados y sin una estrategia conjunta[27]. Ello significa que la protección contra deepfakes depende de leyes tradicionales (derecho al honor, a la imagen, delitos de usurpación de identidad o difusión no consentida de contenido íntimo en algunos códigos penales), figuras jurídicas que pueden no abarcar todas las facetas del fenómeno. Por ejemplo, en varios países latinoamericanos la difusión de un video íntimo falso podría no encajar fácilmente en un delito si la persona representada nunca hizo algo real –un vacío que los perpetradores podrían explotar. España, por su parte, ha tomado recientemente medidas parciales: en 2023 reformó su Código Penal para tipificar como delito ciertas ultrasuplantaciones de identidad con contenido sexual o vejatorio (las deepfake porn se consideran ahora un atentado a la integridad moral)[28]. Y a inicios de 2025, el gobierno español aprobó un proyecto de ley –adelantándose a las directrices europeas– que impone fuertes multas a empresas que no etiqueten contenidos generados por IA como tales, en un esfuerzo de transparencia para frenar los deepfakes engañosos[29][30]. Esta iniciativa española, alineada con la futura Ley de IA de la UE, obligará a señalar claramente cuándo una imagen o audio fue producido sintéticamente, bajo sanciones de hasta el 7% de la facturación global de la compañía infractora[31]. Si bien se celebra este paso (España es de los primeros en Europa en implementar tales normas de transparencia[32]), la aproximación es distinta de la danesa: etiquetar no es lo mismo que negar el consentimiento. La legislación danesa va más allá al requerir permiso expreso de la persona para reproducir digitalmente su apariencia o voz[33][34], un estándar más estricto que el simple aviso al público.

En resumen, Dinamarca ofrece un modelo vanguardista para encarar los peligros de la IA generativa. Ha elevado la vara ética al consagrar el derecho a la identidad digital propia como un corolario de los derechos de autor y de la dignidad humana. En el mundo hispano, aún hay un trecho por recorrer para alcanzar ese nivel de protección: existen esfuerzos iniciales, pero persisten lagunas normativas que dejan a las personas potencialmente expuestas a deepfakes dañinos sin remedios claros. Esta disparidad invita a reflexionar sobre la urgencia de que nuestros países sigan el ejemplo danés, adaptando su marco jurídico para salvaguardar a los ciudadanos ante los riesgos que examinaremos a continuación.

Los riesgos de la IA generativa: desinformación, suplantación, manipulación emocional y erosión de la confianza

¿Por qué Dinamarca –y el mundo– están tan preocupados por los deepfakes? Porque sus riesgos trascienden lo meramente tecnológico y amenazan pilares fundamentales de nuestra sociedad: la verdad, la seguridad, la reputación personal e incluso la salud democrática. Las IA generativas permiten crear ultrafalsificaciones audiovisuales convincentes que ponen en jaque derechos de las personas y bienes públicos intangibles como la confianza colectiva[5][2].

Uno de los peligros más evidentes es la desinformación masiva. En los últimos años hemos visto deepfakes de líderes mundiales diciendo o haciendo cosas que nunca ocurrieron, con potencial para engañar a millones. Por ejemplo, circularon videos falsos del presidente de Ucrania, Volodímir Zelenski, “rindiéndose” en plena invasión rusa, o del expresidente estadounidense Joe Biden emitiendo declaraciones polémicas –todo ello fabricado con IA[3]. Tales montajes, al vestir el rostro y la voz de figuras confiables, otorgan a la mentira una apariencia de fuente legítima, multiplicando su poder de manipulación[3]. Ver para creer deja de aplicar: incluso viendo un video, ya no podemos estar seguros de su veracidad. Esto es un arma de doble filo para la democracia. Por un lado, los malintencionados pueden difundir noticias falsas sumamente creíbles que alteren procesos electorales, provoquen pánico financiero o inflamen tensiones sociales. Por otro lado, la mera existencia de los deepfakes genera el llamado “dividendo del mentiroso” (liar’s dividend): ahora cualquier político corrupto o figura expuesta podría alegar que un video auténtico suyo “es un deepfake” para eludir responsabilidades, sembrando dudas incluso sobre pruebas genuinas. Así, la proliferación de falsificaciones erosiona la noción misma de verdad compartida. Investigadores hablan de un estado de infoapocalipsis, en el cual no es posible distinguir lo real de lo falso[35]. Estamos entrando, como bien señala un medio, “en una era de profunda desconfianza hacia lo que se ve online”[36]. Si esa incertidumbre cunde, el ciudadano medio podría volverse cínico o indiferente ante todo contenido mediático –una crisis de confianza que mina los fundamentos del debate público informado y la participación democrática.

Otro riesgo crítico es la suplantación de identidad y el fraude, que afectan tanto a figuras públicas como privadas. Deepfakes no son solo memes políticos; también se usan para estafas muy concretas. Un caso célebre fue el de Arup, empresa de ingeniería británica víctima de un fraude de 25 millones de dólares en 2022, cuando delincuentes deepfakearon por video la cara de un alto ejecutivo para ordenar transferencias urgentes de fondos[4]. Igualmente inquietante fue el intento de estafa a la automotriz Ferrari en 2023, donde estafadores clonaron con IA la voz del CEO Benedetto Vigna en una llamada telefónica para autorizar un pago; el engaño casi prosperó, descubierto in extremis por una pregunta de seguridad que el impostor no supo responder[37]. Estas anécdotas reales muestran cómo la IA amplifica los tradicionales delitos de phishing o ingeniería social: ya no se limita a un correo mal escrito, sino que te llama tu jefe con su propia voz o aparece en Zoom con su cara, dándote instrucciones. Cualquiera puede ser víctima: un informe reveló que, si bien el 41% de los objetivos de deepfake son personajes públicos (celebridades, políticos, empresarios), un 34% son personas privadas –principalmente mujeres y menores–, y el 18% organizaciones de todo tipo[38]. Esto incluye montajes pornográficos no consentidos con el rostro de mujeres comunes obtenidas de sus redes sociales, extorsiones a padres usando voces sintéticas de sus hijos pidiendo rescate, etc. Además del daño económico potencial, el trauma psicológico y reputacional de verse suplantado de esta manera puede ser devastador.

En particular, la violencia de género digital ha encontrado en los deepfakes un nuevo instrumento. Se estima que un abrumador 96% de todos los deepfakes en internet son pornográficos no consentidos, y en el 99% de ellos las víctimas son mujeres[39]. Es decir, la aplicación mayoritaria de esta tecnología (hasta ahora) ha sido degradar, sexualizar y humillar a mujeres específicas colocando sus caras en videos pornográficos. Esto constituye una forma digital de violencia y acoso que atenta contra la dignidad, la intimidad y la integridad moral de las afectadas[40]. Imágenes o videos íntimos falsos, al viralizarse, pueden destruir reputaciones profesionales, causar enorme angustia emocional e incluso incitar agresiones físicas contra las víctimas (al creer terceros que “lo que ven” es real). Casos conocidos han involucrado a actrices y cantantes famosas –Taylor Swift, Emma Watson, Scarlett Johansson, por citar algunas– cuyos rostros fueron pegados en escenas sexuales ficticias[41]. Pero también mujeres no famosas han sido objeto de estas prácticas, a menudo como “venganza porno” adulterada o simple misoginia lúdica. Ante este fenómeno, juristas señalan que se requiere una respuesta legal integral y con perspectiva de género, pues se cruzan aspectos de privacidad, honor, libertad sexual y violencia machista[40][42]. Dinamarca, al reconocer el copyright personal sobre la propia imagen, provee una herramienta poderosa para combatir también esta vertiente: una mujer danesa podría exigir la eliminación inmediata de un deepfake pornográfico suyo y demandar a los responsables, sin necesidad de debatir si hay difamación o violación a su intimidad –basta la falta de consentimiento para que proceda la reclamación[43][7].

Otro flanco de riesgo es la manipulación emocional y la erosión de la confianza interpersonal. Los deepfakes pueden usarse para guerra psicológica: generar pánico, odio o tristeza deliberadamente. Expertos hablan de que estas falsificaciones son “armas de guerra cognitiva y emocional”, diseñadas para activar emociones instintivas como el miedo o el odio y polarizar comunidades[5]. Imaginemos un deepfake mostrando a un líder religioso dando un discurso incendiario: podría provocar violencia sectaria. O un audio falso de un banco anunciando quiebra: generar caos financiero. Incluso a nivel personal, se han documentado casos de estafas donde mediante una voz sintética un estafador hace llorar a una abuela fingiendo ser su nieto accidentado para que ésta le envíe dinero de urgencia. La confianza básica entre individuos se resquebraja cuando cualquiera puede recibir un mensaje de un ser querido que no es real, o ver cosas que le hacen dudar de la honorabilidad de alguien cercano. Poco a poco, una sociedad expuesta a estos engaños puede caer en la paranoia y la desunión, donde ya no creemos ni en lo que vemos de nuestros prójimos. Investigaciones recientes muestran la rapidez del avance de estas amenazas: en solo un trimestre de 2025 se reportaron 487 ataques con deepfakes dañinos públicamente, un 41% más que el trimestre anterior y más del 300% más que el año previo[44]. Las pérdidas financieras directas por fraudes con deepfakes rondaron los 350 millones de dólares en ese lapso[44]. Cada seis meses se duplican los ataques reportados[44]. La tendencia es exponencial y alarmante.

Finalmente, los deepfakes comprometen la credibilidad de instituciones clave. Si cualquier prueba audiovisual puede ser fabricada o puesta en duda, ¿qué significa esto para la justicia, la prensa o la historia? En juicios, un video de seguridad ya no será incuestionable –y de hecho abogados en divorcios y disputas legales anticipan que la proliferación de deepfakes complicará tanto la obtención de evidencia confiable como la confianza en los testimonios digitales, aumentando costos y dilaciones. Para el periodismo, autenticar cada video o audio filtrado se vuelve una tarea titánica; y regímenes autoritarios pueden desestimar videos de violaciones a derechos humanos alegando que son falsos. Incluso para la memoria colectiva: en el futuro, videos históricos podrían ser alterados, sembrando confusión sobre hechos pasados. Como advierte un análisis, un deepfake viral puede “sembrar discordia y minar la confianza en las instituciones democráticas”, sobre todo amplificado por algoritmos que privilegian contenido emocionalmente atractivo aunque sea falso[2]. La realidad mediática se fractura en burbujas donde cada cual cree en “sus propios videos”.

En suma, la IA generativa conlleva riesgos multidimensionales. Amenaza derechos individuales (honra, privacidad, identidad, patrimonio) y bienes sociales (veracidad, seguridad, cohesión, equidad de género). La medida danesa nace precisamente como respuesta a este cúmulo de peligros: reconoce que sin una intervención firme, los deepfakes pueden normalizar la mentira, habilitar nuevos delitos y desgarrar el tejido de la confianza pública. Por ello, va más allá de diagnosticar el problema y sienta un precedente de solución: otorgar a las personas herramientas legales concretas para defenderse de estos abusos tecnológicos, restaurando cierto control en un entorno digital que de otro modo las sobrepasa. Ahora exploraremos cómo esta respuesta se alinea con una visión ética más amplia, representada por los principios de Elefantes Esmeralda.

 

Principios de Elefantes Esmeralda: propósito, dignidad, sostenibilidad, libertad y bien común en la era digital

El proyecto Elefantes Esmeralda propone una filosofía transformadora, profundamente humana, para enfrentar los retos de nuestro tiempo –incluidos los derivados de la tecnología. Sus pilares conceptuales giran en torno a valores como el propósito con sentido, la dignidad humana, la sostenibilidad, la libertad individual y la economía del bien común. Sorprendentemente, una política pública tan específica como la ley danesa de deepfakes encuentra resonancias claras con estos principios, evidenciando una convergencia entre la normativa concreta y la visión ética holística.

Propósito y sentido humano: Elefantes Esmeralda enfatiza la búsqueda de sentido y propósito en la vida, inspirándose en pensadores como Viktor Frankl[45]. En su metáfora central, todos comenzamos como “elefantes grises” atados por rutinas o miedos, hasta que una chispa –el destello esmeralda– despierta en nosotros la voluntad de transformación y de encontrar un propósito único[46][47]. ¿Cómo se relaciona esto con la política danesa? En que dicha ley devuelve a cada individuo el poder de decidir sobre su propia imagen y voz, es decir, le permite ejercer su libertad y voluntad frente a la máquina. En lugar de ser un objeto pasivo que otros manipulan digitalmente, la persona recupera el control con sentido sobre su identidad. Esto es coherente con la idea de que cada ser humano es autor de su propia historia –literalmente, la ley lo convierte en “autor” de su imagen–. Frankl hablaba de la “última de las libertades humanas”, la libertad interior para elegir la actitud ante cualquier circunstancia[48]. Aquí, a un nivel legal, se materializa una libertad externa: la capacidad de decir que no a usos desvirtuados de nuestra imagen. Es una forma de afirmar: “Yo decido quién soy y cómo aparezco ante el mundo”. Tener propósito también implica orientar la tecnología hacia fines positivos y conscientes. La ley danesa, con su propósito explícito de proteger a las personas de usos nocivos de la IA[49][6], encarna una aplicación tecnológica con sentido ético, no mero progreso técnico vacío. Elefantes Esmeralda aboga por una tecnología con propósito humano, una economía y un marketing “conscientes y centrados en las personas”[50]. El proyecto danés se alinea con esto al subordinar la innovación (IA generativa) a un fin humano superior: la salvaguarda de la identidad y la verdad.

Dignidad y autenticidad: Un punto medular de Elefantes Esmeralda es el respeto sagrado a la dignidad humana y la autenticidad individual. En su Carta de Principios se habla de “transformaciones… que honran la dignidad humana”[51] y de la autenticidad como piedra angular de sus valores[52]. Proteger a alguien de un deepfake degradante o fraudulento es, en el fondo, defender su dignidad esencial. La dignidad implica no ser instrumentalizado como medio o cosa; la persona siempre es fin en sí misma. Los deepfakes violan esa dignidad al convertir a una persona en materia prima para un engaño, trivializando su identidad. La ley danesa restituye la dignidad al afirmar que la imagen de cada quien le pertenece y requiere su consentimiento para cualquier uso[21][12]. En otras palabras, reconoce que la persona no es un maniquí digital de libre disponibilidad, sino un sujeto con inviolabilidad sobre su propia representación. Esto entronca con la visión del Elefante Esmeralda Kalath, que simboliza “la valentía de revelar la propia esencia… con sabiduría y autenticidad”[53]. Para ser auténticos necesitamos la libertad de mostrarnos tal cual somos, sin que terceros distorsionen públicamente nuestra esencia. Al frenar deepfakes, se defiende el valor de la autenticidad: lo real sobre lo falso, lo genuino sobre lo manipulado. Además, Elefantes Esmeralda promueve una “búsqueda inquebrantable de la autenticidad” en liderazgo y comunidad[54]. La política danesa, en su terreno específico, persigue algo análogo: que en la esfera digital predomine la autenticidad (la imagen real de las personas con su permiso) y no simulacros engañosos. Por último, dignidad también conlleva privacidad y respeto. Aunque la ley danesa nace principalmente por la IA, su espíritu conecta con la protección general de la persona contra la cosificación. Elefantes Esmeralda, en su ética, abrazaría cualquier iniciativa que coloque a la persona –su dignidad y derechos– por encima de intereses comerciales o lúdicos. Y eso es exactamente lo que hace esta ley: prioriza el bienestar de las personas por encima de intereses meramente materiales o empresariales, tal como predica Elefantes Esmeralda inspirándose en Schopenhauer (no dejar que el dinero o el poder importen más que la humanidad)[55][56].

Sostenibilidad y equilibrio con la naturaleza (y tecnología): La cuarta de las “declaraciones de principios” del Elefante Esmeralda es Sostenibilidad y Conexión con la Naturaleza[57]. Si bien se refiere en primera instancia al medio ambiente, el concepto de sostenibilidad puede extrapolarse a la esfera digital y social: significa adoptar una visión de largo plazo, cuidando que nuestras acciones presentes no comprometan el bienestar futuro. La ley danesa de deepfakes aporta a una sostenibilidad digital en el sentido de mantener saludables los ecosistemas informativos y la convivencia en línea. Sin intervención, nos encaminamos a un entorno informativo tóxico, de desconfianza permanente (“infopocalipsis” lo llaman algunos)[35]. Eso es insostenible para la democracia y la vida social a largo plazo. Dinamarca, al regular ahora, busca prevenir un deterioro mayor en el futuro, anticipándose a un problema antes de que se vuelva inmanejable. Esto refleja una actitud regenerativa: en vez de reaccionar después del daño, fortalece el sistema inmunológico de la sociedad digital para evitar el colapso de la confianza. Asimismo, en el proyecto Elefantes Esmeralda la sostenibilidad no es solo ecológica sino también social y cultural, defendiendo valores perdurables y educando a las próximas generaciones[58][59]. La protección de la identidad y la verdad encaja en esa noción de sostenibilidad social: legar un mundo donde todavía podamos creer en nuestros ojos y oídos, donde la información tenga un fundamento veraz. Además, Elefantes Esmeralda promueve la conexión con la naturaleza y, por analogía, una conexión más sana con la “naturaleza” de la realidad, sin que todo sea artificial o manipulado. La ley anti-deepfakes favorece mantener un contacto más fiable con la realidad humana auténtica, no mediatizada por falsificaciones. Por último, hay un componente de precaución tecnológica: Elefantes Esmeralda plantea ser conscientes y prudentes en la adopción de disrupciones, con una “brújula ética” que guíe en la era de cambios acelerados (mencionan explícitamente “la irrupción de la inteligencia artificial” como parte del contexto de crisis)[60]. Esa brújula ética indica que no todo lo técnicamente posible es deseable; principios como dignidad y sostenibilidad deben regir. Dinamarca actuó precisamente siguiendo esa brújula, trazando una “línea roja” ante la IA generativa para garantizar una IA segura y confiable que respete derechos[61]. Es un ejemplo de oriente ético en medio del vértigo tecnológico, tal como Elefantes Esmeralda aspira a ser un “faro que ilumina el camino hacia decisiones responsables e innovadoras” en tiempos de incertidumbre[62].

Libertad individual y responsabilidad compartida: El proyecto Elefantes Esmeralda se nutre también del pensamiento austríaco en economía y filosofía, que suele destacar la libertad individual, la responsabilidad personal y el mínimo rol opresor del Estado. Viktor Frankl, a quien reverencian, enfatizó la libertad interior y la responsabilidad de elegir nuestra actitud incluso bajo coacción extrema[63]. Aplicado a la ética digital, esto significa que los individuos deben tener libertad para no ser forzados digitalmente a “decir” o “hacer” lo que no harían. La ley danesa consagra esa libertad negativa: nadie puede apropiarse de tu identidad sin tu permiso. En cierto modo, es una extensión moderna del concepto de libertad individual hacia la esfera virtual. Además, el Estado actúa aquí como garante de la libertad personal, no como tutor autoritario: establece reglas para que los individuos puedan vivir sin ser atropellados por poderes (tecnológicos o corporativos) mayores. Esto concuerda con la idea de un Estado “árbitro, no amo”, es decir, un Estado que pone reglas del juego justas pero no domina cada jugada. Dinamarca no está controlando centralmente los contenidos, sino dando a cada ciudadano la herramienta legal para que él mismo defienda su derecho. Es un mecanismo descentralizado de protección: el afectado notifica y exige bajar el deepfake, y en caso necesario demanda daños[7]. Las autoridades solo intervienen si las plataformas ignoran sistemáticamente las quejas (imponiendo multas)[14]. Este enfoque empodera al individuo en vez de instaurar censura gubernamental omnipresente. Elefantes Esmeralda valora la libertad con responsabilidad; su liderazgo transformador no es autoridad impuesta sino influencia por inspiración y servicio[64][65]. De igual forma, la regulación danesa inspira a otros países y actores a seguirla voluntariamente –de hecho, busca persuadir a Europa–, más que imponer un yugo unilateral. También es notable que exima parodia/sátira, protegiendo la libertad creativa y de crítica[15]. Esto muestra un sano equilibrio entre libertad de expresión e intervención estatal. Siguiendo principios regenerativos, se evitó pecar de tecno-optimismo ingenuo (dejar la IA sin reglas) pero también de tecno-fobia (prohibir en bloque)[66]; se optó por una vía intermedia donde se trazan prohibiciones específicas (falsificaciones perjudiciales sin consentimiento) pero se permite innovación y expresión legítima. Tal enfoque moderado es visto como “una hoja de ruta” que bien podría inspirar a Latinoamérica, sugieren expertos[66][67].

Economía del bien común: Finalmente, Elefantes Esmeralda abraza el ideal de la economía del bien común, que propone orientar la actividad económica hacia el bienestar colectivo por encima del lucro individual. En su carta de principios señalan que el verdadero liderazgo busca “el bien común” y deja de lado intereses egoístas[65]. La medida danesa es un claro ejemplo de legislación donde el bien común (proteger a la ciudadanía en general de la desinformación y el abuso) prevalece sobre posibles beneficios privados de algunos (plataformas con más contenido atractivo, creadores de deepfakes virales, etc.). Se está fijando un límite ético al mercado de la IA: no todo vale para generar clics o ganancias si daña el tejido social. La reforma de copyright implica que empresas tecnológicas deberán invertir en sistemas de detección y remoción de deepfakes ilícitos, asumiendo costos por un bien mayor[68][69]. En la economía tradicional, la imagen de alguien podía explotarse comercialmente sin permiso (ej. apps que montan tu cara en famosos por diversión) mientras no hubiera norma; ahora en Dinamarca eso se traduciría en compensación a la persona o no se podría hacer. Esto realinea incentivos económicos con la justicia: el valor creado debe retornar en parte al verdadero “dueño” (la persona retratada), no solo al explotador. La economía del bien común se trata de internalizar los costos sociales y respetar a todos los stakeholders, incluidos los ciudadanos como titulares de derechos. La nueva ley introduce precisamente un mecanismo para internalizar los costos de la desinformación y la suplantación: las plataformas afrontarán sanciones si no actúan, los infractores pagarán daños, etc., de modo que el perjuicio no recaiga íntegramente sobre la víctima inocente[43][7]. Todo esto contribuye a un ecosistema digital más justo y orientado al bien común, donde la innovación sirva a las personas y no al revés. Como señala LexLatin, estamos ante la adaptación legal a “una realidad en la que las identidades deben ser tratadas como propiedad, para proteger a las personas”, entrando en una era donde la legislación prioriza a la persona por sobre el producto tecnológico[36]. Esta filosofía es muy afín a la promovida por Elefantes Esmeralda: anteponer el bienestar del planeta y de las personas por encima de intereses meramente materiales[55]. En la era digital, “personas y planeta” incluye el ecosistema informativo y cultural; Dinamarca está adelantándose para blindar jurídicamente a sus ciudadanos en ese frente[20], tal como una economía consciente buscaría blindar recursos naturales o la cohesión social.

En conjunto, podemos ver que la visión de Elefantes Esmeralda –con su mezcla de humanismo profundo, conciencia social y liberalismo responsable– encuentra en la política danesa un caso práctico de sus ideales. Es la demostración de cómo se puede (y se debe) regular la tecnología sin perder de vista el propósito, la dignidad, la libertad y el bien común. Ahora bien, hacer leyes no basta: se requiere también una movilización de voluntades colectivas para que estos principios éticos se vivan día a día en el mundo digital. Esto nos conduce al rol del Estado equilibrado y, sobre todo, al liderazgo ciudadano para una ética digital humanista.

Back to blog

Leave a comment

Please note, comments need to be approved before they are published.