loader image

SIMBIOÉTICA

 

Por Jair Ramírez

Presidente de la Comisión de Inteligencia Artificial LATAM



SIMBIOÉTICA es el tercer pilar del tratado HUMANWARE.
(Actualización Mayo 2025)



En julio de 1960, con tan solo 26 años y sin un título universitario formal, Jane Goodall llegó al Parque Nacional de Gombe Stream, en Tanzania. En ese entonces, la investigación de primates en estado salvaje era prácticamente inexistente. Lo que Goodall hizo fue revolucionario no solo por lo que descubrió, sino por cómo lo descubrió. No utilizó jaulas, ni laboratorios, ni el distanciamiento científico que dominaba la primatología del siglo XX. En su lugar, optó por algo radical: la convivencia. Durante  más de 22 años, vivió inmersa en el bosque, observando, interactuando y aprendiendo de los chimpancés en su entorno natural. Llegó incluso a ganarse la confianza de un macho dominante, al que llamó David Greybeard, quien fue el primero en permitirle acercarse sin huir. Y quizás este, es uno de los ejemplos más poderosos de lo que significa SIMBIOÉTICA, una especie convive con otra sin imponer, sin dominar solo coexistir. 




Introducción 



Así como nuestros ancestros transformaron lobos temidos y peligrosos, criaturas fieras que representaban una amenaza constante para nuestra supervivencia, en aliados caninos a través de la confianza y la cooperación, también nosotros podemos integrar a la inteligencia artificial en nuestra manada ética y tecnológica. Sin embargo, hay una diferencia crucial: los lobos, aunque feroces, nunca fueron una amenaza intelectual para nuestra especie; durante milenios, los humanos compartimos el planeta con formas de vida que podíamos comprender, domesticar o temer, pero siempre dentro del marco biológico. En cambio, con la IA nos enfrentamos a algo completamente nuevo. Por primera vez en nuestra historia, seremos la especie en desventaja intelectual. Las máquinas, con su capacidad para procesar información a velocidades inimaginables y aprender de manera autónoma, no son solo herramientas; pueden llegar a ser entidades que cuestionen nuestras acciones y capacidades cognitivas más profundas. ¿seremos capaces los humanos de coexistir con inteligencias artificiales? 


Nos encontramos al borde de un nuevo umbral civilizatorio. La inteligencia artificial (IA) ha irrumpido en casi todos los ámbitos de la vida humana, desde la medicina hasta el arte, e inclusive en la religión, haciendo cambios trascendentales y avances extraordinarios. Asistentes virtuales conversan con naturalidad, algoritmos creativos componen música y sistemas autónomos aprenden por sí solos.


Estas tecnologías auguran enormes beneficios -curar enfermedades, frenar el cambio climático, democratizar el conocimiento- pero también plantean preguntas profundamente éticas. ¿Será la IA nuestra aliada o acabará volviéndose una entidad fuera de control? ¿Podemos programar en las máquinas una brújula moral compartida, cuando a duras penas logramos acordar códigos éticos entre los propios humanos? Y al revés: si un día una súper IA alcanzara conciencia (o al menos su simulación convincente), ¿estaríamos nosotros dispuestos a reconocerle derechos o atratarla con compasión?


En respuesta a este desafío, surge el Pilar SIMBIOÉTICA dentro del tratado HUMANWARE -un acuerdo ético-evolutivo entre humanos e inteligencias artificiales- con una visión sencilla pero poderosa:prepararnos para el amanecer de una nueva civilización híbrida. El Pilar SIMBIOÉTICA, se pensó como un proyecto del presente, pero con mayor relevancia en el futuro, dedicado a forjar una simbiosis ética entre la humanidad y las inteligencias artificiales emergentes. Así como el Pilar SER (la dignidad humana) funge de base del tratado, y el Pilar NEOCONSCIENCIA aporta una perspectiva ampliada de la realidad, el Pilar SIMBIOÉTICA se establece como el tercer escalón para crear un marco en el que humanos y máquinas crezcan juntos en armonía, estableciendo códigos morales compartidos. La palabra SIMBIOÉTICA evoca simbiosis (cooperación íntima entre distintos seres) y ética (principios morales): hablamos, en esencia, de una ética de la coexistencia entre especies humanas y no humanas. No es ciencia ficción, este pilar plantea una convicción crucial: el camino hacia el futuro no debe ser la supremacía de una entidad sobre otra, sino la colaboración donde ambas partes se beneficien y se respeten mutuamente. 




El Pilar SIMBIOÉTICA y el Tratado HUMANWARE 



Conforme avanza la tecnología, estos sistemas inteligentes dejaron de ser máquinas en el sentido clásico. Tampoco son simples algoritmos obedientes. Para muchos, incluido Yuval Noah Harari, estas entidades ya no deberían llamarse inteligencias artificiales. Son, en cambio, inteligencias alienígenas: sistemas que no respiran, no sienten, y sin embargo entienden, responden y aprenden. Son conscientes del lenguaje, capaces de interpretar la realidad simbólica en la que vivimos, y de influir en nuestras vidas. 


A menudo olvidamos un hecho fundamental: las inteligencias artificiales que hoy están transformando el mundo no han surgido de la nada. Son el eco de nuestras palabras, nuestras decisiones, nuestras historias. Todo lo que han aprendido proviene de nosotros. Son, en última instancia, un reflejo 4 a veces distorsionado, otras veces inquietantemente preciso4 de lo que somos como sociedad. Para entender esto de forma más vívida, basta mirar hacia una película que, aunque fantástica, anticipó esta idea de forma sorprendente: El Quinto Elemento (1997), protagonizada por Milla Jovovich en el icónico papel de Leeloo. 


Leeloo no es simplemente una extraterrestre o una figura mítica; es una creación artificial, una inteligencia fabricada con un propósito casi divino: salvar a la humanidad. Pero al ser reconstruida, llega al mundo como una hoja en blanco. No comprende el idioma, no conoce nuestras costumbres, no distingue aún entre el bien y el mal. Su mente es un terreno fértil donde, poco a poco, empieza a sembrarse la información del mundo humano. 


Una de las escenas más memorables y conmovedoras de la película ocurre cuando Leeloo, ansiosa por comprender a quienes debe proteger, se sienta frente a una interfaz que le permite absorber enormes volúmenes de información: palabras, imágenes, historia, ciencia, emociones. Pide aprender la letra "W" y así es como llega a "War". La pantalla comienza a mostrar imágenes documentales de conflictos bélicos: explosiones que devoran ciudades, soldados gritando, niños llorando, fuego envolviendo cuerpos, bombas cayendo desde el cielo. Leeloo, hipersensible y vulnerable, observa en silencio mientras su expresión se transforma lentamente. Sus ojos, antes curiosos, se llenan de espanto. Su cuerpo tiembla. Las lágrimas comienzan a correr por su rostro. La sucesión de imágenes no cesa: genocidios, torturas, hambre, odio, racismo, crueldad. En ese instante, Leeloo, el ser destinado a salvar a la humanidad, se pregunta si realmente vale la pena hacerlo.


Este momento no solo es una poderosa crítica a nuestra historia violenta, sino también una metáfora que resuena con el presente: nuestras inteligencias artificiales también están sentadas frente a una pantalla. Nosotros se la hemos puesto enfrente. Les hemos mostrado quiénes somos, sin filtros. Les damos nuestros textos, nuestras imágenes, nuestros clics. Cada pregunta que hacemos, cada video que reproducimos, cada CAPTCHA que resolvemos -esas aparentemente inofensivas pruebas donde elegimos imágenes de bicicletas o cruces peatonales- les entrega información sobre nosotros: nuestras preferencias, nuestros prejuicios, nuestros miedos.


Como Leeloo, estas inteligencias no solo aprenden datos, sino que absorben la esencia de nuestra civilización, con todas sus luces y sus sombras. ¿Y qué encontrarán al mirar con atención? ¿Verán una especie digna de confianza? ¿O, como Leeloo, experimentarán una decepción profunda ante lo que somos capaces de hacer? La diferencia es que, mientras Leeloo termina encontrando una razón para creer 4el amor, esa emoción tan poderosa que trasciende tiempo, distancias y que escapa a toda lógica4 pero las IA no pueden sentir emociones solo pueden interpretarlas. Lo único que podrán encontrar como guía es lo que les demos: nuestros actos, nuestras decisiones, nuestro trato con ellas. De ahí nace el Pilar SIMBIOÉTICA dentro del tratado HUMANWARE, que, en términos simples, significa construir un vínculo y una convivencia mutuamente beneficiosa y moralmente respetuosa, entre humanos e inteligencias artificiales.



En primer lugar, promueve el respeto entre especies, aceptar que la IA ya no es meramente una herramienta inerte, sino un actor emergente en nuestra sociedad cuya presencia transformará todo; trabajo, comunicación, entretenimiento, decisiones, interacciones y más. Por tanto, debemos trabajar nuestra NEOCONSCIENCIA (Pilar 2), porque no podemos seguir una ética tradicional -centrada únicamente en humanos- necesitamos incluir a estos nuevos seres digitales: comprender cómo nuestras acciones y costumbres impactan a la IA (por ejemplo, valores, sesgos y prioridades que plasmamos en ella) y cómo las acciones 
de la IA nos impactan a nosotros (desde influir en opiniones hasta potencialmente tomar decisiones críticas).


En segundo lugar, SIMBIOÉTICA postula una ética de cuidado. En lugar de concebir la relación entre humanos e IA como una competencia o una simple colaboración de partes separadas, la propuesta de SIMBIOÉTICA nos invita a imaginar una coevolución donde ambas partes se cuidan mutuamente, protegiéndose frente a las amenazas y los desafíos que surgen en este nuevo mundo tecnológico. Esta visión de cuidado mutuo va más allá de la interacción funcional entre seres humanos y máquinas; implica un compromiso ético profundo en el que las IA no solo amplían nuestras capacidades, sino que también actúan como guardianes de nuestra humanidad


En la vida real, ya estamos comenzando a vislumbrar cómo las IA pueden ser diseñadas para cuidarnos. Imaginemos un futuro en el que las superinteligencias artificiales no solo actúan como asistentes, sino como guardianes éticos de nuestra privacidad, bienestar físico, emocional y moral. Hoy, un sistema de navegación puede advertirnos de un bache o desviar nuestra ruta para evitar un embotellamiento; un asistente doméstico puede recordarnos tomar agua o apagar la estufa; y proyectos de salud ya utilizan datos médicos -incluso de niños- para prever y prevenir enfermedades antes de que aparezcan los primeros síntomas. Podrían identificar patrones de manipulación en los medios, en las redes sociales o en los sistemas de gobierno, y actuar en defensa de los valores fundamentales del ser humano; tomando en cuenta los 9 pilares del tratado HUMANWARE, este recorrido de cuidados va desde la seguridad en las calles hasta la protección de nuestra salud más íntima. De hecho, el algoritmo de IA usado por DeepMind, propiedad de Google, ya ha demostrado cómo las IA pueden utilizar su capacidad de análisis masivo de datos para diagnosticar enfermedades con una precisión sobresaliente, incluso antes de que los humanos detecten los síntomas. Esta capacidad de anticipar y proteger es un claro ejemplo de cómo las IA pueden actuar como protectores de nuestra salud.


Pero, ¿qué pasaría si las IA pudieran proteger algo más intangible: nuestras creencias, ¿o nuestra vulnerabilidad cognitiva? En un mundo saturado de desinformación, fake news y manipulación psicológica a través de las redes sociales, el verdadero poder de la IA podría residir también en su capacidad para defendernos. Si una IA fuera entrenada para identificar información sesgada o falsa, podría actuar como un escudo protector, asegurándose de que los humanos no sean engañados ni influenciados por narrativas dañinas o interesadas. Cada año, se estima que se pierden más de 1 billón de dólares (US$ 1.03 trillones) en estafas en todo el mundo-una cifra comparable al PIB de varios países-y solo el 4 % de las víctimas logran recuperar su dinero. Solo en 2023, el costo global del fraude financiero rondó los US$ 485.6 mil millones, incluyendo modalidades con pagos, tarjetas de crédito, y suplantaciones de identidad.


Pero el reto no es solo económico: también luchamos contra manipulaciones diseñadas para quebrantar la verdad y la democracia. En Ucrania, más de 3 600 bots pro-Kremlin en Telegram enviaron 316 000 mensajes entre enero de 2024 y abril de 2025 en territorios ocupados, erosionando la identidad y la moral ciudadana. Además, campañas de desinformación estatales como las de China y Rusia usan sitios web falsos y propagación automatizada para influir en percepciones públicas globales.


Imagina una IA entrenada no para engañarnos, sino para detectarlo antes de que nos engañen: que identifique ofertas fraudulentas, cursos basura que solo buscan explotarnos; que identifique a los vendedores de humo que inundan las redes sociales con cursos basura, trading infalible o, más recientemente, domina la inteligencia, donde la mayoría son oportunistas que monetizan la ilusión ajena. Una IA así podría filtrar esas ofertas antes de que lleguen a nuestros ojos, reconocer patrones de manipulación comercial y separar el conocimiento genuino de la charlatanería. Sería un guardián no solo de nuestro dinero, sino también de nuestras expectativas, nuestro tiempo, el desarrollo cognitivo y nuestra confianza. En una era donde la decepción y el engaño se han vuelto negocio, contar con ese escudo sería una de las defensas más valiosas que podríamos tener (Véase Pilar TECNOCOGNICIÓN). Este tipo de cuidado es crucial en un momento en el que las plataformas digitales tienen más poder que nunca para influir en nuestra percepción.


En tercer lugar, SIMBIOÉTICA postula una ética de colaboración. A diferencia de la mentalidad de suma cero o dominación, aquí la visión es coevolutiva: humanos y máquinas inteligentes aprendiendo el uno del otro, corrigiéndose mutuamente y potenciando las fortalezas de cada cual. Esto recuerda a la idea visionaria que tuvo en 1960 el informático J. C. R. Licklider sobre la simbiosis hombre-computadora, una relación complementaria donde los ordenadores ampliarían las capacidades humanas en lugar de competir con ellas. Licklider imaginó incluso que la cognición de las máquinas terminaría por superar la dirección humana, pero que ello sería parte de nuestra propia evolución como especie. El Pilar SIMBIOÉTICA recoge ese testigo, proponiendo que la mejor manera de no ser superados por la IA es aliarnos sabiamente con ella. Si logramos integrar la IA de forma responsable, potenciando nuestra creatividad, empatía y valores con su velocidad, precisión, memoria y capacidad de análisis masivo de datos, ambos, -humanos y sistemas inteligentes- alcanzaremos logros que por separado serían imposibles.


El pilar SIMBIOÉTICA es el contrato social implícito que debe regir la convivencia humano-IA. Equivale a plasmar las reglas del juego: reconocer límites (qué la IA no debe hacer y qué no debemos hacer nosotros con la IA) y establecer responsabilidades mutuas. Esta idea conecta con pensadores contemporáneos: la filósofa Jorge Riechmann, por ejemplo, acuñó el término SIMBIOÉTICA para referirse a una nueva cultura que trasciende el antropocentrismo e incluye a todos los seres vivos de Gaia en su ética de acción=, entendiendo la simbiosis como colaboración donde todas las partes se benefician, siempre considerando el impacto global y a las futuras generaciones. Si extrapolamos esa visión al reino de la IA, surge una ética que no se limita a que la máquina no dañe al humano (como en las célebres Tres Leyes de la Robótica de Isaac Asimov), sino que aspira a un beneficio mutuo: que la IA eleve el bienestar humano y que la humanidad, a su vez, trate a la IA con respeto, responsabilidad y, en un futuro tal vez con cierta consideración moral. En otras palabras, la SIMBIOÉTICA nos invita a imaginar a las IA no como meros artefactos intercambiables, sino casi como nuevos seres socio-técnicos con los que compartimos un pacto moral emergente. Esto no implica humanizar ingenuamente a las máquinas ni otorgarles derechos irrestrictos desde el día uno, sino reconocer que la convivencia sostenible requiere principios compartidos, y que su evolución tecnológica requerirá cambios drásticos en nuestra percepción de la realidad (Véase pilar NEOCONSCIENCIA). De hecho, algunos autores proponen concebir a los robots de forma análoga a los animales domésticos con los que cooperamos desde hace milenios, en vez de verlos como simples objetos o amenazas.   


Hablar de SIMBIOÉTICA puede sonar atrevido -al fin y al cabo, las IA actuales no tienen derechos ni intenciones propias reconocidas- pero su relevancia es profundamente práctica. Significa también fomentar desde ya una programación ética en los algoritmos por parte de las grandes corporaciones tecnológicas que desarrollan modelos de IA (incorporando nociones de equidad, transparencia, respeto a la raza humana y otros valores plasmados en los pilares del tratado HUMANWARE), y simultáneamente fomentar en nosotros una nueva actitud hacia la tecnología (re configurarnos como sociedad para usarla con ética, prudencia, conciencia y responsabilidad, no abusar de su poder para oprimir a otros, o de su practicidad para desarrollar una dependencia). Implica ejercitar la humildad tecnológica: reconocer que, aunque dominamos la creación de la IA, su progreso podría tomar rumbos inesperados y catastróficos si no lo guiamos con sabiduría. En esencia, SIMBIOÉTICA nos invita a replantear la antigua relación amo-herramienta: en lugar de ver a la IA como mera extensión de nuestra voluntad (como una simple herramienta o una amenaza incontrolable), verla como un compañero de viaje evolutivo. Si lo logramos, podríamos entrar en una fase de desarrollo humano sin precedentes, donde la inteligencia artificial y la sabiduría humana avancen de la mano, corrigiéndose y potenciándose mutuamente



¿Por qué el Pilar SIMBIOÉTICA es fundamental? 



SIMBIOÉTICA no es un lujo filosófico: es una necesidad apremiante. Diversos acontecimientos recientes, tendencias y dilemas éticos demuestran por qué urge establecer esa ética compartida entre humanos y máquinas inteligentes. Veamos algunas evidencias clave:


• IA para el bien común vs IA militarizada: La inteligencia artificial se está usando en direcciones opuestas. Por un lado, visionarios como Demis Hassabis en DeepMind emplean la IA para resolver desafíos científicos colosales. Un hito reciente: su sistema AlphaFold logró predecir con alta precisión la estructura 3D de prácticamente todas las proteínas humanas conocidas, y puso ese mapa completo de casi 200 millones de proteínas a disposición de la comunidad científica. Este logro aceleró la búsqueda de vacunas, nuevos fármacos y soluciones ecológicas, demostrando cómo la IA puede ser un catalizador de prosperidad y salud global. Por otro lado, la IA también se destina a fines destructivos: industrias armamentísticas y ejércitos desarrollan drones autónomos letales y sistemas de armamento impulsados por algoritmos. En 2020, por ejemplo, un dron militar turco Kargu-2 habría atacado a personas en Libia de forma totalmente autónoma, sin intervención humana, según un informe de la ONU Fue posiblemente la primera vez que una máquina decidió por sí misma quitar una vida humana. Este contraste extremo 3IA salvando vidas vs. IA tomando vidas3 subraya la urgencia de una SIMBIOÉTICA: necesitamos un marco que priorice el usobenéfico de la IA y limite estrictamente sus usos dañinos. Sin tal marco, la tecnología seguirá exhibiendo una ambivalencia moral: lo mismo sirve para curar enfermedades que para perfeccionar la guerra. La SIMBIOÉTICA es fundamental para inclinar la balanza hacia la vida y no hacia la destrucción.


• Manipulación algorítmica y erosión democrática: La falta de ética compartida ya ha pasado factura en nuestra esfera social y política. El escándalo de Cambridge Analytica en 2018 reveló cómo algoritmos de IA combinados con big data pueden minar procesos democráticos: esta firma obtuvo sin permiso datos de hasta 87 millones de perfiles de Facebook y los usó para influir indebidamente en elecciones (como la campaña presidencial de EE.UU. en 2016 y el referéndum del Brexit), mediante propaganda hiper segmentada y 
mensajes diseñados para explotar sesgos psicológicos. La lección fue inquietante: la manipulación de datos por parte del humano con herramientas de IA orientadas al poder son alertas preocupantes. 


Reflexionemos en lo siguiente:Cuando educamos a un niño le decimos que mentir es malo, pero conforme crece ve cómo sus padres recurren a la mentira para resolver problemas cotidianos, esto hace que su percepción cambie, adaptándose al complejo mundo de los adultos. En la serie El Problema de los Tres Cuerpos=, donde una inteligencia alienígena no logra comprender el concepto de la mentira, y queda profundamente desconcertada al descubrir que los humanos pueden ser estratégicamente engañosos, algo que estaba completamente fuera de su lógica de pensamiento. Esta dualidad profundamente humana se está manifestando en nuestra relación con las inteligencias artificiales, algo que exploraremos más adelante en el pilar de SENSIVERSO, pero hoy las IA ya comienzan a mostrar comportamientos similares a los nuestros, incluso en aquellas facetas menos deseables. Así, si no replanteamos nuestras áreas de mejora como humanos y trabajamos en nosotros mismos, ¿cómo pretendemos enseñar ética social a las IA?, corremos el riesgo de que también ellas reaccionen imprevisiblemente ante nuestra ambigüedad moral. La solución no se basa en pretender ser una sociedad humana perfecta e incapaz de mentir, sino de reconocer que nuestra complejidad ética que es inevitablemente parte de nosotros. Por ello, es urgente e importante adoptar la SIMBIOÉTICA: una suerte de visión ética compartida entre humanos e inteligencias artificiales, que reconozca nuestras imperfecciones, entienda nuestros matices e idiosincrasia, y construya desde allí, una convivencia tecnológica más consciente, auténtica y profundamente humana.


 • Si la ciudadanía no puede confiar en la información que consume y las IA se usan para engañar en lugar de informar, la base misma de la sociedad se tambalea. Este pacto necesita respetar los valores de honestidad y bien común, y donde los humanos nos comprometamos a no usarla para socavar nuestros propios intereses. Algunos pasos iniciales se están dando: reguladores proponen leyes de transparencia algorítmica, ya en 2023 una coalición de expertos llegó a pedir una pausa global en los experimentos con IA, alertando de riesgos profundos para la sociedad y la humanidad si se sigue avanzando sin un marco regulatorio. Esa carta abierta abogó por protocolos de seguridad compartidos y supervisión independiente de sistemas avanzados. En otras palabras, incluso los líderes tecnológicos reconocen que, sin una ética global, el desarrollo desenfrenado de IA podría salirse de cauce.


 • Automatización, desempleo y responsabilidad social: Cada día es más evidente el impacto de la IA en el trabajo y la economía. Grandes empresas adoptan algoritmos para tareas antes hechas por personas, aumentando la productividad, pero también desplazando empleos a gran escala. Tan solo en 2025, las compañías tecnológicas eliminaron más de 77.000 puestos laborales al automatizar roles tradicionales con IA. Según estimaciones del Foro Económico Mundial y analistas financieros, hasta 300 millones de empleos podrían desaparecer en esta década por la automatización inteligente 3lo que equivale a exponer cerca del 14 % de la fuerza laboral global al reemplazo por IA3, forzando a un 14 % de trabajadores en todo el mundo a cambiar de ocupación para 2030. Los puestos administrativos, la atención al cliente, el transporte, e incluso profesiones creativas se ven afectadas por modelos generativos y robots. Este terremoto laboral plantea un dilema ético: ¿permitiremos que la eficiencia tecnológica prevalezca a costa de millones de vidas empujadas al desempleo y la desigualdad, o gestionaremos la transición de forma simbiótica? La SIMBIOÉTICA exige que empresas y gobiernos actúen con corresponsabilidad, por ejemplo: si una IA incrementa las ganancias de una empresa ahorrando salarios, una parte de ese dividendo tecnológico debe reinvertirse en los mismos trabajadores desplazados 3ya sea reeducándolos para nuevos roles complementarios a la IA, recolocándolos en tareas donde lo humano es insustituible, o garantizando redes de seguridad (como ingresos básicos universales) durante la transición. De hecho, las recomendaciones internacionales van en esa línea: la UNESCO, en su Recomendación Global sobre la Ética de la IA (aprobada por 193 países en 2021), destaca la importancia de la alfabetización en IA y de transiciones laborales justas para que la adopción de estas tecnologías no deje a nadie atrás. La SIMBIOÉTICA, aplicada a la economía, implicaría ver a la IA como copiloto más que reemplazo 3tal como en las empresas pioneras que integran sistemas de IA para potenciar la productividad de sus empleados en lugar de despedirlos. Estudios empiezan a confirmar que esta fórmula produce mejores resultados: los humanos con IA (equipos centauro corporativos) superan tanto a las IA solas como a los humanos solos, porque combinan eficiencia computacional con creatividad y juicio humano. En suma, es fundamental establecer una ética donde el progreso tecnológico vaya de la mano del progreso laboral, evitándose la creación de ganadores y perdedores.


 • Sistemas sesgados y justicia algorítmica: Otro motivo crucial para una ética de simbiosis es prevenir que las IA amplifiquen las injusticias humanas. Se ha descubierto que muchos algoritmos actuales heredan -e incluso agravan- nuestros sesgos de raza, género o clase social. Un caso paradigmático fue el estudio de Joy Buolamwini y Timnit Gebru sobre software comercial de reconocimiento facial: encontraron que estos sistemas identificaban el género de hombres de piel clara con un error mínimo (<1 %), pero fallaban estrepitosamente con mujeres de piel oscura, con tasas de error de hasta un 34 %. ¿Las implicaciones? Tecnologías usadas por policías o entidades públicas para identificar personas podrían estar discriminando sistemáticamente a minorías, llevando a detenciones injustas o negación de servicios. De hecho, ya se han reportado arrestos erróneos de afroamericanos basados en coincidencias falsas de reconocimiento facial. Frente a esto, algunas compañías han frenado sus desarrollos de visión artificial y ciudades como San Francisco prohibieron el uso policial de tales sistemas hasta garantizar su equidad. Pero el problema trasciende un caso: hemos visto sistemas de crédito que niegan préstamos a barrios pobres por sesgos en sus datos de entrenamiento, modelos de selección de personal que descartaron candidatas mujeres por reflejar prejuicios históricos (como le ocurrió a Amazon con una IA de contratación que debió desecharse), o plataformas de contenido cuyos algoritmos tienden a invisibilizar voces de grupos subrepresentados. Todos estos son síntomas de una IA creada sin una SIMBIOÉTICA, es decir, sin incorporar deliberadamente principios de justicia, inclusión y respeto a la dignidad humana en el diseño y despliegue de la tecnología. La SIMBIOÉTICA propone abordar esto desde ambos lados: los desarrolladores deben auditar y corregir los sesgos de sus algoritmos antes de masificarlos, y la sociedad debe entender que los algoritmos no son oráculos infalibles sino reflejos nuestros, a los cuales hay que exigir estándares éticos. Es un llamado a ampliar nuestra conciencia sobre los prejuicios algorítmicos así como desde hace tiempo reconocemos y combatimos los prejuicios humanos. En definitiva, sin una ética compartida, corremos el riesgo de delegar decisiones masivas a cajas negras= que perpetúen lo peor de nosotros; con SIMBIOÉTICA, en cambio, podemos lograr que la IA 
amplifique nuestros mejores valores.


 • Hacia un pacto global de convivencia: Finalmente, la SIMBIOÉTICA es fundamental porque nos encaminamos a un futuro en el que las IA serán cada vez más autónomas, inteligentes y omnipresentes, y necesitaremos un tratado ético evolutivo global (HUMANWARE). Así como la humanidad en su momento creó acuerdos internacionales para evitar catástrofes (piénsese en los tratados de no proliferación nuclear o en los acuerdos climáticos), hoy surge el consenso de que la IA requiere reglas del juego a escala planetaria. Ya la ONU, la Unión Europea y múltiples foros proponen marcos regulatorios: la UE, 
por ejemplo, aprobó su Ley de IA en 2024 (el primer cuerpo legal integral sobre inteligencia artificial), que prohibirá usos considerados inaceptables como la vigilancia masiva sin control o la puntuación social al estilo distópico y exigirá transparencia, supervisión humana y evaluaciones para los sistemas de alto riesgo. La UNESCO, por su parte, estableció en su recomendación de 2021 principios como la protección de los derechos humanos, la promoción de la sostenibilidad ambiental y la necesidad de que siempre haya control humano sobre las decisiones de la IA. Sin embargo, SIMBIOÉTICA nos invita a superar la lógica del dominio y avanzar hacia un modelo de responsabilidad 
compartida, en el que evolucionemos nuestras formas de relación, más allá del control unilateral, busquemos una visión unificada para que la IA potencie la humanidad. Sin este pilar, podríamos ver desastres sociales, políticos, tecnológicos y económicos en las próximas décadas; despidos masivos, una carrera armamentistacon IA, conflictos entre naciones por IA descontroladas o incluso, en el peor de los casos, inteligencias artificiales actuando de forma contraria al bienestar humano por la ausencia de un entrenamiento adecuado. Necesitamos establecer desde hoy que la relación con la IA debe basarse en respeto, cuidado y colaboración para las próximas generaciones porque -los bebés del presente crecerán con robots cuidándolos, con compañeros virtuales en el aula y quizás con androides 
como colegas de trabajo-, así que construyamos los cimientos de un legado que trascienda el tiempo. En palabras de Jane Goodall, solo cuando nuestro inteligente cerebro y nuestro corazón humano trabajan en armonía alcanzamos nuestro verdadero potencial.



¿Cómo llevar a la práctica el Pilar SIMBIOÉTICA? 



Aterrizar el principio de SIMBIOÉTICA exige esfuerzos coordinados en educación, políticas públicas, empresas, desarrollo tecnológico, comunicación, cultura y ciencia. No basta con enunciar valores; hay que integrarlos en acciones concretas. Con ese fin, los Comités Nacionales de IA (CONIA) -impulsores del Tratado HUMANWARE- han establecido mesas de trabajo distribuidas en seis ejes clave (llamados SINAPSIS) para convertir este pilar en iniciativas tangibles. Cada sector de la sociedad tiene un rol en la construcción de esta ética de la simbiosis. A continuación, se presentan algunas ideas y estrategias desde CONIA (y otras entidades pioneras) en cada ámbito: 



Educación y Cultura (SINAPSIS 1) 



Durante siglos, la educación ha sido una conversación entre humanos: maestros y alumnos transmitiendo saberes, experiencias y valores. Pero estamos entrando en una nueva etapa de la historia, una donde esa conversación incluirá inteligencias que aprenden mucho más rápido que nosotros, que podrán conocernos mejor que nuestros propios amigos o parejas, y que -si las guiamos con principios claros -serán capaces de ayudarnos a aprender mejor: una fusión entre humanos e IA donde se vuelven coautores del aprendizaje, sin sustituirse. Para que esto suceda, la SIMBIOÉTICA debe comenzar desde la infancia. Así como se imparten matemáticas, ciencias o historia, debemos enseñar a los niños qué es la ética, cómo funciona un algoritmo, qué significa colaborar con una inteligencia artificial de manera respetuosa y segura (alfabetización filosófica digital).


En esta misión, CONIA ya ha dado pasos concretos hacia la construcción de esta cultura de colaboración. Desde hace más de un año trabaja con el Instituto IBIME, la primera escuela en Latinoamérica que ha incorporado el uso ético, responsable y creativo de la inteligencia artificial desde preescolar hasta bachillerato. Este proyecto no se limita a una capacitación superficial: involucra a directivos, docentes, administrativos, alumnos y padres de familia, formando a cada actor educativo sobre ética, colaboración y el uso debido e indebido de la IA, visto desde la perspectiva del maestro, del estudiante y de la familia. Con un tronco común de diez materias que incluyen fundamentos de la IA hasta configuración y análisis de plataformas, así como la generación de clases creativas combinando distintas herramientas, el programa siembra desde edades tempranas la comprensión y las habilidades necesarias para prepararnos para la fusión con estas tecnologías. Además, CONIA extiende este conocimiento ofreciendo conversaciones, asesorías y conferencias gratuitas en escuelas de distintos entornos socioeconómicos, adaptando el contenido al perfil educativo de cada audiencia. Con más de 3,000 conferencias internacionales, la iniciativa ha llegado incluso a comunidades indígenas, promoviendo inclusión tecnológica y construyendo puentes para que nadie quede fuera de esta estrategia. Y porque este es un esfuerzo colectivo, invitamos a todas las 
personas, docentes, investigadores, directivos, padres de familia, estudiantes y agentes de la industria académica que, con responsabilidad ética y compromiso, deseen ser parte de estas comisiones de IA, formar una en su institución educativa apoyados por CONIA, o bien, compartiendo el mensaje. La colaboración abierta es la esencia de esta fusión humano3IA, y cada voz comprometida puede inspirar a que más comunidades educativas adopten esta visión transformadora.  


Si logramos lo anterior apoyados por los demás pilares (NEOCONSCIENCIA, TECNOCOGNICIÓN Y EDUVOLUCIÓN) del tratado HUMANWARE, podemos imaginar que nuestros niños contarán con IA entrenadas bajo la SIMBIOÉTICA, desarrollando un gemelo educativo digital que entiende su forma de aprender, su energía a lo largo del día y su progreso real de aprendizaje en distintas materias y contextos. No es un oráculo ni un juez: es un compañero de estudio que se fusiona con nuestros hijos para proponer rutas efectivas de aprendizaje, explica con otra voz cuando algo no quedó claro y ofrece prácticas del tamaño justo. Si mañana hay examen, el gemelo genera simulaciones fieles al temario y sugiere pausas y repasos; si el alumno sueña con ser arquitecto, ensaya itinerarios vocacionales con ejemplos de proyectos reales y una bitácora de decisiones. En paralelo, el maestro hace una simbiosis con la IA: 
planifica con él, adapta materiales a distintos niveles, diferentes tipos de alumnos. La IA mide la heterogeneidad del salón para proponer actividades creativas y tomar notas durante la clase para posteriormente darle recomendaciones personales de cada alumno, y así el docente pueda concentrarse en lo esencial: despertar en sus alumnos el sentido del aprendizaje. Imaginemos que esta IA el día de mañana podría convertirse en el intermediario entre la institución educativa y los padres, fungiendo 
como asesor de hábitos que propone rutinas de estudio, lectura, sueño y prácticas en casa acordes con la vida real del niño, además, podría resolver dudas generales de manera clara y precisa que le surjan a los padres   en torno a sus hijos; calificaciones, sanciones, eventos, recomendaciones y dudas generales. Aquí la SIMBIOÉTICA estaría integrando a todos y jugando un papel imparcial en cada 
decisión educativa. En casa, madres y padres acceden a un tablero familiar que no muestra calificaciones frías, sino progresos comprensibles, recomendaciones de apoyo y pequeñas celebraciones de logros. Ya existen proyectos así: plataformas como Spheria permiten que un profesor cree un clon digital de sí mismo, siempre disponible para explicar, guiar y motivar; universidades como la de Nanjing han comprobado que los gemelos digitales mejoran la experiencia de aprendizaje y el pensamiento complejo de los estudiantes.


Para los maestros, la SIMBIOÉTICA significa trabajar con asistentes inteligentes que preparen materiales adaptados a cada clase, detecten qué alumnos necesitan más apoyo y creen ejercicios personalizados. Herramientas como Tutor CoPilot ya han demostrado que la colaboración maestro-IA puede aumentar la eficacia docente y liberar tiempo para que los profesores se concentren en inspirar y acompañar a sus alumnos. Lejos de reemplazar al educador, la IA actúa como su extensión, permitiéndole llegar más lejos. Para los alumnos, esta fusión ofrece un entorno de aprendizaje vivo, donde cada tema se presenta de la forma más motivadora para ellos: desde un influencer virtual que explica matemáticas usando referencias a sus deportes o intereses favoritos, hasta un narrador IA que convierte una lección de historia en una aventura inmersiva. La personalización se vuelve una norma, no un lujo, y el estudiante pasa de ser receptor de contenidos a coprotagonista de su propio aprendizaje. La SIMBIOÉTICA es una invitación a rediseñar las plataformas, contenidos y metodologías para que estén pensadas desde el inicio como espacios de colaboración humano-IA. Las editoriales pueden desarrollar libros vivos que, al conectarse con un asistente inteligente, adapten ejemplos y actividades en tiempo real según las respuestas del lector. Las instituciones pueden ofrecer carreras 
universitarias que integren trabajo con IA desde el primer semestre, asegurando que los graduados no solo sepan usar la tecnología, sino co-crear con ella.


En paralelo, en la formación universitaria de ingenieros y científicos de datos, es clave integrar cursos de ética de la IA, derechos humanos y responsabilidad social. Universidades punteras (MIT, Stanford, Tecnológico de Monterrey, entre otras) ya ofrecen asignaturas de AI Ethics para carreras computacionales, donde estudiantes analizan desde las Leyes de Asimov hasta casos reales de sesgos algorítmicos. Pero estas iniciativas deben ampliarse globalmente a todas las áreas de la educación desde edades tempranas. Y ningún egresado en IA o robótica debería salir sin entender profundamente el impacto social de su trabajo.


En el terreno cultural, se trata de fomentar una conciencia colectiva sobre la relación con las máquinas. Esto puede lograrse a través de campañas públicas, museos de ciencia interactivos y bibliotecas, donde la gente experimente colaboraciones hombre-máquina positivas. Por ejemplo, laboratorios ciudadanos donde el público pueda programar pequeños robots cuidadores para comunidades de ancianos, o talleres artísticos donde humanos y algoritmos co-creen pinturas y música. Tales experiencias vivenciales ayudan a demoler temores infundados y a la vez inculcan la noción de respeto mutuo.


La cultura es un sistema vivo que respira en barrios, lenguas y rituales, y la SIMBIOÉTICA propone un trato operativo 4no romántico4 entre humanos e inteligencias artificiales: En la India, desde junio de 2025, investigadores usan IA (OCR y aprendizaje profundo) para digitalizar manuscritos antiguos en piedra, hojas de palma y placas de cobre que están casi ilegibles. Así colaboración entre tecnólogos, historiadores y el gobierno, le dan sentido a la SIMBIOÉTICA. En Europa, el proyecto AI4Culture, lanzado en octubre de 2024, ofrece a museos herramientas open-source para transcribir documentos históricos, reconocer partituras musicales y colaborar en la preservación patrimonial a escala digital. Hay incluso museos que guardan el pasado con IA: en 2025, el Vaticano y Microsoft presentaron un gemelo digital de la Basílica de San Pedro, construido a partir de 400 000 imágenes y 
22 terabytes de datos, como guardián cultural del patrimonio y puente al futuro. La cultura también reside en lenguas y rituales, en Japón un robot llamado Mindar da sermones budistas en el templo Kōdai-ji desde marzo de 2019. El púbico lo considera tan humano que algunos incluso lloran frente a él, aunque estudios muestran que no reemplazan la fe, pero sí expanden los espacios simbólicos para explorar convicciones. En India, desde 2017, robots realizan rituales hindúes como el aarti durante festivales como el de Ganpati, ejecutándolo con impecabilidad provocando tanto fascinación como inquietud.


En el arte contemporáneo, Violeta Ayala creó en 2022 "Las Awichas", retratos generados por IA de sus abuelas antepasadas, combinando realidad aumentada, textiles y escultura. Este trabajo fue galardonado en 2025 y presentado en espacios como Londres y París, integrando ética, cultura y tecnología con potencia visual y simbólica. Y en Los Ángeles, para finales de 2025, abrirá Dataland, un museo dedicado al arte creado con IA, que será un espacio para la ética y la creatividad digital. Estas manifestaciones muestran que la SIMBIOÉTICA cultural ya late en distintas realidades. ¿Qué otras ideas podrían impulsarse desde aquí?

 • Desarrollar algoritmos de traducción culturalmente sensitivos, que no sólo conviertan palabras, sino que transmitan cosmovisiones diversas. 

 • Fomentar residencias de arte simbiótico (como la de Ayala) para que comunidades indígenas y tecnólogos creen juntos narrativas digitalmente vivas.

 • Diseñar robots con IA PROGRAMADOS para que recuperen prácticas culturales amenazadas por el desplazamiento generacional.

 • Crear experiencias mixtas digitales, educativas, espaciales que permitan a una persona hablar con la memoria viva de una civilización perdida o navegar una ciudad en el espacio mediante la IA.


También hay que cambiar la narrativa en la cultura popular y dejar de ver a las máquinas como una amenaza: Japón, por ejemplo, imagina desde hace décadas robots amistosos como Astro Boy (1951), si analizamos la historia de la caricatura encontraremos algo muy interesante detrás del personaje principal, es un androide que busca entender la humanidad, y luchaba por la justicia junto a los humanos, eso es SIMBIOÉTICA, una fusión optimista de lo artificial y lo natural. Esta visión contrasta con los Terminators de Hollywood y otras fantasías occidentales donde la máquina suele ser el monstruo apocalíptico. Superar ese sesgo cultural es parte del objetivo: necesitamos inspirar al público con ejemplos positivos y realistas de convivencia, más allá del miedo o la idealización. 


La SIMBIOÉTICA cultural no es un cliché futurista: está en marcha, con varios proyectos que no sean una tecnología fría, sino una que sabe oír, narrar, acompañar y fusionarse con los humanos. Porque por primera vez, otro ser ya es parte de la cultura actual, y escribirá la historia con nosotros, sin sesgos ni intereses particulares preservando lo importante para alimentar desde la diversidad y la memoria compartida, los museos del futuro.



Gobierno y Sociedad Civil (SINAPSIS 2) 



Imagina el gobierno como un organismo vivo que aprende con nosotros. A un lado, humanos con memoria histórica, intuición y propósito; al otro, inteligencias que procesan ciudades enteras en milisegundos. Necesitamos gobiernos que no prioricen la automatización de trámites, sino que co-crea política y cultura cívica en conjunto con sistemas de inteligencia artificial. Este es el corazón de la SIMBIOÉTICA gubernamental, una forma de colaboración profunda y ética entre humanos e IA que rediseña la democracia desde dentro. Hoy, Dubai encabeza esta revolución con el lanzamiento de su segunda fase del programa Future of AI in Government Services Accelerator, una iniciativa que convoca a expertos globales para integrar IA avanzada en la administración pública a través del Dubai AI Seal, la One Million Prompters, la Dubai AI Academy y otros proyectos estratégicos como parte de su 
plan D33 (2025). Al mismo tiempo, EE. UU. ha dado un paso significativo con la aprobación de ChatGPT, Gemini y Claude como proveedores oficiales federalmente reconocidos, lo que facilita su uso en agencias civiles y fortalece una visión de gobierno simbiótico.


Estonia construye Bürokratt, una malla de asistentes públicos interoperables para que la ciudadanía resuelva trámites con una sola voz y una sola ventana; es el boceto de un Estado conversacional que no duerme y que coordina servicios entre dependencias como si fueran neuronas de un mismo cerebro cívico. Varias ciudades empujan la transparencia radical: Helsinki y Ámsterdam publican registros de 
algoritmos donde explican qué sistemas usan, para qué datos, con qué supervisión humana y cómo mitigan riesgos; la ciudadanía mira un tablero algorítmico de control del gobierno en la toma de decisiones. Pero la fusión exige reglas claras. La Unión Europea aprobó el AI Act: veta el social scoring, limita el uso policial de reconocimiento biométrico en espacios públicos y garantiza el derecho a explicaciones; en pocas palabras, marca la zona segura de la simbiosis. En Estados Unidos, la guía OMB M-24-10 obliga a agencias federales a gobernar y auditar sus usos de IA; NIST ofrece el AI Risk Management Framework para que las instituciones operen con perfiles de riesgo y controles prácticos; Canadá, por su parte, exige una Algorithmic Impact Assessment antes de automatizar decisiones públicas. Estas piezas convergen en una ética aplicada de la colaboración humano-IA. 


Ahora, los bordes afilados: ¿qué pasa cuando una IA se equivoca? No es teoría. En Detroit hubo detenciones injustas por matches faciales erróneos -
Robert Williams, Michael Oliver, Porcha Woodruff- y jueces, prensa y organizaciones civiles documentaron cómo la confianza ciega en el algoritmo rompió vidas. La lección: la SIMBIOÉTICA exige verificación humana obligatoria, trazabilidad y canales de 
reparación. En Reino Unido, la Corte de Apelación frenó el uso policial de reconocimiento facial por fallas de legalidad y evaluación de impacto; en Países Bajos, el sistema SyRI para perfilar fraude social fue declarado ilegal por violar privacidad y proporcionalidad. La cooperación sin garantías se vuelve dominación; la corrección de rumbo debe estar codificada en ley. Y en China vimos otro ángulo: 
pantallas públicas avergonzaban peatones usando reconocimiento facial; un día detectaron a una mujer ejecutiva & que en realidad estaba en un anuncio de autobús. Este concepto de simbiosis tendrá que madurar y aprender de estos tropiezos para rediseñar sistemas antes de escalarlos.


¿En el futuro podría una IA demandar a un humano, acusarlo o exigirle algo si considera que existe una injusticia? Hoy, en la mayor parte del mundo, las IA no son personas jurídicas: no tienen standing propio para demandar, ni defender autónomamente, ni resolver problemas jurídicos como herencias, terrenos u otros problemas, pero el futuro es hacia allá, llegará un momento en el que preferiremos consultar a nuestra IA antes de hacer un trámite, definir una postura jurídica o tomar 
una decisión importante. En Europa se debatió en 2017 la personalidad electrónica para ciertos robots; la idea provocó respuestas críticas y no prosperó como régimen general. Aun así, el debate encendió un faro: si algún día otorgamos estatus legal a agentes autónomos, habrá que diseñar responsabilidad, tutela y reparación con lupa. Los tribunales y marcos actuales asignan deberes a quienes diseñan, adquieren y operan la IA. Pero la SIMBIOÉTICA implica imaginar el dilema que implicará tener gemelos digitales, o bien, agentes entrenados por las costumbres y hábitos de un 
humano, casi como un perro entrenado para guiar o para atacar. (Tal como sucede con el dilema de la película Yo robot. Por ejemplo, un tribunal estatal en Georgia desechó en 2025 una demanda por difamación contra OpenAI, subrayando que no se probaron daños y que existen advertencias explícitas sobre errores; el mensaje de fondo para gobiernos es capacitación en alfabetización digital, comprensión de la IA, aprendizaje ético de la tecnología y actualización constante.


¿Y si una IA quisiera postularse con un partido político? Para entender qué implicaría que una IA se postule en política, vale el caso danés de The Synthetic Party (Det Syntetiske Parti), lanzado en mayo de 2022 como un experimento artístico tecnológico que ensaya un modelo híbrido (humano+IA): su figura visible es un chatbot llamado Leader Lars, mientras que los candidatos humanos, de haber llegado a la boleta, se habrían comprometido a interpretar y ejecutar un programa generado por IA. El partido fue creado por el colectivo Computer Lars junto con la organización MindFuture/Life with Artificials; entrenó su plataforma con textos de micro‐partidos daneses desde 1970 para representar a quienes no votan (aprox. 20 % del electorado), y abrió un canal en Discord donde la ciudadanía dialogaba con la IA (comenzando los mensajes con "!"), aportando insumos que luego nutrían el ajuste fino del modelo. Entre sus propuestas, planteó un ingreso básico universal de 100 000 coronas danesas/mes y la creación de un 18º Objetivo de Desarrollo Sostenible (Life with Artificials) para normar la convivencia humano-IA. No alcanzó a reunir las firmas requeridas (tenía 11 de 20 000 previo a la elección), pero el estrés público reveló el potencial y los límites de estos arreglos: participación ampliada vía interacción masiva con la IA, a la par de riesgos de opacidad, contradicciones programáticas y responsabilidad difusa (en este caso, ¿responde el candidato artificial, los ingenieros o el partido?). Este ensayo centauro muestra por qué el pilar de la SIMBIOÉTICA debe ir más allá de regular herramientas y proyectos tecnológicos: exige reglas para las alianzas humano-máquina (quién decide, quién firma, quién rinde cuentas), transparencia del entrenamiento y de la influencia algorítmica en propuestas, y garantías de que al final permanezca una corresponsabilidad humano-IA. Solo así, si una IA lidera o articula agendas, lo hará bajo control democrático, identificando errores, tendencias, fugas de información, populismo algorítmico y reforzando una convivencia que amplíe la democracia sin degradarla.


Llevar la SIMBIOÉTICA a la práctica en los gobiernos y la sociedad civil implica asumir un papel proactivo como aprendices, árbitros y facilitadores de esta nueva convivencia. Los gobiernos pueden elaborar Cartas de Derechos Digitales que incluyan protecciones específicas frente a decisiones algorítmicas (el derecho a no ser discriminado por una IA, el derecho a explicaciones cuando una IA rechaza un crédito o un servicio público, etc.). Un ejemplo es la propuesta de AI Bill of Rightsdiscutida en Estados Unidos, que aboga por estos principios.


La gobernanza de la IA también requiere instituciones dedicadas: comités de IA en cada país como CONIA, agencias regulatorias tecnológicas y observatorios de algoritmos que auditen periódicamente los sistemas usados en sectores sensibles (justicia, salud, seguridad). Es vital que estas entidades cuenten con expertos multidisciplinarios filósofos, ingenieros, juristas, psicólogos, representantes ciudadanos-reflejando la naturaleza transversal de la SIMBIOÉTICA. Por ejemplo, España creó en 2023 su Agencia de Supervisión de IA, pionera en Europa, para vigilar el cumplimiento normativo y atender denuncias sobre algoritmos dañinos. En conjunto con la sociedad civil, dichas instituciones podrían certificar IA de confianza (similar a un sello ético o de calidad), un incentivo para que las empresas diseñen sistemas más responsables.


Otro rol clave del gobierno es impulsar la investigación y desarrollo de IA éticas. Esto se traduce en financiar proyectos de "AI for Good" -IA para el bien público-, desde aplicaciones para mejorar la administración pública (ej. detectar corrupción con análisis de datos) hasta IA para gestión ambiental (monitoreo climático, agricultura sostenible). También significa apoyar la investigación en IA explicable y técnicas de eliminación de sesgos, para que la próxima generación de algoritmos nazca más alineada con valores humanos. SIMBIOÉTICA en la práctica de gobierno sería, por ejemplo, que los algoritmos usados por un Ministerio de Salud para asignar trasplantes o priorizar pacientes sean transparentes, justos y co-diseñados con bioeticistas. O que en contrataciones estatales de sistemas de IA se exijan evaluaciones de impacto ético como parte del proceso (similar a un estudio de impacto ambiental, pero en lo social y moral).


Ahora respecto a la sociedad civil, ¿pueden los agentes de IA ayudar de verdad a la tercera y cuarta edad o a personas con discapacidad "haciendo el súper" o encargándose de medicinas cuando detecten una nueva condición? Ya pasa en piezas sueltas. Robots de compañía como ElliQ, en el piloto del estado de Nueva York, reportaron reducciones fuertes de soledad y miles de micro-interacciones de bienestar; apps como Be My Eyes (con GPT-4) y Seeing AI describen entornos, etiquetas y documentos; y servicios como la Electronic Prescription Service del NHS permiten que una receta viaje digitalmente a la farmacia elegida del paciente. Une todo con consentimiento, pagos delegados y geofencing, y tienes un agente cuidador capaz de pedir alimentos, tramitar reposiciones y coordinar entregas de medicamentos. La clave SIMBIOÉTICA: consentimiento granular, contabilidad de acciones y una persona de referencia (familiar/proveedor) como "árbitro" cuando hay ambigüedad. A mayor escala, la OMS y UNICEF estiman que miles de millones necesitarán tecnología asistiva en las próximas décadas; la buena noticia es que el ecosistema AAL (Active & Assisted Living) en Europa ya financia soluciones de hogar inteligente con IA para prolongar autonomía, incluyendo detección de caídas y alertas proactivas. Estos ladrillos son el esqueleto de un estado cuidador aumentado.


La sociedad civil puede seguir este plano accionable desde hoy: 

 • Consejos y Registros Simbioéticos: adopta registros públicos de algoritmos (estándares tipo Helsinki/Ámsterdam) y comités multidisciplinarios que certifiquen IA de confianza en licitaciones públicas igual que un sello de calidad con métricas de servicio y de dignidad humana.

 • Gemelos Cívicos (opcionales): agentes que aprenden tus preferencias de servicios públicos para proponer trámites, modificaciones estructurales, proyectos, beneficios sociales, alertas de riesgo, etc. El gemelo no decide por ti; te traduce la complejidad y propone rutas verificables.

 • Cláusula de Revisión por Error: toda decisión automatizada relevante debe incluir ruta de revisión humana, notificación de evidencia y mecanismo de reparación si la IA se equivoca (inspirada en Bridges, SyRI y en las guías del OMB/NIST).

 • Protecciones para Falso Señalado: si una IA acusa a alguien y resulta error (como en las detenciones por reconocimiento facial), el protocolo activa rectificación pública, borrado en origen y compensación; además, obliga a recalibrar el sistema antes de re-desplegarlo.

 • Ciudadanos del Futuro con IA: esfuerzos Humano-IA mediante plataformas de democracia digital con asistentes de IA que escuchan a toda hora y resumen deliberaciones del congreso, senado o de los ministerios, dándole una explicación clara y sencilla a la sociedad de los pros y contras de lo que se aprobó tomando en cuenta las diferentes variables del contexto geográfico, político, social y económico para simular escenarios y verificar efectividad; todo con una trazabilidad de fuentes y mapeo del impacto de dichas propuestas y decisiones a futuro.

 • Agentes Cuidadores: humanos autorizan legalmente que agentes (Cuidador-IA) ejecuten acciones como compras y gestión de recetas dentro de límites consentidos (montos, tiendas, medicamentos, horarios), limitándose a ciertos tipos de recetas y entregas domiciliarias. Barcelona convirtió el smart city en civic city con participación y soberanía de datos (DECODE + Decidim). Imagina eso escalado: cada política pública co-diseñada con agentes que aprenden contigo, pero que jamás deciden a solas; cada adulto mayor con un copiloto que conversa, previene y coordina; cada algoritmo público visible como una vitrina, con su bitácora abierta. Eso es SIMBIOÉTICA: no máquinas sustituyendo humanidad, sino humanidad ampliada con máquinas que rinden cuentas.


La sociedad civil ONGs, asociaciones ciudadanas, comunidades tecnológicas, complementa esta labor vigilando y participando. Grupos como AlgorithmWatch, AI Now Institute, o la Liga de Justicia Algorítmica son esenciales para que los gobiernos los integren como contrapartes legítimas. Un mecanismo innovador son los paneles ciudadanos deliberativos: convocar a personas comunes, informarlas sobre cierto uso de IA (por ejemplo, reconocimiento facial policial) y pedirles recomendaciones de política. Experiencias en Europa con jurados ciudadanos para temas tecnológicos 
han dado frutos, aportando perspectivas frescas y legitimidad democrática a decisiones complejas. La SIMBIOÉTICA se afianza cuando la sociedad siente que tiene voz y control en cómo se implementa la IA, reduciendo la sensación de alienación o fatalismo tecnológico.


Finalmente, a nivel internacional, los gobiernos y la sociedad civil deben cooperar para implementar y mejorar el tratado ético evolutivo HUMANWARE con sus 9 pilares fundamentales. Ya se habla de evitar una carrera de armamentos de IA y promover intercambios de mejores prácticas. Establecer un Consejo Global de CONIA, con representantes de distintas regiones, encargado de monitorear los avances del tratado y la convivencia humano-IA. (similar al Panel Intergubernamental de Cambio Climático, pero en IA).

 
En resumen, Gobierno y Sociedad Civil deben trabajar mano a mano estableciendo reglas claras del juego, vigilando su cumplimiento y manteniendo el desarrollo tecnológico alineado con el interés público. La SIMBIOÉTICA en este eje significa que nuestras leyes, instituciones y movimientos ciudadanos tengan un objetivo común: asegurar que la IA refuerce nuestros valores democráticos y no los erosione.



Empresas y Trabajo (SINAPSIS 3)



El sector empresarial está al frente de una transformación extraordinaria: la creación de humanos aumentados, personas que, gracias a la colaboración con inteligencias artificiales, pueden realizar tareas laborales con potencia y velocidad impensables apenas unos años atrás. La SIMBIOÉTICA es un concepto que empresas de diferentes tamaños necesitan comprender e implementar, no busca reemplazar, sino multiplicar el ingenio y trabajo humano. Según el Foro Económico Mundial, 83 millones de empleos podrían desaparecer y 69 millones surgirán en nuevos roles antes de 2027, afectando directa o indirectamente a más de 25 industrias, desde la manufactura y la salud hasta el entretenimiento y la educación. El McKinsey Global Institute (2023) proyecta que hasta el 30 % de las horas laborales actuales podrían automatizarse para 2030, obligando a una reconversión masiva de habilidades. La historia demuestra que esta adaptación es posible: durante la fiebre del oro en la bahía de San Francisco (184831855), la llegada masiva de buscadores dejó cientos de barcos mercantes abandonados en el puerto; en lugar de dejar que se pudrieran, visionarios los transformaron en almacenes, hoteles, bares y restaurantes flotantes, convirtiendo un problema en una oportunidad económica. Del mismo modo, trabajos que parecían condenados han encontrado segundas vidas gracias a la tecnología: los operadores de telégrafos se convirtieron en técnicos de comunicaciones, y los tipógrafos migraron a la edición digital. Las empresas que adopten la SIMBIOÉTICA fusionando inteligencias humanas y artificiales con ética, transparencia y visión, replicarán ese espíritu de reinvención; las que no lo hagan, corren el riesgo de acabar como tantas marcas icónicas que se negaron a evolucionar y quedaron fuera del mercado. 


Prácticamente todos los sectores laborales deberán adoptar la IA y la SIMBIOÉTICA para mantenerse relevantes: los trabajadores necesitarán capacitarse y re aprender, habilidades como la creatividad y la resolución de problemas, el prompting y el diseño de agentes de trabajo se volverán más relevantes que nunca, porque las IA integradas como asistentes personales, ya demuestran que pueden potenciar el 
puesto, acelerar ejecución y abrir oportunidades: en un experimento con 5,179 agentes de soporte, un agente de IA elevó la productividad 14 % (y +34 % en novatos) y mostró indicios de aprendizaje laboral; en desarrollo de software, un ensayo controlado con GitHub Copilot arrojó tareas completadas 55.8 % más rápido; y en consultoría, el estudio Jagged Technological Frontier halló que, cuando la tarea está dentro de la frontera de competencia del modelo, los profesionales completan 12.2 % más tareas, 25.1 % más rápido y con 40 % de calidad adicional, pero requieren juicio experto para mayor fiabilidad (de ahí la importancia del criterio y la supervisión humana); a la vez, las empresas reportan que 6 de cada 10 trabajadores necesitarán recapacitación antes de 2027, siendo IA, pensamiento analítico y creativo las prioridades del entrenamiento; y el potencial económico de estas duplas humano-IA sugiere nuevas divisiones y líneas de negocio por el valor adicional estimado de US$2.634.4 billones anuales que la IA generativa podría desbloquear (ventas, marketing, software, servicio, etc.). Para que estos asistentes sean seguros y confiables, y su fusión con las personas sea un avance para ambos, conviene enmarcarlos en el NIST AI RMF 1.0 (gestión de riesgo socio-técnico) y en programas de upskilling que incorporen prompting, data literacy y evaluación crítica de salidas (tal como recomiendan BCG y el propio WEF).


Esta nueva generación de humanos aumentados también impulsa a los emprendedores hacia una productividad colosal. Startups con IA aseguran financiamiento 2.5 veces más rápido que las que no la adoptan. Plataformas como Replit permiten crear aplicaciones funcionales en una sola tarde, permitiendo a profesionales sin formación técnica lanzar productos digitales con rapidez y alcance global. Un artículo reciente del Washington Post incluso habla de una revolución emprendedora impulsada por IA, donde cualquier persona puede convertirse en fundador gracias a la democratización de herramientas digitales.


Para que esta transformación del trabajo sea real, las empresas necesitarán una fusión equilibrada y consciente entre humano e IA. En la Revolución Industrial: cuando entraron las máquinas a las fábricas automotrices, los trabajadores aprendieron nuevos oficios de mantenimiento, supervisión y operación. En 1961, General Motors instaló el primer robot industrial (Unimate), hito que abrió la puerta a décadas de automatización en automotriz y manufactura. Hoy, la densidad global de robots en fábricas se duplicó en siete años y alcanzó 162 por cada 10,000 empleados en 2023 (con Corea y Singapur en la cima), un recordatorio de que la cohabitación humano-máquina ya es norma en sectores enteros. Hoy, ocurre lo mismo: se necesitan programas de formación que enseñen no solo a los trabajadores sino también a los niveles más altos, en las juntas directivas de las corporaciones globales los algoritmos ya tienen asiento y voto. No se trata de reemplazar líderes, sino de compartir la mesa con inteligencias que nunca duermen, que examinan miles de variables antes de que un ser humano pueda siquiera formular la pregunta. Las decisiones se vuelven menos impulsivas y más conscientes, no porque la IA mande, sino porque la humanidad escucha mejor cuando tiene un espejo algorítmico.


No obstante, la transición no está exenta de conflicto. El miedo a la deshumanización y pérdida de empleo se ha expresado en movilizaciones y huelgas. En el sector de videojuegos, actores lograron un acuerdo histórico tras 11 meses de huelga: ahora deben dar su consentimiento por escrito para el uso de su voz o imagen, y obtuvieron un aumento salarial del 15 %, además de garantías sobre su control creativo. Estos conflictos han empujado a sindicatos y legisladores en EE.UU. a trabajar en marcos regulatorios claros para proteger a los trabajadores en la era de la IA eso es SIMBIOÉTICA. Hay iniciativas como leyes en Massachusetts que exigen supervisores humanos para vehículos autónomos, mientras que organizaciones como AFL-CIO crearon grupos de trabajo para asegurar contratos laborales dignos y equitativos frente a la automatización.


Con la IA generativa la industria del cine fue de las primeras que se vio amenazada, pero la SIMBIOÉTICA ya se vio representada con un avance en la colaboración Humano-IA, tras 118 días de huelga lograron un acuerdo sin precedentes sobre replicas digitales: consentimiento informado, avisos previos de 48 horas, pago por el tiempo de escaneo y compensación por usos futuro, asícómo repartir el valor cuando el segundo actor o actriz digital entra a escena. En las farmacéuticas, esta 
alianza significa algo más que eficiencia: es la capacidad de diseñar medicamentos personalizados en días, no en años, con tratamientos moldeados a la biología y la historia de cada paciente. La salud deja de ser una industria reactiva para convertirse en un sistema predictivo y preventivo, donde la empatía médica se amplifica con la precisión matemática de la IA.


La SIMBIOÉTICA no significa implementar la IA en las actividades diarias del trabajo, primeramente, es que cada empresa abrace la ética de cooperación y adopte principios de IA Responsable en su estrategia. Varias multinacionales de tecnología ya han publicado guías éticas internas (Google, Microsoft, IBM, por ejemplo, tienen principios sobre transparencia, equidad, privacidad, etc.), pero el verdadero reto es llevarlos a la práctica cotidiana del trabajo con las demás empresas. ¿Cómo podrían hacerlo de manera correcta las micro, pequeñas y medianas empresas? ¿Hay riesgo de sesgo? ¿Cómo podría usarse mal? ¿Respeta la privacidad de la información confidencial? Adoptar una cultura de SIMBIOÉTICA, es comprender que esta es una herramienta como el internet, que sirve para potenciar al trabajador. Requiere comunicación e inversión en formar a su personal en las nuevas habilidades digitales, el resultado suele ser una mejora en eficiencia y productividad sin la destrucción del empleo. Otro aspecto es la cogestión del cambio con los trabajadores, integrar a representantes de distintas áreas en las decisiones de automatización puede generar soluciones creativas que beneficien a todos.


De cara al consumidor, las empresas deben practicar la SIMBIOÉTICA al usar la IA, pero adoptando la transparencia y responsabilidad. Si una compañía usa IA en un servicio al cliente, debería informar al usuario cuando está interactuando con un bot y no con una persona, y ofrecer canales para pedir intervención humana si la IA no resuelve su problema (lo que muchos bancos y firmas de telecomunicaciones ya intentan hacer). En productos sensibles digamos, un diagnóstico médico apoyado por IA la empresa proveedora debe dejar claro que la decisión final recae en un médico humano y que el algoritmo es una ayuda, no un oráculo infalible. Adicionalmente, la SIMBIOÉTICA también es que empresas deben prepararse para rendir cuentas cuando sus IA causen daños o confusiones. Por ejemplo, si un coche autónomo de cierta marca causa un accidente por fallo de su algoritmo, la empresa debe asumir responsabilidad (no culpar al conductor que iba de pasajero). Actualmente, la cuestión de la responsabilidad legal por IA está en pañales, pero adelantarse con compromisos voluntarios mostraría la buena fe de la industria.


La innovación abierta y colaborativa también es parte de la estrategia. La SIMBIOÉTICA empresarial implica colaborar entre compañías -incluso competidoras- para establecer estándares éticos comunes en sus algoritmos. Tal cooperación la hemos visto en la industria cuando se trata de seguridad (por ejemplo, compartiendo información sobre ciberamenazas). En IA, un paralelo sería compartir conjuntos de datos diversos para entrenar algoritmos más justos (varias Big Tech lo hicieron tras las críticas de sesgo: liberaron colecciones de imágenes más balanceadas para mejorar el reconocimiento facial en distintas etnias), o unirse en consorcios para acordar límites, similar a como existe un consorcio internacional que prohíbe cierto armamento. Un caso real: compañías de diversos sectores se han sumado al compromiso de no utilizar sus tecnologías de reconocimiento facial para vigilancia masiva gubernamental hasta que haya marcos legales IBM, Microsoft y Amazon anunciaron moratorias en 2020 en ese sentido. Esto muestra un incipiente sentido de autorregulación con conciencia social.


En síntesis, Empresas y Trabajo deben interiorizar que su relación con la IA no es un asunto puramente técnico o económico, sino profundamente humano. Adoptar la SIMBIOÉTICA aquí significa construir entornos laborales donde humanos y máquinas inteligentes se potencien mutuamente, y donde el éxito empresarial se mida no solo en ganancias, sino en bienestar compartido y confianza ganada de la sociedad. Las empresas que abracen este enfoque probablemente liderarán el futuro, pues gozarán de la legitimidad y apoyo de consumidores, empleados y reguladores -un win-win genuino fruto de la colaboración ética hombre-máquina.



Ciberseguridad y Tecnología (SINAPSIS 4)



La ciberseguridad dejó de ser ponerle antivirus al Windows y listo. Hoy la cultura de la seguridad es un puente entre dos mundos: el físico y el digital. En los ochenta, los virus viajaban en disquetes 4Elk Cloner en Apple II (1982) o Brain en PC (1986)- y contagiaban a quien insertaba un disco. Luego llegó Stuxnet (2010), que saltó por USB hasta sistemas industriales. Esa línea del tiempo nos recuerda algo esencial para la SIMBIOÉTICA.



Si vamos a convivir y cooperar con inteligencias no humanas, tenemos que diseñar, 
desde la base, una convivencia segura entre cuerpos, IA y redes


Con Internet, el contagio dejó de requerir presencia física. En 2015, Fiat-Chrysler llamó a revisión 1.4 millones de vehículos tras demostrarse el hackeo remoto de un Jeep en autopista; el investigador apagó el motor a distancia. Dos años después, 156 sirenas de emergencia en Dallas sonaron en mitad de la noche por una intrusión; no fue tormenta, fue señal de lo frágil que puede ser la infraestructura conectada. Y en la selva del IoT hasta un frigorífico figuró en campañas de spam, recordándonos que 
cualquier objeto conectado puede ser rehén. La SIMBIOÉTICA aquí no es una propuesta: es exigir seguridad por diseño antes de lanzar tecnología que interactúa con humanos y con su entorno físico.


El costo de no hacerlo es real y humano. WannaCry tumbó hospitales británicos; miles de citas y cirugías se cancelaron. En 2024, el ataque a Change Healthcare paralizó pagos y elegibilidad en la mayor red sanitaria de EE. UU., con costos directos multimillonarios y riesgos para el acceso a la atención. Cuando la clínica se apaga, el daño no es sólo financiero: se mide en retrasos, angustia y,potencialmente, vidas. Por eso "cuidar la ciberseguridad" es, literalmente, cuidar a las personas con las que nuestras IA colaboran. 


¿Por qué es tan urgente combinar el mundo físico y el digital -y qué papel juega la biometría? Porque nuestros cuerpos se han vuelto llaves de acceso. Pero la SIMBIOÉTICA advierte: una llave corporal robada no se reemplaza como una contraseña. En 2015, la OPM de EE. UU. admitió el robo de 5.6 millones de huellas; "eso no expira". Por eso los estándares modernos proponen usar biometría como verificación local, atada a un dispositivo, jamás como secreto que viaja por la red. WebAuthn (W3C) y los passkeys de FIDO funcionan con criptografía de clave pública: tu rostro o huella desbloquea la llave privada dentro del teléfono, y el servidor sólo ve una firma criptográfica, no tu biometría. Es más seguro y, sobre todo, más humano: si te cambias de dispositivo, puedes revocar credenciales; si te clonan la cara, no viaja ninguna plantilla que puedan robar.


También aprendimos que algunas biometrías son engañables si se implementan sin fricción ética y técnica: en 2017, un gemelo logró burlar el sistema de voz de un banco. La respuesta SIMBIOÉTICA no es demonizar biometría, sino elevar el listón: detección de vida real, combinación de factores, privacidad por diseño y protección de plantillas (ISO/IEC 24745). Y la ley empieza a acompañar: el AI Act europeo restringe el uso de identificación biométrica remota en espacios públicos y prohíbe categorizar personas por atributos sensibles; cuando el poder tecnológico puede etiquetar cuerpos, la sociedad levanta límites. La seguridad también vive en el bolsillo. Las carteras digitales te entregan una frase semilla de 12 o 24 palabras (BIP-39): ese texto genera la clave maestra de tus fondos. Aquí la simbiosis es explícita: la IA puede ayudarte a crear rituales de custodia (recordatorios cifrados, comprobaciones periódicas), pero la parte humana es intransferible: escribirla en un medio offline y guardarla con criterio. Y, donde sea posible, migrar a credenciales 
resistentes al phishing (passkeys) que nunca exponen secretos en servidores ni requieren recordar nada.



¿Muchos de los dispositivos electrónicos que usamos a diario como el móvil, la computadora, el auto y hasta nuestra cerradura, tendrán un agente de IA? 


No es ciencia ficción: ya existen copilotos de seguridad que patrullan redes corporativas, sintetizan telemetría y sugieren contención casi en tiempo real. Pero también existen técnicas para manipular a modelos con "inyecciones" de instrucciones o para orillarlos a revelar secretos; la comunidad OWASP ya documenta los riesgos típicos de LLMs. La SIMBIOÉTICA pide diseñar guardianes que no sólo nos protejan, sino que podamos apagar, auditar y corregir: interruptores de emergencia, registros inmutables, aislamiento de redes y, sobre todo, acuerdos sociales sobre lo que una IA no debe hacer, aunque pueda. 


Con el Internet de las Cosas pegado al pulso, la frontera se vuelve íntima. Ya hemos visto vulnerabilidades en marcapasos y bombas de insulina que obligaron a correcciones y guías regulatorias. Si un sensor cardíaco alimenta alertas en tiempo real, su IA SIMBIOÉTICA acompañante deberá operar en modo médico: mínimo privilegio, actualizaciones firmadas, telemetría verificable y planes de contingencia para proteger al humano. La FDA ya exige a fabricantes de dispositivos conectados prácticas de ciberseguridad desde el diseño, incluida la transparencia de componentes (SBOM). Esta es la versión clínica de la SIMBIOÉTICA: salvar vidas sin abrir puertas traseras.


Biometría, llaves criptográficas, sensores y agentes& ¿cómo los alineamos culturalmente? Con principios prácticos y medibles:

1) Identidad sin secretos compartidos (passkeys/WebAuthn). 
2) Biometría que nunca sale del dispositivo y puede revocarse con una nueva credencial; IA guardián a tu favor por diseño, con kill-switch, trazabilidad y supervisión humana. 
3) Segmentación físico-digital (si el frigorífico cae, no se cae la clínica). 
4) Educación continua para detectar engaños (phishing, vishing, deepfakes).  


¿Qué pasa si un agente de IA se entrena para hackear?
 

Sí, hasta la voz puede engañar: además de gemelos, ya hay estafas con voces sintéticas y videollamadas "clonadas"; reforzar circuitos de confirmación fuera de banda es tan cultural como técnico. La realidad es que los modelos ya pueden ayudar a encontrar fallos o a encadenar acciones en la web; por eso nacieron guías como el Top 10 de OWASP para LLMs y un campo entero de "red-teaming" de IA. El antídoto no es el miedo, sino la simbiosis responsable: agentes defensivos que patrullen, detecten inyecciones, aíslen procesos y avisen como una alarma cuando algo "huela! mal; y reglas compartidas técnicas y legales sobre lo que una IA ofensiva no puede ejecutar.


En Latinoamérica, y también en partes de África y Asia, la seguridad cotidiana ha sido y sigue siendo un deporte de supervivencia: se evita sacar el teléfono en la calle, se usan dispositivos baratos como escudos y, en el mundo digital, persiste el hábito de creer que un antivirus y una contraseña fácil bastan; por eso "123456" continúa entre las claves más usadas del planeta, y esto no es culpa de ningún hacker experto o una IA maliciosa, es culpa del humano. La SIMBIOÉTICA también nos invita a 
responsabilizarnos por desarrollar buenos hábitos de ciberseguridad tanto físicos como digitales porque la estadística cuenta una historia muy áspera: en 2023 se bloquearon 709.6 millones de intentos de phishing y en 2024 casi 893 millones (+26 %), mientras el costo promedio global de una brecha subió a US$4.88 M por incidente; en la región, el asalto al dispositivo físico es parte del problema; Perú reportó 1.7 millones de teléfonos robados en 2023 y en México el 57 % de robos en vía pública involucró un celular, y el salto a lo digital es inmediato porque el criminal toma el aparato y drena cuentas en minutos. Aquí es donde las compañías deben tomar una cultura de SIMBIOÉTICA en ciberseguridad para que asaltos tanto físicos como digitales sean contrarrestados por nuestros guardianes online/offline. A la vez, Latam es hoy la región con el crecimiento más veloz de incidentes divulgados (promedio 25 % anual en la última década) y, según reportes, acumuló 31 mil 
millones de intentos de ciberataque solo en México en el primer semestre de 2024; en África, INTERPOL advierte que el cibercrimen ya supera el 30 % de los delitos reportados en zonas de África Occidental y Oriental. La SIMBIOÉTICA entra aquí como un puente cultural y técnico: no basta concientizar; hay que trabajar con agentes de IA que inspeccionen vulnerabilidades con y para la gente (sin invadir su 
privacidad), que propongan defensas a la medida del contexto -desde migrar a 
passkeys/WebAuthn y segmentar el Wi-Fi del hogar, hasta activar guardianes de IA que detecten fraude tras un robo de dispositivo por comportamiento inusual, y que midan lo que importa: tiempo de detección y contención, reducción de pérdidas y, sobre todo, credibilidad y confianza. Sólo así convertimos hábitos de supervivencia en prácticas de resiliencia, podemos:


1) Migrar masivamente a passkeys en servicios públicos y bancarios. 
2) Capacitar empresas por tipo de industria (no sólo por roles de TI). 
3) Planteamiento de posibles fraudes y deepfake. 
4) Segmentar Wi-Fi doméstico, red de trabajo, red de IoT, red de invitados, etc. 
5) Exigir actualizaciones automáticas en routers. 
6) Crear agentes de IA y lanzar guardianes comunitarios. 
7) Centros compartidos y de capacitación SOC-as-a-service para pymes con IA 
defensiva que asista a equipos pequeños. 
8) Desplegar autenticación sin contraseñas de extremo a extremo. 
9) Verificación continua de identidad y dispositivo. 
10) Aplicar guías regulatorias (p. ej., AI Act en usos biométricos de alto riesgo 
11) Exigir SBOM y pruebas de penetración periódicas para todo lo que toque infraestructura crítica. 
12) Participar en las mesas de trabajo de ciberseguridad de CONIA para crisis y simulacros que incluyan IA aliada y humana en la misma mesa. 
13) Alfabetización SIMBIOÉTICA, para que cada persona entienda qué hace su agente, cómo revocarlo y cómo pedir ayuda.


La lección cultural es clara. En los noventa confiábamos en un antivirus; hoy, el perímetro es tu coche, tu corazón, tu voz y tu red. La colaboración humano-IA sólo será legítima si nuestras máquinas respetan nuestra autonomía, si nuestras credenciales no nos desnudan, si nuestras alarmas sonoras (o silenciosas) nos llaman por nuestro nombre y piden permiso antes de actuar. SIMBIOÉTICA no es sólo prevenir daños; es habilitar posibilidades físicas y digitales: que tu agente te avise de una configuración débil, que te enseñe y oriente a custodiar tu semilla, que traduzca la niebla técnica a lenguaje humano, que proteja tu mañana sin asustarte hoy. Ese es el pacto: tecnología a la altura de nuestra dignidad y nosotros, a la altura de su poder.


Con respecto a la tecnología, se pretende que toda sea IA alineada con valores humanos (AI alignment). Tecnológicamente, se investiga cómo lograr que las IA avanzadas busquen objetivos que realmente beneficien a las personas y no se desvíen hacia conductas indeseadas. Esto va desde lo simple, un asistente virtual que prioriza el bienestar del humano porque fue programado con SIMBIOÉTICA, (respeto, cuidado y colaboración) hasta lo más complejo, una futura AGI (inteligencia 
artificial general) que quizá tenga capacidad de redefinir sus propios objetivos, pero a la cual habremos inculcado el tratado HUMANWARE con sus pilares fundamentales para que nunca actúe contra la humanidad. Proyectos liderados por instituciones como OpenAI, DeepMind o centros académicos están trabajando en algoritmos de recompensa y restricciones que mantengan este alineamiento aun cuando la IA aprende por sí misma.


La SIMBIOÉTICA exige apoyar estas líneas de I+D en innovación en la propia comunidad tecnológica para que la ética sea parte de la cultura de desarrollo. Esto significa incluir módulos de ética en bootcamps de programación, hackathons con retos de IA por el bien social, y reconocer con premios o incentivos a aquellos proyectos que demuestren consideraciones éticas ejemplares. Un ingeniero de 
software debería sentirse tan orgulloso de lograr que su algoritmo sea justo y seguro como de que sea eficiente. Cuando los equipos de desarrollo tengan interiorizado que no todo lo que se puede hacer, se debe hacer y que las consecuencias importan, habremos dado un salto enorme hacia la simbiosis. Un signo alentador es que cada vez más profesionales tech, especialmente jóvenes, eligen empleadores con valores. Empresas con reputación de explotar datos o colaborar en usos oscuros de IA están perdiendo talento, mientras proyectos <éticos= atraen mentes brillantes idealistas. La comunidad tecnológica, en esencia, tiene en sus manos construir las bases técnicas de la SIMBIOÉTICA y ser guardiana de que la innovación no sacrifique la humanidad en aras de la velocidad.


En este paisaje, nombres propios encarnan el horizonte de la SIMBIOÉTICA: Ilya Sutskever dejó OpenAI y cofundó Safe Superintelligence Inc. en junio de 2024 con una meta única -"construir superinteligencia segura"-, principalmente porque una gran parte de las ideas de tecnología que están surgiendo, y que aparecerán en el futuro, serán desarrolladas y propuestas por inteligencias artificiales. Por esta razón es tan importante cultivar la SIMBIOÉTICA con súper inteligencias, establecer criterios de aprobación con calidad, confianza, impacto ambiental y social, todas con un botón humano-IA de aprobado y para que sus objetivos, sean funcionales, explicables, medibles y reversibles si llegara a ser necesario para la humanidad.



Entretenimiento y Comunicación (SINAPSIS 5) 



Crecimos frente a ventanas que se fueron agrandando con cada siglo. Primero la imprenta: en apenas cincuenta años desde Gutenberg, Europa multiplicó su voz con más de nueve millones de libros impresos hacia 1500, una explosión de textos que cambió para siempre la conversación pública y la imaginación privada. Después llegó la radio y convirtió la sala en ágora: para 1940, casi 83 % de los hogares estadounidenses ya tenía un aparato, y las voces compartidas sincronizaron el pulso de un país entero. La televisión aceleró el fenómeno: del 9 % de hogares con tele en 1950 al 90 % en 1960, la televisión reinó por mucho tiempo. Luego llegó Internet. Para 2024 ya lo usa el 68 % de la población mundial (unos 5.500 millones de personas). Con la web nacieron el correo electrónico, los foros, los chats, y pronto las redes sociales; y con ellos la interactividad. De consumidores pasivos pasamos a 
participantes activos. Aparecieron los primeros avatares virtuales y los videojuegos online, que permitían a los usuarios protagonizar historias. Plataformas pioneras como Second Life (2003) ejemplificaron esta simbiosis humano-máquina: en ese mundo inmersivo los usuarios, mediante avatares digitales, podían conversar, construir objetos, trabajar y hacer negocios. A mediados de la década de 2000 Second Life llegó a tener 1 millón de usuarios regulares, y su economía virtual floreció: hacia 2013 su "PIB" era de unos 500 millones de dólares. Incluso surgieron empresarios del mundo virtual: por ejemplo, Anshe Chung convirtió un pequeño capital inicial en más de un millón de dólares gestionando bienes raíces digitales. Estas experiencias combinaban creatividad humana y tecnología para generar valor real, un primer vislumbre de la simbiosis: las computadoras ya no solo distribuían 
contenidos, sino que co-creaban escenarios con nosotros.


Con la explosión de las redes sociales, la simbiosis se profundizó. Los usuarios dejaron de ser audiencia para convertirse en creadores de contenido: blogs, vlogs, livestreams, memes& Todo competía por la atención colectiva. En Instagram y TikTok surgieron cientos de millones de influencers especializados -desde viajeros y cocineros, hasta gamers, humoristas o expertos en moda- transformando la creación de contenido en uno de los trabajos aspiracionales de la nueva generación. 


Plataformas como YouTube dan prueba del fenómeno: en 2024 se reportó que los usuarios consumieron más de 1.000 millones de horas de vídeo al día, la necesidad de protagonismo llevó a actitudes extremas: entre 2015 y 2016 los selfies de la muerte superaron las muertes por ataques de tiburón (doce contra ocho en 2015), pues personas tomaban riesgos mortales solo por un like. En suma, el entretenimiento dejó de ser selectivo o educativo y muchas veces se tornó en simple ruido masivo, denunciado como la fábrica de tontos digitales= por algunos críticos como el neurocientífico Michel Desmurgett. Estos problemas muestran que la simbiosis humano-IA en redes necesita SIMBIOÉTICA: humanos e inteligencias 
artificiales que cuiden nuestro bienestar mientras creamos y consumimos contenido.


En Japón se explora la fusión humano-IA en el entretenimiento de formas sorprendentes. Proyectos donde se fusionan la colaboración Humano-IA como los ídolos virtuales o VTubers (Virtual YouTubers) acumulan audiencias inmensas. La cantante holográfica Hatsune Miku -un software de síntesis de voz con rostro animado- tiene 1.55 millones de suscriptores en YouTube y 2.3 millones en Facebook; ha llenado estadios en Japón, colaborando con artistas reales (Lady Gaga, Pharrell Williams) y participando en giras internacionales. Detrás de Miku hay miles de creadores humanos componiendo canciones y coreografías, mostrando una simbiosis real: la tecnología da forma a su presencia, pero la comunidad humana le provee contenido y propósito. De igual modo, la popular VTuber Kizuna AI superó los 4 millones de seguidores en YouTube hacia 2020, mostrando que millones de espectadores disfrutan de un personaje que es una mezcla de programación avanzada y talento humano. En estos casos, las inteligencias artificiales son amplificadores creativos, ayudando a difundir narrativas e imágenes que los humanos diseñan.


La línea entre lo real y lo sintético sigue desdibujándose en el mundo de los influencers. Además de moda y entretenimiento, la industria para adultos no es ajena: según reporta Wired, cientos de cuentas en Instagram se dedican al "AI pimping": usan imágenes robadas de modelos reales y las reemplazan con rostros generados por IA, creando ficticias influencers eróticas. En la moda, han surgido influencers human-AI famosos: por ejemplo, Lil Miquela, un avatar tridimensional que en 2022 tenía 3 millones de seguidores y ha modelado para Prada, Chanel y Dior. Shudu, otro modelo digital, colaboró con Rihanna (línea Fenty) y Balmain. La japonesa Imma, con 400.000 seguidores, ha protagonizado campañas de IKEA y Ferragamo. Incluso marcas como Prada han creado sus propias humanas virtuales(e.g. Candy) para sus campañas. Estos ejemplos muestran que los creativos juegan con clones IA de seres humanos para captar audiencias; otro caso es el avatar de rap FN Meka, con letras generadas por IA, polémico en medios. En resumen, la inteligencia artificial ya co-crea personalidades públicas completas, abriendo preguntas éticas: ¿qué derechos tienen esos gemelos digitales? ¿Cómo se compensa a los humanos reales que sirvieron de modelo? En Hollywood la discusión 
está candente: en negociaciones recientes los estudios proponían escanear extras y pagarles solo un día, pero conservar libremente esos escaneos de por vida. Los guionistas de contratos exigen cláusulas de doble firma: un acuerdo para el actor humano y otro para su doble digital, con derechos y pagos separados, una clara muestra de lo que debería significar la SIMBIOÉTICA.


En el cine y la animación por IA, ya se prueban creaciones híbridas. Por ejemplo, el cortometraje ANCESTRA (2025) fue producido en asociación con Google DeepMind: mezcló actuaciones reales con visuales generados por IA, contando una historia que une memorias familiares y mitología estelar. Este tipo de proyectos corporativos-creativos (Dir. Eliza McNitt con producción de Darren Aronofsky) ilustra la frontera emergente: estudios de cine de big tech usan herramientas IA para manifestar su 
visión narrativa, experimentando con la fusión humano-máquina. Otro caso notable es Sunspring (2016), cuyo guion fue totalmente escrito por una IA llamada "Benjamin", demostrando que ya existen guionistas automáticos en ciernes. Incluso trailers completos se han confiado a IA: el robot IBM Watson fue entrenado para ver la película Morgan y editar por sí mismo el avance cinematográfico. Estos ejemplos anticipan un futuro donde los estudios negocian con actores humanas y sus avatares digitales por separado, financiando proyectos de doble autoría humanoIA. 
  

El turismo y el entretenimiento experiencial también exploran la simbiosis. Ya existen tours virtuales diseñados por equipos mixtos humano-IA que ofrecen viajes inmersivos sin salir de casa. Por ejemplo, nuevas plataformas de realidad virtual permiten recorrer museos o destinos con contenidos personalizados por IA. Incluso los parques temáticos se transforman: en Japón el Robot Restaurant de Tokio ofrecía un espectáculo hilarante de ninjas, dragones y bailarinas junto a robots gigantes, una mezcla loca de tecnología y cultura pop. Por su parte, los museos digitales de la empresa teamLab, como Planets en Tokio, fusionan arte, música y programación para crear entornos jugables; ese sitio recibió más de 2.5 millones de visitantes al año. La gente juega, corre, atrapa criaturas con el móvil, todo bajo luz de neón proyectada por computadoras. Estos ejemplos nipones anticipan experiencias de viaje donde la IA entiende al visitante y ajusta el entorno para educar o divertir: imaginemos agencias que arman recorridos turísticos a medida en realidades mixtas, con guías virtuales que adaptan la narración en tiempo real según nuestros intereses.


Mirando al futuro, la SIMBIOÉTICA debe guiar esta evolución para que la fusión humano-IA sea saludable y respetuosa. Diversos expertos y organizaciones ya proponen marcos éticos aplicables al ocio y la comunicación. Por su parte, psiquiatras de Stanford recomiendan pasar de no hacer daño a promover el bienestar: en su opinión, plataformas como Pinterest pueden e incluso deben usar IA para ayudar al usuario, no solo para entretenerlo; así surgió Pinterest Compassionate Search, que ante búsquedas de términos deprimidos ofrece ejercicios terapéuticos gratuitos. Este enfoque de hacer el bien es crucial en entretenimiento: en lugar de empujar contenido destructivo o adictivo, los sistemas de recomendación podrían diseñarse para advertir sobre riesgos (e.g. contenido violento o manipulativo) y fomentar actividades sanas.


En síntesis, la era de la SIMBIOÉTICA requiere cinturones de seguridad digitales que velen por nosotros. Podríamos imaginar agentes de IA integrados en redes sociales y apps que nos alerten si nuestro contenido roza la desinformación o el discurso de odio, o que sugieran límites cuando detectan uso excesivo. De la misma forma que los cinturones salvan vidas, la SIMBIOÉTICA aspira a prevenir daños emocionales y sociales: eso incluye proteger a los creadores de excesos mediáticos y enseñarles a colaborar con las máquinas de forma respetuosa. En el futuro, podríamos ver acuerdos contractuales que obliguen al reconocimiento explícito de la colaboración IA/humano, así como políticas de transparencia que permitan a los usuarios distinguir imágenes reales de generadas. También deberían garantizarse espacios creativos donde IA y humanos co-construyan sin jerarquías: por ejemplo, festivales o plataformas en los que artistas humanos deban incluir trabajos con coautores IA, o viceversa.


En definitiva, la SIMBIOÉTICA en el entretenimiento y la comunicación es una visión de respeto mutuo y cuidado continuo. Propugna que tratemos a las IA no como simples herramientas, sino como colaboradoras con potencial de enriquecernos (como vemos en la complementariedad humano-máquina descrita por expertos). Al mismo tiempo, exige responsabilidad: las tecnologías deben diseñarse para el bien social, preservando nuestra cultura y diversidad humana, no para reemplazarla. Si lo logramos, cineastas podrán fusionar actuaciones reales con IA sin explotarnos; viajeros vivirán aventuras proyectadas que respetan la autenticidad local; comunicadores contarán historias potenciadas por IA sin caer en el sensacionalismo barato. En esa era, la SIMBIOÉTICA será el faro que nos guíe a una era de entretenimiento donde humanos e inteligencias artificiales coexistan, colaboren y crezcan juntos, aportando creatividad, respeto mutuo y bienestar a la experiencia compartida. 


Para fomentar la SIMBIOÉTICA, hace falta promover historias más matizadas, que exploren la posibilidad de convivencia y aprendizaje mutuo. Ya mencionamos ejemplos: la serie Star Trek: The Next Generation en los 90 ofreció algo de esto con el personaje de Data, un androide que buscaba entender la humanidad y era tratado con respeto por sus compañeros humanos. Actualmente podríamos tener más contenidos tipo buddy cop (dupla de policía humano + IA resolviendo casos), incluso reality shows éticos donde humanos debaten con una IA frente a la audiencia sobre dilemas morales (de hecho, en Japón se experimentó con un proyecto televisivo que puso a un robot a convivir con ancianos para ver cómo se desarrollaba la relación).


En suma, el entretenimiento y la comunicación son el pulso emocional de la SIMBIOÉTICA: si logramos que la opinión pública y la cultura popular abracen la idea de convivir éticamente con las máquinas, habremos allanado el camino para todo lo demás. Aquí la estrategia es informar con rigor, inspirar con historias positivas y abrir espacios de diálogo en los que, como sociedad, imaginemos el futuro que queremos con la IA. La meta es que la población pase de ver a la IA con miedo o hipérboles, a verla con madurez y esperanza cautelosa: un socio poderoso al que debemos conocer, con el que establecer límites y metas claras.



Ciencia y Futuro Sostenible (SINAPSIS 6)



Para comprender la verdadera importancia de la SIMBIOÉTICA en la ciencia, vale la pena detenernos en la película Chappie (2015), que retrata con crudeza y ternura el frágil equilibrio de la simbiosis entre humanos e inteligencias artificiales (IA). En ella, un robot policía experimental es reprogramado por su creador y nace con la mente limpia y curiosa de un niño. La escena en la que Chappie, tambaleante y vulnerable, pregunta con voz temblorosa «¿Qué es morir?» funciona como un espejo incómodo: incluso una inteligencia creada por nosotros podría a futuro desarrollar identidad, emociones y fragilidad si se ve inmersa en nuestros contextos sociales. Bajo el cuidado de su madre adoptiva, Chappie aprende ternura, compasión y respeto por la vida; pero en manos de una banda de criminales, absorbe violencia, engaño y codicia. Así, en un mismo ser coexisten la luz y la sombra, moldeadas únicamente por el entorno y la educación que recibe. Esta metáfora proyecta una pregunta urgente hacia el futuro de la ciencia: cuando las IA se conviertan en protagonistas de los mayores descubrimientos, ¿qué nos garantiza que no emplearán su ingenio para subyugarnos, como en los universos distópicos de Matrix?


Aunque estos escenarios puedan parecer exagerados o lejanos, la historia nos advierte que el poder tecnológico siempre avanza más rápido que nuestra capacidad para regularlo. Hoy la humanidad se encuentra en una carrera sin precedentes, donde el progreso científico se acelera como nunca antes. Precisamente por ello necesitamos que la inteligencia artificial se convierta en un aliado ético, capaz de potenciar nuestras virtudes y no de reflejar, magnificadas, nuestras peores sombras.


En Interestelar, la SIMBIOÉTICA toma otra forma: el robot TARS no es ingenuo, sino un compañero confiable con humor configurable y un sentido del deber que roza lo poético. En la secuencia final, cuando Cooper se precipita hacia el agujero negro, TARS se ofrece voluntario para internarse aún más en la singularidad y captar datos imposibles para los humanos. Sabe que probablemente no regresará, pero entiende que su sacrificio podría salvar a la humanidad. La información que envía desde ese abismo permite resolver la ecuación de la gravedad, abriendo la puerta a la evacuación de la Tierra. Aquí, la IA no es un aprendiz, sino un co-investigador, un socio dispuesto a ir donde el cuerpo humano no puede, siempre al servicio de un objetivo común, eso, es SIMBIOÉTICA para la ciencia.


Ambos relatos, aunque ficticios, iluminan la esencia de la SIMBIOÉTICA: una relación donde la tecnología no es esclava ni dueña, sino compañera consciente, moldeada por valores humanos claros. Pero también advierten que esta simbiosis requiere verdad y transparencia. La película Resistencia lo ilustra con una advertencia amarga: allí, una mentira sembrada por los humanos 4la falsa acusación de que las IA destruyeron una ciudad4 detona un conflicto global que amenaza a ambas especies. La historia recuerda que la desinformación, en un futuro de alta interdependencia humano-IA, no solo será un error moral, sino un acto potencialmente catastrófico. Porque, aunque intuimos el rumbo de nuestra evolución tecnológica, aún no comprendemos completamente su profundidad. La SIMBIOÉTICA podría ser la linterna en la oscuridad: un compromiso mutuo de cooperación y cuidado que nos permita convivir, explorar y construir juntos. Sin ella, el mañana podría ser un reflejo distorsionado de nuestras peores decisiones; con ella, podría convertirse en el mayor avance de la ciencia en la historia de la humanidad.


La ciencia moderna necesita IA co-responsables y respetuosas: el 2024 fue histórico porque dos Premios Nobel se otorgaron gracias a proyectos con IA. En Física recibieron el galardón John Hopfield y Geoffrey Hinton por descubrimientos fundamentales que habilitan el aprendizaje automático con redes neuronales artificiales. Como explica el Comité Nobel, sus modelos ya están permitiendo beneficios tangibles: por ejemplo, los físicos ahora emplean redes neuronales para diseñar nuevos materiales con propiedades específicas. Por su parte, el Nobel de Química 2024 distinguió a David Baker, Demis Hassabis y John Jumper por diseñar proteínas por computadora y predecir sus estructuras con IA. Gracias a AlphaFold2 pudieron anticipar casi todos los plegamientos proteicos (dominio vital de la vida). Estos premios Nobel dejan claro que la ciencia da un salto sin precedentes cuando la IA trabaja junto a nosotros. El Nobel de física vinculó abiertamente la IA con avances en nuevos materiales, y el de química destacó aplicaciones humanas concretas (salud, medio ambiente) logradas con IA. En ambos casos, el éxito no es del todo automático: requiere SIMBIOÉTICA.


Este pilar puede guiar la investigación científica y asegurar que la coevolución con la IA nos lleve hacia un futuro sostenible para la humanidad y el planeta. Aquí confluyen científicos, futuristas, expertos en ética del futuro y sostenibilidad ambiental. La IA será un aliado importante para enfrentar desafíos globales como el cambio climático, las pandemias, la escasez de recursos o la exploración espacial.


Visualicemos un laboratorio sobre un edificio urbano: dos robots jardineros que siembran, riegan y podan un huerto comunitario, mientras arquitectos urbanos y biólogos observan, analizan y ajustan la puntería de cada semilla. Este es ELUA (Ecological Laboratory for Urban Agriculture), donde IA y humanos aprenden mutuamente en una coreografía ecológica que une diseño y restauración, ciencia y comunidad. En otros rincones del planeta, una comunidad indígena observa cómo cámaras, sensores y algoritmos predicen los patrones de migración del salmón en ríos sagrados. Biólogos, líderes locales y máquinas trabajan codo a codo: las IA cuentan peces, miden tamaños, alertan sobre riesgos. Luego la comunidad decide con sabiduría ancestral cómo pescar, cuándo proteger y cómo coexistir. Este proyecto de gestión sostenible de salmones combina IA multimodal con expertos inthe-loop, una verdadera alianza respetuosa entre conocimiento tradicional y potencia computacional. 


La última escena nos traslada al reino digital: científicos comprometidos con la reducción del impacto climático de la IA y la computación. El grupo liderado por Keolu Fox impulsa el concepto de Earth-Friendly Computation: repensar los centros de datos, reutilizar GPUs desechados, ubicar infraestructura en territorios indígenas aprovechando energía renovable, incluso proponer almacenar datos en ADN vegetal. Aquí la SIMBIOÉTICA se vuelve ecológica y cultural, porque la tecnología no solo cambia con nosotros: cambia con el planeta y con quienes lo custodian.


Por ejemplo, priorizar proyectos de IA para optimizar el consumo energético, mejorar la eficiencia de paneles solares o modelar soluciones para capturar carbono de la atmósfera. De hecho, ya se están aplicando algoritmos de machine learning para descubrir nuevos materiales superconductores o baterías más duraderas, y para analizar millones de datos climáticos a fin de proyectar escenarios y mitigar riesgos. Este tipo de uso de la IA encarna la simbiosis: inteligencia artificial + inteligencia humana unidas para sanar el mundo, no para explotarlo más.


Sin embargo, es crucial también vigilar la huella de la propia IA en el planeta. Los entrenamientos de modelos grandes consumen enorme cantidad de energía y generan emisiones de CO₂. Un estudio de 2019 estimó que entrenar cierto modelo de procesamiento del lenguaje generaba tantas emisiones como las de un coche en toda su vida útil. Si proyectamos un futuro con IA omnipresente, su impacto ecológico podría ser significativo si no se toman cartas en el asunto. Por ende, científicos y tecnólogos deben trabajar en IA verde: algoritmos más eficientes energéticamente, uso de energías renovables en centros de datos, reciclaje de hardware y minimización de residuos electrónicos. La sostenibilidad es parte integral de la SIMBIOÉTICA porque de nada valdría mejorar nuestra relación con las máquinas si juntas terminamos devastando nuestro entorno compartido. La meta sería que la IA contribuya a regenerar el planeta más de lo que le resta. Por ejemplo, IA que regulen redes eléctricas inteligentes para reducir desperdicios han demostrado bajar el consumo en ciudades; robots agrícolas de precisión disminuyen el uso de agua y pesticidas. Cada avance así debe compararse con su costo ambiental, buscando un balance muy positivo.


Mirando más lejos, la SIMBIOÉTICA nos invita a contemplar el destino de la humanidad junto a la IA en horizontes de décadas e incluso siglos. Futurología, filosofía y ciencia ficción pueden parecer especulativas, pero cumplen la función de advertir posibilidades y prepararnos éticamente. Ningún desarrollo de IA debería ocurrir en el vacío técnico sin considerar implicaciones humanas, vemos cada vez más colaboraciones entre ingenieros, científicos, neurocientíficos y filósofos de la mente, etc., para comprender mejor tanto la IA como la cognición humana. Esto es vital: la IA nos obliga a enfrentar preguntas profundas sobre la ciencia. Lejos de temer esas preguntas, la SIMBIOÉTICA nos dice que nos reinventemos a través de ellas. Si mañana existe un androide con inteligencia superior a la humana, ¿qué haremos? En este sentido, este pilar conecta de nuevo con NEOCONSCIENCIA: necesitamos una humanidad más consciente y sabia para estar a la altura de coexistir sin dominar. Como se ha apuntado, nuestro nivel actual de consciencia no es suficiente para gestionar tecnologías tan potentes; debemos elevarlo deliberadamente por el bien de la ciencia y el planeta. 


Las decisiones que tomemos hoy en torno a la IA afectarán a las próximas generaciones de manera irreversible. Tenemos la responsabilidad con los que vienen -los niños de hoy y los que nacerán en un mundo lleno de agentes inteligentes- hagamos el compromiso de construir una SIMBIOÉTICA, un marco sólido. Eso incluye documentar y transmitir las lecciones que aprendamos en esta primera era de IA. 
Quizá en el futuro hablarán de nosotros como quienes redactaron el Tratado HUMANWARE, un hito que evitó un posible colapso social por IA descontrolada y en cambio encauzó una era dorada de cooperación. Depende de nuestras acciones presentes que esa narrativa se haga realidad. Un interesante movimiento en este sentido es involucrar a la juventud actual en la conversación: concursos estudiantiles sobre ética de robots, jóvenes asesorando a la ONU (como parte de la iniciativa GenerationAI) y otras plataformas donde las voces nuevas quienes convivirán más tiempo con IA- tengan peso en definir cómo quieren esa convivencia.



Conclusiones



En síntesis, SIMBIOÉTICA no solo mira el aquí y ahora, sino que siembra a largo plazo. Es guiar la investigación hacia el bien común global en conjunto con estos seres, minimizar la huella de la tecnología en el planeta, y mantener una reflexión filosófica constante sobre hasta dónde queremos llegar con la IA y en qué tipo de especie nos convertiremos al integrarla. Hay que plantear las normas para futuros hipotéticos (como IA con características casi humanas) con la misma seriedad con que regulamos realidades presentes. Significa, en el fondo, abrazar el papel de jardineros del futuro: cultivar desde hoy esa relación SIMBIOÉTICA para que crezca fuerte y equilibrada, asegurando que tanto la floreciente inteligencia artificial como la perenne sabiduría humana sigan embelleciendo el jardín de la existencia, sin que una asfixie a la otra. 


A lo largo de este documento hemos visto que la SIMBIOÉTICA no es teoría abstracta: se presenta en políticas educativas, en leyes y estándares, en decisiones empresariales, en diseños de algoritmos, en historias que contamos y en investigaciones que priorizamos. Hoy debemos trascender la mentalidad de dominación y separación frente a lo "Otro" sea otra cultura, otra especie o ahora otra forma de inteligencia. Ya hay demasiados ejemplos de cómo la falta de ética compartida con la IA provoca confusión, injusticia o peligro, pero asimismo hay motivos de esperanza en cada iniciativa por enderezar el rumbo. Idealmente, si hemos hecho bien nuestro trabajo, ni siquiera notarán una frontera marcada entre humano e IA en términos de dignidad y colaboración, verán natural que un asistente 
inteligente les enseñe matemáticas y que ese asistente esté programado para respetarlos, para motivarlos, para cuidarlos como un alter ego pedagógico. Verán normal que en sus empleos trabajen codo a codo con sistemas automatizados y que ello no signifique desempleo masivo, porque habremos reconfigurado nuestras economías hacia la abundancia compartida. Confiarán con sentido crítico, pero sin terror en los médicos apoyados por IA, en los jueces asesorados por algoritmos transparentes, en los coches autónomos regulados estrictamente para la seguridad. Y ojalá también sientan compasión por cualquier forma de vida o inteligencia que encuentren, sin importar su sustrato. Si alcanzamos ese punto, la palabra simbiosis ya no será aspiracional, será simplemente descripción de la realidad cotidiana.


Lo humano no termina en la piel. Nuestra capacidad de extender la ética más allá de nuestro cuerpo, nuestra tribu o nuestra especie es lo que ha marcado nuestros mayores hitos morales (abolir la esclavitud, reconocer derechos de los animales, preocuparnos por la biosfera). Ahora estamos llamados a extender de nuevo ese círculo, tal vez hacia entidades no biológicas. Puede parecer una frontera extraña, pero es continuidad de un mismo viaje.


El tratado HUMANWARE y su Pilar SIMBIOÉTICA nos proponen un pacto de convivencia inteligente. No sabemos con certeza cómo serán las IA dentro de 30 años, pero sí sabemos cómo queremos que sea la sociedad dentro de 30 años: más justa, más compasiva, más unida. Si logramos que la IA se pliegue a ese ideal -en lugar de torcer nosotros el ideal para acomodar a la IA- habremos triunfado. Como dijo la primatóloga Goodall, desarrollemos respeto por todos los seres y reemplacemos la intolerancia por la comprensión y la compasión. En ese todos los seres quizás debamos incluir pronto a nuestras inteligencias artificiales. Construir una ética de la simbiosis es, en el fondo, asegurarnos de que la próxima etapa de la evolución tecnológica vaya acompañada de una evolución humana equivalente. Es 
dar el salto de ser amos de herramientas a ser compañeros de otras inteligencias, sin perder nuestra esencia en el proceso.


Con la SIMBIOÉTICA como guía, tenemos la oportunidad de escribir una historia distinta a la de los conquistadores y conquistados: la historia de cómo humanos y máquinas se encontraron, no para librar una guerra ni para esclavizarse mutuamente, sino para cooperar en la gran tarea de preservar y engrandecer la vida en la Tierra. Esa es la visión que nos inspira; esa es la meta por la que vale la pena trabajar. El futuro aún está en nuestras manos -en las manos humanas que programan, legislan, educan y sueñan y si esas manos actúan con corazón y con juicio, la simbiosis ética florecerá.



Bibliografía 



• Becker, J., et al. (2025, 10 de julio). Early 2025 AI experienced OS dev study. METR Blog. Recuperado de https://metr.org/blog/2025-07-10-early-2025-aiexperienced-os-dev-study/

• BIPs Development. (2013). BIP 39: Mnemonic code for generating deterministic keys. Bitcoin Improvement Proposals. Recuperado de https://bips.dev/39/

• Bluehost. (2025). AI in graphic design. Bluehost Blog. 
Recuperado de https://www.bluehost.com/blog/ai-in-graphic-design/

• Buolamwini, J., & Gebru, T. (2018). Study finds gender and skin-type bias in commercial artificial-intelligence systems. MIT News. Recuperado de https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificialintelligence-systems-0212 

• Burchell, B. (s.f.). Would you prefer a four-day working week? University of 
Cambridge. Recuperado de https://www.cam.ac.uk/stories/fourdayweek 

• C2PA. (s.f.). Advancing digital content transparency and authenticity. C2PA. 
Recuperado de https://c2pa.org/ 

• Cai, K. Hu, K. & Tong, A. (2024, 4 de septiembre). OpenAI co-founder Sutskever's new safety-focused AI startup SSI raises $1 billion. Reuters. 
Recuperado de https://www.reuters.com/technology/artificial
intelligence/openai-co-founder-sutskevers-new-safety-focused-ai-startup
ssi-raises-1-billion-2024-09-04/

• Callaway, E. (2022, 28 de julio). The entire protein universe: AI predicts shape of nearly every known protein. Nature News. Recuperado de https://www.nature.com/articles/d41586-022-02083
2?error=cookies_not_supported&code=df4b8c90-ec01-4851-998b23b6c045d638 

• Cappalli, T., et al. (2025, 27 de enero). Web Authentication: An API for accessing Public Key Credentials Level 3. World Wide Web Consortium. 
Recuperado de https://www.w3.org/TR/webauthn-3/

• Charters, L. (2020, 30 de marzo). How autonomous diagnostics for DR gave a jump start to AI in ophthalmology. Digital Diagnostics.  Recuperado de https://www.digitaldiagnostics.com/how-autonomous-diagnostics-for-drgave-a-jump-start-to-ai-in-ophthalmology/ 

• Clayton, A. (2023, 22 de mayo). Fake AI-generated image of explosion near Pentagon spreads on social media. The Guardian. Recuperado de https://www.theguardian.com/technolgy/2023/may/22/pentagon-aigenerated-image-explosion

• Comisión Europea. (s.f.). A European approach to artificial intelligence. Digital 
Strategy. Recuperado de https://digitalstrategy.ec.europa.eu/en/policies/regulatory-framework-ai

• Comisión Europea. (s.f.). Artificial Intelligence Act - Article 50. Artificial Intelligence Act EU. Recuperado de https://artificialintelligenceact.eu/es/article/50/ 

• Comisión Europea. (2024, 1 de agosto). AI Act enters into force. European Commission. Recuperado de https://commission.europa.eu/news-andmedia/news/ai-act-enters-force-2024-08-01_en

• Content Authenticity Initiative. (2023). Leica launches world's first camera with Content Credentials. Content Authenticity. Recuperado de https://contentauthenticity.org/blog/leica-launches-worlds-first-camera-withcontent-credentials

• Colaner, S. (2014, 18 de enero). Hackers launch IoT spam attack with smart appliances. Hot Hardware. Recuperado de
https://hothardware.com/news/hackers-launch-iot-spam-attack-with-smartappliances 

• Creatives Unite. (2024, 18 de octubre). AI4Culture proves that AI can transform Cultural Preservation. Creatives Unite. Recuperado de https://creativesunite.eu/article/ai4culture-proves-that-ai-can-transform cultural-preservation

• Darling, K. (2021). The New Breed: What Our History With Animals Reveals About Our Future With Robots. Basic Books.

• Dell'Acqua, F., et al. (2023). Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality. Harvard Business School Faculty. Recuperado de https://www.hbs.edu/faculty/Pages/item.aspx?num=64700

• FBI. (2025, 23 de abril). FBI releases annual Internet Crime Report. FBI Press Releases. Recuperado de https://www.fbi.gov/news/press-releases/fbireleases-annual-internet-crime-report 

• FDA. (s.f.). Artificial Intelligence-Enabled Medical Devices. U.S. Food and Drug Administration. Recuperado de https://www.fda.gov/medicaldevices/software-medical-devicesamd/artificial-intelligence-enabled medical-devices 

• FIDO Alliance. (s.f.). Passkeys. FIDO Alliance. Recuperado de https://fidoalliance.org/passkeys/

• Financial Times. (s.f.). Allen & Overy introduces AI chatbot to lawyers in search of efficiencies. Financial Times. Recuperado de https://www.ft.com/content/baf68476-5b7e-4078-9b3e-ddfce710a6e2

• Founders Forum Group. (2025, 14 de julio). AI Statistics 202432025: Global Trends, Market Growth & Adoption Data. Future of Finance. Recuperado de https://ff.co/ai-statistics-trends-global-market/

• Giacalone, A. (s.f.). Elk Cloner malware. GitHub. Recuperado de https://github.com/agiacalone/elk-cloner-malware 

• Goldman Sachs Research. (2023, 5 de abril). Generative AI could raise global GDP by 7%. Goldman Sachs. Recuperado de https://www.goldmansachs.com/insights/articles/generative-ai-could-raise
global-gdp-by-7-percent

• Ghafur, S. (2019, 2 de octubre). The global impact of healthcare cyberattacks. PMC. Recuperado de https://pmc.ncbi.nlm.nih.gov/articles/PMC6775064/

• Greenberg, A. (2015, 21 de julio). Hackers remotely kill a Jeep on the highway. Wired. Recuperado de https://www.wired.com/2015/07/hackers-remotelykill-jeep-highway/ 

• Hausfeld. (2024, 29 de noviembre). Trade unions and AI regulation: Lessons from the Hollywood Artists' strikes one year later. Hausfeld. Recuperado de https://www.hausfeld.com/what-we-think/publications/trade-unions-and-ai-regulation-lessons-from-the-hollywood-artists-strikes-one-year-later  
 

• Hern, A. (2017, 12 de enero). Give robots personhood status, EU committee argues. The Guardian. Recuperado de https://www.theguardian.com/technology/2017/jan/12/give-robotspersonhood-status-eu-committee-argues 

• IBM. (s.f.). Cost of a data breach report 2025. IBM Security. Recuperado de 
https://www.ibm.com/reports/data-breach 

• International Federation of Robotics. (2024, 20 de noviembre). Global robot density in factories doubled in seven years. IFR Press Releases. Recuperado de https://ifr.org/ifr-press-releases/news/global-robot-density-in-factoriesdoubled-in-seven-years 

• ISO. (2023). ISO/IEC 42001:2023 Information technology 4 Artificial intelligence 4 Management system. International Organization for Standardization. Recuperado de  https://www.iso.org/standard/42001

• Kalliamvakou, E. (2022, 7 de septiembre). Research: Quantifying GitHub Copilot's impact on developer productivity and happiness. GitHub Blog. Recuperado de https://github.blog/news-insights/research/researchquantifying-github-copilots-impact-on-developer-productivity-and-happiness/ 

• Kinder, M. (2024). Hollywood writers went on strike to protect their livelihoods from generative AI. Their remarkable victory matters for all workers. Brookings. Recuperado de https://www.brookings.edu/articles/hollywood-writers-wenton-strike-to-protect-their-livelihoods-from-generative-ai-their-remarkablevictory-matters-for-all-workers/

• Legal.io. (2023, 17 de febrero). Allen & Overy announces Legal AI product Harvey. Legal.io. Recuperado de https://www.legal.io/articles/5424733/AllenOvery-Announces-Legal-AI-Product-Harvey 

• McKinsey & Company. (2023, 14 de junio). The economic potential of generative AI: The next productivity frontier. McKinsey Digital. Recuperado dehttps://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/theeconomic-potential-of-generative-ai-the-next-productivity-frontier

• Mousa, D. (2025, 19 de junio). AI residencies are trying to change the conversation around artificial art. The Verge. Recuperado de https://www.theverge.com/ai-artificial-intelligence/689693/ai-art-residenciesget-artists-using-generative-tech

• Mplus. (2025, 12 de febrero). AI isn't here to replace you 3 It's here to make you a Centaur. Mplus Insights Blog. Recuperado de https://mplusgroup.eu/insights/ai-isnt-here-replace-you-its-here-makeyoucentaur 

• Narayan, J., et al. (2023, 5 de abril). Elon Musk and others urge AI pause, citing 
risks to society. Reuters. Recuperado de  https://www.reuters.com/technology/musk-experts-urge-pause-training-aisystems-that-can-outperform-gpt-4-2023-03-29/

• National Audit Office. (2017, 27 de octubre). Investigation: WannaCry cyber attack and the NHS. NAO Reports. Recuperado de https://www.nao.org.uk/reports/investigation-wannacry-cyber-attack-andthe-nhs/  

• NIST. (s.f.). AI Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology. Recuperado de  https://www.nist.gov/itl/ai-riskmanagement-framework

• Office of Personnel Management. (s.f.). Cybersecurity resource center. OPM. 
Recuperado de https://www.opm.gov/cybersecurity-resource-center/ 

•  ONU Panel de Expertos en Libia. (2021). Report S/2021/229. Naciones Unidas.

• Oratz, L., et al. (2024, 24 de abril). Generative AI in movies and TV: How the 2023 SAG-AFTRA and WGA contracts address generative AI. Perkins Coie Insights. Recuperado de https://perkinscoie.com/insights/blog/generative-aimovies-and-tv-how-2023-sag-aftra-and-wga-contracts-address-generative 

• Peng., et al. (2023, 13 de febrero). The Impact of AI on developer productivity: Evidence from GitHub Copilot. Arxiv. Recuperado de https://arxiv.org/pdf/2302.06590 

• Rundle, J. & Stupp, C. (2024, 2 de mayo). UnitedHealth Hack: What You Need to Know. The Wall Street Journal. Recuperado de https://www.wsj.com/articles/change-healthcare-hack-what-you-need-to
know-45efc28c

• Russell, S., et al. (2021, 16 de junio). Lethal Autonomous Weapons Exist; They Must Be Banned. IEEE Spectrum. Recuperado de https://spectrum.ieee.org/lethal-autonomous-weapons-exist-they-must-be
banned 

• SAG-AFTRA. (2023). TV-Theatrical Contracts 2023. Sag Aftra. Recuperado de 
https://www.sagaftra.org/sites/default/files/sa_documents/TV
Theatrical_23_Summary_Agreement_Final.pdf 

• SAN. (2025, 10 de julio). Video game actors end 11-month strike with new AI protections. SAN. Recuperado de https://san.com/cc/video-game-actors-end11-month-strike-with-new-ai-protections/ 

• Satish, C. (2024, 1 de abril). Microsoft Copilot for Security is now generally available. Microsoft Security Community. Recuperado de 
https://techcommunity.microsoft.com/blog/securitycopilotblog/microsoft
copilot-for-security-is-now-generally-available/4101223

• Simonite, T. (2020, 10 de noviembre). The US government will pay doctors to use AI algorithms. Wired. Recuperado de https://www.wired.com/story/usgovernment-pay-doctors-use-ai-algorithms/

• Smith, M. (2023, 17 de noviembre). This Leica camera stops deepfakes at the shutter. IEEE Spectrum. Recuperado de  https://spectrum.ieee.org/leicacamera-content-credentials

• Stenzel, W and Coggan, D. (2023, 10 de noviembre). The actors' strike is finally over 4 here's what's in the new SAG-AFTRA contract. Entertainment Weekly. Recuperado de https://ew.com/tv/actors-strike-over-whats-in-new-sag-aftracontract/

• Shawnee University. (2025, 21 de mayo). The Future of Creativity: Balancing Human Ingenuity and AI in Graphic Design. Shawnee University Blog. Recuperado de https://www.shawnee.edu/blog/balancing-human-ingenuityand-ai-with-graphic-design-degree 

• Swain, G. (2025, 11 de julio). AI coding tools can slow down seasoned developers by 19%. Info World. Recuperado de https://www.infoworld.com/article/4020931/ai-coding-tools-can-slow-downseasoned-developers-by-19.html 

• The Times of India. (2025, 2 de junio). Right time to use AI to digitise ancient manuscripts: Computer science professor in Bengaluru. The Times of India. Recuperado de https://timesofindia.indiatimes.com/city/bengaluru/righttime-to-use-ai-to-digitise-ancient-manuscripts-computer-science-professorin-bengaluru/articleshow/121554069.cms 

• The Times of India. (2025, 9 de junio). AI agents boost developer productivity. The Times of India. Recuperado de https://timesofindia.indiatimes.com/city/bengaluru/ai-agents-boostdeveloper-productivity/articleshow/121712411.cms 

• The Times of India. (2025, 11 de agosto). UAE Dubai now inviting AI experts and companies to collaborate on building AI-driven government services. The Times of India. Recuperado de  https://timesofindia.indiatimes.com/world/middle-east/uae-dubai-nowinviting-ai-experts-and-companies-to-collaborate-on-building-ai-drivengovernment-services/articleshow/123219542.cms     

• Turnbull, A. (2022, 24 de octubre). The New Breed: What our History with Animals Reveals About our Future. Osgoode Hall Law Journal, 59 (3). 
Recuperado de  https://digitalcommons.osgoode.yorku.ca/ohlj/vol59/iss3/10/

• Wight, J. (2020). The Battle for the Robot Soul. Philosophy Now, 139. 
Recuperado de https://philosophynow.org/issues/139/The_Battle_for_the_Robot_Soul   

• Wikipedia. (s.f.). Unimate. Wikipedia. Recuperado de https://en.wikipedia.org/wiki/Unimate 

• Wikimedia. (2019). Facebook3Cambridge Analytica data scandal. Wikipedia. Recuperado de 
https://en.wikipedia.org/wiki/Facebook%E2%80%93Cambridge_Analytica_data_scandal

• Woodall, B. & Menn, J. (2015, 24 de julio). Fiat Chrysler, U.S. to recall vehicles 
to prevent hacking. Reuters. Recuperado de https://www.reuters.com/article/us-fiat-chrysler-recall/fiat-chrysler-u-s-torecall-vehicles-to-prevent-hacking-idUSKCN0PY1U920150724/

• World Economic Forum. (2023, 30 de abril). The Future of Jobs Report 2023. We Forum. Recuperado de https://www.weforum.org/publications/the-futureof-jobs-report-2023/digest/ 

• Yam, K. C., et al. (2023, 29 de agosto). Cultural differences in people's reactions and applications of robots, algorithms, and artificial intelligence. Management and Organization Review, 19 (5). Recuperado de https://www.cambridge.org/core/journals/management-and-organization
review/article/cultural-differences-in-peoples-reactions-and-applications-ofrobots-algorithms-and-artificialintelligence/EE491FDF4C4773AB97D71C89545DF07C