loader image

SER

 

Por Jair Ramírez

Presidente de la Comisión de Inteligencia Artificial LATAM

SER es el primer pilar del tratado HUMANWARE.
(Actualización Mayo 2025)


Hace decenas de miles de años, un ser humano apoyó su mano contra la fría roca de una cueva y sopló pigmento para dibujar su silueta. Aquella mano pintada sobre la piedra, como las plantillas de palma halladas en cuevas españolas de más de 37,290 años de antigüedad, fue más que un simple acto de arte rupestre. Fue un mensaje al futuro, una declaración simbólica de existencia: “aquí estuvimos, esto somos”.


Estas primitivas pinturas rupestres representan una de las formas de comunicación más tempranas de la humanidad, anteriores incluso al surgimiento pleno del lenguaje. Su significado no radica solo en la imagen de la mano, sino en lo que implica: un salto al pensamiento abstracto y a la autoexpresión simbólica. De hecho, arqueólogos sugieren que esas marcas revelan pensamiento simbólico en nuestros ancestros; no era importante la destreza artística en sí, sino el hecho de que aquellos homínidos estaban comunicando ideas y conceptos intangibles, una señal temprana del desarrollo del lenguaje y la cognición avanzada. En otras palabras, desde el alba de nuestra especie, el humano ha sentido la necesidad de expresarse creativamente, de dejar huella.


Esa mano en la cueva es la primera huella del SER en la historia. Marca el inicio de un camino único de nuestra humanidad: el anhelo por trascender el instante presente y proyectarnos en símbolos, historias e invenciones que nos sobrevivan. A partir de ese momento, el arte y la creatividad se convirtieron en reflejos esenciales de nuestra esencia humana. Pintamos bisontes en las cavernas, cantamos alrededor del fuego, esculpimos dioses de piedra y más adelante levantamos catedrales, escribimos poemas, mandamos sondas al espacio y construimos mundos virtuales. Cada creación artística o cultural ha sido un espejo donde la humanidad se mira a sí misma y declara: “esto es lo que soy, esto es lo que siento y pienso”.



Introducción:



Vivimos en una era de transformaciones aceleradas, marcada por la irrupción de la inteligencia artificial (IA) en casi todos los ámbitos de la vida. Cada día surgen nuevas aplicaciones de IA que prometen beneficios, desde diagnósticos médicos más rápidos hasta automatización eficiente en el trabajo pero también generan inquietudes profundas. Estas tecnologías avanzan a un ritmo vertiginoso y, como advierte la UNESCO, “en ningún otro campo la brújula ética es más relevante que en la inteligencia artificial”, pues sin barandillas morales corremos el riesgo de reproducir prejuicios, agrandar brechas y amenazar derechos humanos fundamentales. Los algoritmos hoy pueden influir en lo que leemos, pensamos y decidimos, a tal grado que “parecen tener más poder que las personas”, preguntándonos “¿quién habla por nosotros en esta era?”.

Ejemplos recientes subrayan estos retos: en 2023, una imagen falsa generada por IA que mostraba una explosión en el Pentágono se volvió viral, provocando momentos de pánico e incluso impactando brevemente los mercados financieros antes de ser desmentida. Asimismo, investigaciones han revelado que los algoritmos de redes sociales, al priorizar contenido extremo para maximizar nuestra atención, pueden perjudicar seriamente la salud mental de los jóvenes, alimentando trastornos como la ansiedad, la depresión o desórdenes alimenticios.

Ante esta realidad, la humanidad se encuentra en una encrucijada: debemos decidir si dejaremos que el rumbo del futuro lo dicten únicamente las máquinas y las grandes corporaciones, o si tomaremos acción para asegurar que la tecnología se desarrolle con un profundo respeto por nuestra esencia humana.

En respuesta a esta disyuntiva, surge el tratado HUMANWARE , un acuerdo ético-evolutivo entre humanos e inteligencias artificiales con una visión sencilla pero poderosa: prepararnos para el amanecer de una nueva civilización híbrida.  Bajo esta luz, el tratado identifica nueve pilares originales y fundamentales para una convivencia ética con la IA, y coloca en la base de esta pirámide al pilar SER, reconociendo que es nuestra propia humanidad el cimiento sobre el cual debe edificarse todo avance tecnológico significativo.



El Pilar SER y el Tratado HUMANWARE.



El pilar SER representa al ser humano en su esencia, con su dignidad, valores, conciencia y capacidad de reflexión ética. Dentro del tratado HUMANWARE, este pilar ocupa el lugar fundamental y primario, ya que sostiene todos los demás principios. ¿Qué significa exactamente "SER" en este contexto? En términos sencillos, significa poner al ser humano al centro:  afirmar que antes que usuarios, datos o “recursos” somos personas con derechos, emociones, creatividad y responsabilidad. Este pilar propone que la tecnología debe desarrollarse y usarse de forma que potencie nuestras cualidades más humanas, en vez de suplantarlas o degradarlas. Así, el pilar SER abarca conceptos como la identidad y autenticidad  (preservar quiénes somos en la era digital, proteger nuestra privacidad e integridad), la conciencia y pensamiento crítico (entender cómo la IA influye en nosotros y tomar decisiones informadas), la ética y los valores humanos (incorporar la empatía, la justicia, la honestidad en nuestras interacciones con IA) y la salud mental y emocional (reconocer nuestros límites, evitar la dependencia insana de la tecnología y promover el bienestar). En esencia, SER nos recuerda que seguimos siendo humanos en un mundo cada vez más digital,  y que es esa humanidad la que debe guiar la evolución tecnológica.


Esta visión está intrínsecamente ligada con la filosofía de HUMANWARE: un tratado que, lejos de buscar frenar la innovación, aspira a evolucionar en armonía con la IA, garantizando que gobiernos, corporaciones, inteligencias artificiales y ciudadanos asuman corresponsabilidad ética en el rumbo que tome la tecnología. El pilar SER le da claridad y propósito a ese tratado, sirviendo como recordatorio constante de por qué importan los demás pilares. Sin SER, sin personas conscientes y comprometidas, los otros ejes éticos quedarían sin base sólida. De poco sirve hablar de transparencia algorítmica, inclusión, seguridad o sostenibilidad (elementos presentes en HUMANWARE) si olvidamos quiénes deben beneficiarse de todo ello: los seres humanos. Por eso, la dignidad humana es punto de partida innegociable.  No es casualidad que la UNESCO haya declarado que la protección de los derechos humanos y la dignidad humanas es la “piedra angular” de cualquier marco ético para la IA. En la misma línea, el tratado HUMANWARE, concebido desde organizaciones civiles como CONIA, reconoce que antes de hablar de softwares, datos o algoritmos, debemos fortalecer nuestro HUMANWARE, es decir, nuestra nueva construcción del ser humano. 


En un mundo donde todo puede imitarse —desde rostros hasta emociones, el pilar SER nos recuerda que no basta con parecer humanos: hay que elegir serlo. Este pilar no se trata de pensar más ni de sentir mejor, sino de mantener la integridad de lo que somos cuando las plataformas nos moldean, los algoritmos nos predicen y las métricas nos definen. SER es esa línea de defensa silenciosa que no se rinde ante la presión de aparentar, ni cede ante la comodidad de ser interpretado por una máquina. No es un concepto filosófico, es una práctica diaria: seguir siendo uno mismo aunque todo a tu alrededor quiera convertirte en otro. Es recordar que antes de cualquier estereotipo de una red social, de cualquier tendencia social, hay una persona real detrás de cada clic. 



¿Por qué el pilar SER es fundamental? 



SER es la base de la pirámide de los pilares de HUMANWARE, porque en medio del tsunami tecnológico actual, la prioridad del SER impide que la humanidad se diluya entre algoritmos.  La revolución digital nos confronta con un hecho inquietante: la posibilidad de “un mundo de ilusiones creado por una inteligencia ajena, que nos entiende pero que nosotros no entendemos”, lo cual representaría una forma de “esclavitud” de la que no podríamos escapar. Esta advertencia, planteada por pensadores contemporáneos como Yuval Noah Harari, subraya la urgencia de fortalecer la esencia humana frente a inteligencias artificiales cada vez más poderosas. Si dejamos que sean las máquinas las que definan la realidad sin una sociedad despierta, corremos el riesgo de perder nuestra libertad interior. El pilar SER se erige precisamente como esa ancla: nos recuerda que antes que consumidores, usuarios o datos, somos personas con dignidad y propósito, capaces de discernir y de ser aun cuando las pantallas intenten definirnos. 



Preservar la Verdad y la Autenticidad. 



La proliferación de deepfakes y contenidos generados por IA pone en jaque la noción misma de la realidad. Un caso emblemático ocurrió en Japón en marzo de 2021, cuando una influencer de motocicletas, aparentemente una joven carismática y aventurera, fue desenmascarada como un hombre de 50 años que utilizaba filtros y tecnología de edición facial para transformar radicalmente su identidad. Durante meses acumuló miles de seguidores en redes sociales, generando interacciones, patrocinios y confianza… todo basado en una versión digital que no existía. Cuando fue expuesto por un programa de televisión local, el escándalo no solo desató sorpresa, sino que puso sobre la mesa una pregunta urgente: ¿a quién seguimos en realidad, quiénes queremos ser? 

Este episodio no es un simple engaño anecdótico, es un síntoma de  una era donde la autenticidad puede ser fabricada con un clic.  El pilar SER nos recuerda que necesitamos ciudadanos capaces de navegar un entorno saturado de imágenes manipuladas, avatares ficticios y verdades diluidas. La tecnología no solo transforma lo que vemos: puede redibujar quién creemos que somos, en quién confiamos y hasta a qué aspiramos digitalmente. La Unión Europea , a través de su venidera Ley de IA (AI Act), define formalmente qué es un deepfake y exige que “cualquiera que despliegue un sistema de IA para generar contenido falso debe revelarlo claramente”, incluso incorporando marcas detectables en el audio, video o imagen artificial. Del mismo modo, países como China  han implementado regulaciones que obligan a etiquetar todo contenido generado por IA (incluyendo alteraciones de voz o rostro) y prohíben a proveedores no autorizados difundir noticias creadas por IA. Estas medidas legales reflejan un consenso creciente: la autenticidad y la transparencia son pilares indispensables en la era de la IA. Colocan al ser humano (receptor de la información) en el centro, protegiendo su derecho a no ser engañado y a conservar un contacto firme con la realidad. El pilar SER, en este sentido, se hace eco de esa defensa de la verdad: promueve la identidad real, la honestidad y la confianza como fundamentos de la interacción humano-IA.



Protección de la Dignidad, Derechos y Bienestar



El pilar SER también cobra relevancia por la necesidad de proteger la integridad y los derechos humanos frente a posibles abusos de la tecnología. Pensemos en la creciente preocupación por el uso de IA en la manipulación de rostros, voces o datos personales sin consentimiento. En 2024 y 2025, múltiples regiones han avanzado propuestas legales para salvaguardar a las personas de estos riesgos. Japón, por ejemplo, criminalizó el uso no consentido de imágenes íntimas falsas generadas con IA (lo que suele denominarse pornografía deepfake), reconociendo el daño a la personalidad y privacidad que tales prácticas conllevan.


En Estados Unidos, varios estados y el propio Congreso han propuesto leyes similares: la Ley No Fakes Act a nivel federal busca prohibir la creación y distribución de réplicas digitales de la voz o apariencia de alguien sin autorización, mientras que la ley estatal ELVIS Act en Tennessee apunta a proteger la imagen de personas (inspirada por casos de imitaciones digitales de celebridades). Incluso se ha aprobado la ley TAKE IT DOWN Act (mayo de 2025) que penaliza la difusión no consentida de deepfakes íntimos y obliga a removerlos rápidamente. Todas estas iniciativas legales tienen un trasfondo común: reafirmar la dignidad del ser humano en un contexto donde la tecnología podría vulnerarla. Establecen que el derecho al honor, a la propia imagen, a la privacidad y al bienestar emocional no deben ser sacrificados en aras de la innovación.


En otras palabras, las autoridades están dibujando líneas rojas éticas que la IA no debe cruzar, líneas fundamentadas en la inviolabilidad de la persona humana. El pilar SER articula precisamente esa prioridad: que la tecnología respete al ser humano en lugar de cosificarlo. A nivel global, también vemos esfuerzos no vinculantes pero influyentes en la misma dirección. La Recomendación sobre la Ética de la IA de UNESCO (adoptada por 193 países) declara que la protección de los derechos humanos y la dignidad humana es la piedra angular de la gobernanza de IA. Esto implica promover principios como equidad, no discriminación, consentimiento y control humano en los sistemas de IA. Nuevamente, es el reconocimiento de que el valor intrínseco de la persona debe ser el cimiento sobre el cual construir cualquier marco tecnológico.



Salud Mental y Autonomía en la Era Digital 
 


Otro fundamento actual del pilar SER es la creciente evidencia que el uso indiscriminado o poco consciente de la tecnología puede afectar nuestra psique, hábitos y decisiones, especialmente en poblaciones vulnerables. Un informe interdisciplinario publicado en 2023 puso de relieve cómo los algoritmos de redes sociales inundan a adolescentes con contenido extremo -por ejemplo, videos que glorifican trastornos alimenticios- llevando a un aumento en problemas de imagen corporal, estafas, desinformación, depresión, ideas extremistas e incluso temas suicidas en jóvenes.


Plataformas masivas, optimizadas para capturar nuestra atención a toda costa, han llegado a explotar sesgos cognitivos y a disparar adicciones digitales, a menudo sin que los usuarios (ni sus padres) se den cuenta plenamente. Este tipo de hallazgos ha motivado a autoridades sanitarias y educativas a tomar cartas en el asunto: por ejemplo, en Estados Unidos se han emitido guías oficiales alertando sobre los riesgos de las redes sociales en la salud mental juvenil, y estados como California aprobaron el Age-Appropriate Design Code para exigir configuraciones por defecto que protejan a menores en plataformas digitales.


¿Qué nos dice todo esto? Nos recuerda que el ser -nuestra mente, emociones y capacidad de autodeterminación- está en juego en la revolución tecnológica. Para que la IA realmente mejore la vida humana, debe empoderarnos en lugar de volvernos dependientes o lastimarnos. El pilar SER se erige entonces como guardián de nuestro bienestar interior: promueve el uso consciente y equilibrado de la tecnología, fomenta la alfabetización digital (saber cómo funcionan los algoritmos para no ser manipulados por ellos) y defiende nuestro derecho a desconectar cuando sea necesario. Iniciativas alrededor del mundo enfatizan este punto; sin ir más lejos, la Organización Mundial de la Salud y otros organismos han comenzado a hablar de la adicción a internet y la necesidad de higiene digital, conceptos plenamente alineados con la idea de cuidar el ser. Una humanidad psicológicamente sana y crítica podrá aprovechar la IA sin sucumbir a sus efectos nocivos. Por ello, SER es base: sin seres humanos mental y moralmente fuertes, cualquier sociedad hipertecnológica se tambalea. 


En suma, todos estos ejemplos confirman la enorme relevancia actual del pilar SER. La ética, la autenticidad, la dignidad, la salud mental -elementos que componen este pilar- se han convertido en preocupaciones centrales en las discusiones globales sobre IA. Reconocer al SER como base es reconocer que la conversación sobre el futuro tecnológico es, en el fondo, una conversación sobre nuestra humanidad. Los acontecimientos y normas recientes nos envían un mensaje inspirador: si logramos fortalecer nuestro SER (nuestros valores, nuestra esencia y nuestros derechos) podremos encauzar la inteligencia artificial hacia un futuro verdaderamente beneficioso y humanista.



¿Cómo llevar a la práctica el pilar SER?



Entender la importancia del pilar SER es solo el primer paso; el reto está en aterrizar estos principios en acciones concretas. Aquí es donde iniciativas como los Comités Nacionales de IA (CONIA) y sus mesas de trabajo cobran protagonismo. CONIA, a través de 77 mesas de trabajo distribuidas en seis áreas estratégicas (llamadas SINAPSIS), ha propuesto numerosas ideas y estrategias prácticas para fortalecer el pilar SER y los otros 8 pilares en la vida diaria, ya sea en la educación, en políticas públicas, en la industria y en la cultura social. A continuación, se destacan algunas de estas estrategias y propuestas, vinculándolas con la esencia del SER:



Educación y Cultura (SINAPSIS 1)



No se trata solo de enseñar tecnología, sino de formar personas que recuerden quiénes son en medio de ella. En este sentido, las mesas de trabajo de CONIA han diseñado estrategias pedagógicas que integran no solo la ética y el pensamiento crítico, sino también una pedagogía del autoconocimiento. Se plantean actividades que ayudan a niños y jóvenes a nombrar sus emociones, comprender sus decisiones y cultivar su identidad más allá de la pantalla. Por ejemplo, se promueve la creación de diarios del ser, donde los alumnos escriben sobre quiénes son cuando no están conectados, qué los hace únicos o cómo se sienten frente a lo que ven en internet. Se desarrollan talleres donde los estudiantes reflexionan sobre su huella digital como una extensión de sus valores y no como una máscara que deban mantener.


Así, el SER no se queda en lo abstracto: se transforma en una herramienta educativa que cultiva la autenticidad, la coherencia interior y el criterio personal frente a las influencias externas. Además, se capacita a docentes para que no solo integren la IA en el aula, sino que acompañen a sus alumnos en la formación del carácter. Se propone una enseñanza que equilibre tecnología con introspección, habilidades digitales con valores humanos. Para las familias, se ofrecen encuentros donde se discute cómo nutrir la identidad en casa: cómo crear rutinas de diálogo sin pantallas, cómo enseñar con el ejemplo que el valor de una persona no se mide por sus seguidores.


En el plano cultural, el pilar SER inspira festivales de expresión humana: desde recitales de poesía hasta laboratorios de arte digital donde lo importante no es la herramienta usada, sino la historia auténtica que se cuenta. También se fomentan campañas de reconexión offline, momentos de pausa para recordar que somos más que nuestro feed o avatar. De este modo, el pilar SER se convierte en una propuesta educativa integral: una forma de enseñar que ser humano no es una etapa superada por la inteligencia artificial, sino una fortaleza que debemos nutrir, defender y evolucionar desde la raíz: el aula, el hogar y la comunidad.


Una iniciativa particularmente vinculada al pilar SER es la organización de campañas desconexión digital y salud emocional -programas que invitan a estudiantes y familias a apagar las pantallas periódicamente, practicar la atención plena (mindfulness) y reflexionar sobre el equilibrio entre la vida online y offline-. En términos culturales, CONIA impulsa clubes de lectura, experiencias artísticas y eventos presenciales, sí, cara a cara, para reconstruir la conexión humana en la comunidad tech. Estas acciones en educación y cultura demuestran cómo el pilar SER sale del plano teórico para convertirse en prácticas cotidianas: clases, talleres, campañas y diálogos donde la ética, la empatía y la conciencia crítica son las protagonistas, enfocándonos en nuestro SER.  



Gobierno y Sociedad Civil (SINAPSIS 2) 



Aplicar el pilar SER en las políticas públicas y la vida cívica es reconocer que la dignidad no es un algoritmo, y la identidad humana no puede ser simplificada en un patrón de datos. En un mundo donde los sistemas automatizados están tomando decisiones sobre salud, educación, empleo o justicia, el gobierno y la sociedad civil tienen la responsabilidad de proteger la integridad del ser humano como valor no negociable. Por eso, CONIA propone programas de formación dirigidos a funcionarios públicos, legisladores, jueces, policías y servidores en general para que comprendan que gobernar con inteligencia artificial no es solo una cuestión de eficiencia, sino de principios: cómo garantizar que cada política pública respete la individualidad, la historia y la voz de las personas detrás de los datos.


No se trata únicamente de formar funcionarios en ética digital, sino de asegurar que ninguna persona -por su lengua, etnia, origen o nivel de conectividad- quede fuera del nuevo contrato tecnológico global. Se enseña a estos actores a leer más allá de la pantalla, a no deshumanizar decisiones por delegarlas a una interfaz, y a recordar que un ciudadano no es un expediente, sino una biografía viva. Desde la sociedad civil, el pilar SER impulsa movimientos para defender la autenticidad en diversos entornos. Desde esta perspectiva, integrar el pilar SER en la gobernanza y en la sociedad civil implica reconocer la pluralidad del ser humano como eje rector de toda política tecnológica. Esto incluye, de manera prioritaria, a comunidades indígenas como los wixárikas y zapotecas en México, los wayúu y emberá en Colombia, los guaraníes del Cono Sur, o los quechuas y aymaras en los Andes, y a quienes han sido históricamente marginados por los procesos de modernización y que hoy corren el riesgo de ser también excluidos de los ecosistemas digitales si no se toman medidas explícitas de inclusión. 


Se deben crear comités ciudadanos de identidad digital, donde activistas, tecnólogos y psicólogos trabajen juntos para prevenir la reducción del individuo a un dato, un perfil o un avatar. También organizar campañas públicas que promuevan el derecho a no ser categorizado por un algoritmo sin consentimiento o explicación. Un ejemplo relevante que ilustra la urgencia de este enfoque es el avance de proyectos como Worldcoin, una iniciativa global que ha comenzado a emitir "pasaportes de humanidad" mediante un escaneo de iris. El objetivo declarado: verificar que quien interactúa en plataformas digitales es un ser humano y no una IA. Aunque esta tecnología pretende ofrecer autenticidad y control de identidad en un mundo saturado de bots y deepfakes, también abre un debate profundo sobre la vigilancia biométrica, la centralización de datos sensibles y el riesgo de convertir la condición humana en un código de barras. ¿Estamos creando herramientas para protegernos o para controlar quién tiene acceso a la vida digital?


En respuesta a estos desafíos, CONIA propone la creación de observatorios ciudadanos de tecnologías públicas y privadas, donde se evalúe si los sistemas digitales respetan la individualidad, la privacidad y la integridad emocional de las personas según su contexto y comunidad. Estos espacios -compuestos por expertos en IA, legisladores y ciudadanos- auditarán algoritmos utilizados en trámites o programas gubernamentales de salud, educación o justicia, con el fin de evitar sesgos, discriminaciones o procesos deshumanizados. Paralelamente, mesas de trabajo como la de desarrollo de regulaciones éticas de IA ayudan a diseñar marcos normativos que reflejen el respeto a la dignidad humana. Un ejemplo concreto es la idea de un laboratorio ciudadano de simulación legislativa en IA, 
para anticipar el impacto de ciertas leyes o políticas tecnológicas antes de implementarlas. Esto abre espacios de diálogo democrático, encarnando la corresponsabilidad que el tratado HUMANWARE promueve.


En el plano de la sociedad civil, se impulsan campañas de rehumanización digital, jornadas de desintoxicación tecnológica, talleres de narrativa oral frente a pantallas, y plataformas de conocimiento que recuperan saberes ancestrales como parte del ecosistema digital. En comunidades como San Juan Cancuc (Chiapas), Uribia (La Guajira) o Cusco (Perú), estas acciones han sido adaptadas con pertinencia cultural y resultados significativos. El mensaje es claro: no puede haber ciudadanía digital plena si los pueblos originarios quedan relegados a ser meros receptores de tecnologías externas. El pilar SER exige construir entornos donde puedan ser también creadores, narradores y guardianes de su propia relación con la tecnología. Aplicar el pilar SER en la gobernanza y la sociedad civil es un acto de justicia intergeneracional y cultural: significa reconocer que la tecnología no debe borrar lo que somos, sino abrir espacios donde todos los rostros del ser humano -incluidos los más olvidados- tengan presencia, voz y respeto. 


En el ámbito más social, destaca una mesa enfocada en el análisis psicológico de las relaciones afectivas con IA. En ella se discuten casos ya reales, como personas que generan bots conversacionales de seres queridos fallecidos, o amistades forjadas con asistentes virtuales, y se evalúa el impacto emocional y ético de tales prácticas. Abordar estos temas sensibles con rigor y humanidad permite generar guías para la población: ¿qué consideraciones éticas y límites debemos tener al integrar IA en aspectos tan íntimos de la vida? Nuevamente, se trata de humanizar la tecnología, de aplicar empatía y sentido común ante situaciones novedosas. A través de estas mesas, el sector público y la sociedad civil van incorporando la perspectiva del SER en leyes, regulaciones, y también en movimientos ciudadanos que exigen cuentas a quienes diseñan y despliegan IA. 



Empresas y Trabajo (SINAPSIS 3)



El ámbito laboral y corporativo es otro frente indispensable para aterrizar el pilar SER, dado que muchas de las innovaciones de IA provienen de empresas y afectan al trabajo de millones. CONIA impulsa, por ejemplo, una certificación HUMANWARE para empresas responsables en el uso de IA. Esta certificación sería un sello ético otorgado a compañías que demuestren buenas prácticas: uso transparente de algoritmos, protección de datos de clientes, no reemplazar indiscriminadamente mano de obra humana sin estrategias de reubicación, ofrecer capacitación a sus empleados para colaborar con IA, etc. La existencia de tal certificación incentiva a las empresas a alinear sus productos y procesos con valores humanos, haciendo del SER un factor tangible de prestigio y confianza empresarial.


Otra mesa de trabajo se dedica a la empleabilidad y reinserción laboral en la era de IA, abordando cómo preparar a la fuerza laboral para los cambios tecnológicos. Esto incluye estrategias para re-capacitar o reubicar a trabajadores desplazados por automatización y ayudarlos a encontrar nuevos roles donde puedan aportar su creatividad y juicio humano 3capacidades insustituibles3. Todo esto refleja una comprensión profunda del pilar SER en la esfera productiva: significa ver a los empleados no como recursos reemplazables, sino como personas plenas cuya dignidad debe preservarse en la transformación digital.



Ciberseguridad y Tecnología (SINAPSIS 4)



El pilar SER, cuando se aplica a la ciberseguridad, ya no es una cuestión abstracta: es una defensa vital de lo que somos en un entorno donde nuestra identidad puede ser replicada, manipulada o vendida en segundos. En esta Sinapsis, CONIA impulsa mesas de trabajo enfocadas a proteger el rostro, la voz y los datos que nos definen. En 2025, uncaso en Florida dejó claro el peligro: una madre fue engañada por una llamada de auxilio con la voz clonada de su hija, generada por inteligencia artificial. No era real, pero sí lo fue el pánico, la transferencia de dinero, y el trauma emocional. Ese mismo año, se registraron robos de identidad con reconocimiento facial falsificado en España, deepfakes que evadieron controles biométricos en India, y algoritmos clonados que suplantaron ejecutivos de empresas para desviar fondos.


¿Qué tienen en común? La vulnerabilidad de nuestra existencia digital cuando no protegemos el SER con inteligencia, ética y acción. Aquí se trabajan protocolos y herramientas para detectar y frenar intentos de robo de identidad digital o fraude automatizado, de modo que las personas estén a salvo de engaños tecnológicos. Implementar el SER en este contexto significa que la seguridad de las personas es prioritaria: que nuestros datos, identidades e incluso rostros digitales deben resguardarse con el mismo celo con que resguardamos nuestra seguridad física. Este cúmulo de amenazas tiene un hilo conductor: la erosión de la confianza en nuestra identidad digital y en nuestra capacidad para reconocer lo real. La autenticidad de la persona queda vulnerada no solo por el ataque técnico, sino por la manipulación de su esencia.


Por lo anterior, también se promueve una cultura de privacidad para niños y adolescentes, enseñándoles desde pequeños a cuidar su información personal y a entender las consecuencias de compartir datos en línea. Esto es crucial en un tiempo donde nuestra huella digital puede perseguirnos de por vida; inculcar esos hábitos de privacidad es cuidar el SER de los futuros ciudadanos, para que tengan el control sobre su propia información y reputación. También debemos abordar el riesgo de los datos biométricos: huellas, rostros y patrones oculares… ¿quién asegura que esa información no será hackeada, vendida o manipulada por terceros? Cuando los datos que nos definen son irreversibles, como una huella o la voz, la única defensa es anticiparse y legislar con ética y transparencia.


Otra mesa trabaja en la evaluación del impacto social de los modelos de IA, una suerte de auditoría ética de algoritmos: se analizan sistemas de IA (por ejemplo, de reconocimiento facial o de calificación crediticia) para identificar posibles sesgos o efectos negativos en comunidades. Con esos hallazgos, se elaboran recomendaciones técnicas y éticas para mejorar dichos sistemas. Esta es una manera muy directa de aplicar el pilar SER: poner a prueba a la tecnología desde la perspectiva humana, y ajustarla para que sirva al bien común. En suma, las estrategias de ciberseguridad impulsadas por CONIA -desde la educación continua en ciberamenazas hasta simulacros de respuesta a ataques- garantizan que mientras la infraestructura digital se fortalece, también lo hacen las personas que la utilizan. Un mundo digital más seguro y ético es un mundo donde el SER está mejor protegido.


Viviremos en casas inteligentes donde una cafetera sabrá cuándo nos levantamos, una bocina responderá a nuestras emociones con música y las cámaras vigilan incluso cuando creemos estar a solas. Esta revolución del Internet de las Cosas (IoT) no solo transforma objetos en asistentes, sino que convierte cada gesto cotidiano en un dato. ¿Pero a qué costo? En 2022, una aspiradora robótica difundió imágenes privadas de una usuaria sin su consentimiento, alegando que formaba parte de un 
programa de entrenamiento de IA. El SER, en este contexto, se convierte en una defensa activa de nuestra intimidad, dignidad y derecho a la desconexión. No se trata de desconfiar de la tecnología, sino de formar ciudadanos capaces de configurarla con NEOCONSCIENCIA (pilar 2), exigir límites y saber cuándo apagarla. En un mundo donde los objetos escuchan más que las personas, el SER nos recuerda que tener el control no es saber encender, sino saber cuándo establecer límites.


Hoy llegan robots con forma, voz y presencia emocional. En Japón, Lovot consuela a personas solas; en Corea, bots cuidan a ancianos. Y aunque parezcan inofensivos, ¿qué haremos cuando estos asistentes se vuelvan parte de nuestra familia? ¿Tendrán derechos? ¿Cometerán errores que deban ser sancionados? En 2023, un robot rompió el dedo de un niño durante una partida de ajedrez en Moscú. ¿De quién fue la culpa: del robot, del programador, del niño, del algoritmo?


El Pilar SER no busca respuestas apresuradas, sino reflexiones profundas. Nos invita a anticipar y participar en estos dilemas, a crear reglas antes que la costumbre imponga las suyas. Nos pide que no confundamos compañía con conexión, obediencia con afecto, ni funcionalidad con humanidad. Los robots pueden ayudarnos, pero nunca deben reemplazar la complejidad de lo que somos. En Corea del Sur ya existen psicólogos de robots, encargados de entender los vínculos emocionales que las personas establecen con asistentes artificiales y evitar que estos reemplazos erosionen la empatía humana. Empresas como Replika o Gatebox reportan usuarios que desarrollan relaciones románticas con sus bots, lo que ha motivado la contratación de expertos en salud mental, ética y diseño emocional. Otros empleos emergentes vinculados al pilar SER incluyen moderadores éticos de algoritmos, auditores de IA con enfoque humano, e incluso consejeros digitales para adolescentes con adicción a entornos virtuales. Todos estos roles nacen de una premisa: la tecnología debe ser acompañada por seres humanos que sepan cuidar el equilibrio emocional, cognitivo y ético de los usuarios para priorizar la dignidad humana.



Entretenimiento y Comunicación (SINAPSIS 5)



Este eje quizás es el más cercano a la gente común, pues aborda cómo interactuamos con IA en contextos lúdicos, mediáticos y creativos. Hoy, millones de personas construyen una identidad más libre en espacios donde su cuerpo o contexto no los limita. En los mundos virtuales como World of Warcraft, conocimos casos como el de Ezra Chatterton, un niño con cáncer terminal que encontró en su 
personaje digital una forma de ser valiente, fuerte y admirado por miles. Allí, su discapacidad desaparecía, y su SER se manifestaba con plenitud. Esto plantea una pregunta clave: ¿es menos real lo que somos en el mundo digital si ahí sí logramos ser nosotros mismos?


El pilar SER defiende el derecho a que la identidad digital también sea digna, libre y protegida, especialmente para quienes encuentran en la virtualidad un espacio de expresión auténtica. Plataformas como Roblox anticipan el futuro emocional y social de la infancia: niñas y niños que se relacionan, juegan, comercian y aprenden con otros niños de países que quizás nunca visitarán en la vida real. Han surgido amistades reales, colaboración intercultural y creatividad desbordante. Pero 
también, casos preocupantes de grooming, manipulación y explotación económica. Por eso, el Pilar SER no es ajeno a la tecnología, sino que entra a esos mundos para ofrecer brújulas éticas: enseñar a los menores a cuidar su identidad, a diferenciar lo que se muestra de lo que se es, y a no perder de vista que su valía no depende de un avatar o una skin, sino de su historia y humanidad detrás de la pantalla.


Y más allá de las relaciones personales, incluso el arte y la experiencia estética han cruzado al terreno virtual. Asistimos a conciertos en plataformas como Fortnite, donde millones de personas comparten un momento musical desde distintos rincones del mundo. ¿Son menos reales nuestras emociones por haberlas sentido con unos audífonos y un avatar? El Pilar SER nos diría que no. Porque lo importante no es si lo digital es verdadero, sino si lo que sentimos al vivirlo es auténtico. En este 
sentido, las experiencias virtuales no deben suplantar la vida, pero sí pueden complementarla, ampliarla y sensibilizarnos. Si logramos que cada espacio -real o digital- sea un lugar donde el ser humano se exprese con dignidad, respeto y creatividad, entonces la tecnología no nos alejará de lo que somos.


Poner en práctica el pilar SER aquí supone fomentar un consumo mediático consciente y la creación responsable de contenidos con IA. Vivimos una era donde la visibilidad ha suplantado a la autenticidad. Las redes sociales se han convertido en escenarios donde millones de personas interpretan una versión editada, aspiracional y muchas veces ficticia de sí mismas. Se promueven estilos de vida inalcanzables, cuerpos retocados, éxitos instantáneos y relaciones perfectas que no existen fuera del encuadre. En este teatro digital, el ser ha sido reemplazado por el parecer. Como advirtió Heidegger, corremos el riesgo de caer en la inautenticidad: vivir según el uno impersonal, dejándonos llevar por lo que se espera de nosotros, más que por lo que verdaderamente somos. El Pilar SER propone un antídoto contra esa ilusión: reconectar con nuestra esencia más allá del like, del filtro o del algoritmo. En palabras de Erich Fromm, debemos pasar del tener al ser: dejar de construir identidad en función de lo que mostramos o acumulamos y comenzar a habitar con honestidad quienes somos, incluso con nuestras fallas, incertidumbres y contradicciones. No se trata de rechazar la tecnología, sino de usarla con propósito: publicar menos para impresionar y más para compartir; consumir menos apariencias y más contenido que nos nutra. Volver al SER es un acto de rebeldía frente a la tiranía de la apariencia.


Las consecuencias de esta cultura de la falsedad son alarmantes: trastornos de salud mental, baja autoestima, ansiedad social, comparaciones destructivas y una epidemia silenciosa de soledad en medio de miles de seguidores. Como señaló Byung-Chul Han, hemos pasado de una sociedad disciplinaria a una sociedad del rendimiento, donde cada quien se explota a sí mismo para gustar, para brillar, para ser visto. Pero el SER no se mide en vistas ni en engagement. Se mide en coherencia, en conexión interior, en libertad para ser sin tener que actuar. 
 

Por eso, el Pilar SER, en tiempos de sobreexposición digital, debe enseñarse como una pedagogía del coraje y la vulnerabilidad. Como proponía Zygmunt Bauman, en una sociedad líquida donde todo cambia rápido y se disuelve, el desafío es construir un SER sólido. No una marca personal, sino una persona con valores personales. No una vida para mostrar, sino una vida para vivir. Y en ese sentido, el Pilar SER no es una nostalgia por lo offline, sino una invitación a reconquistar la autenticidad humana en medio del ruido de lo artificial. Para todo lo anterior se plantean mesas dedicadas a campañas de concientización sobre la IA, los temas anteriores y su relevancia con el pilar SER, las cuales difundirán mensajes claros a la ciudadanía: un público bien informado podrá tomar mejores decisiones (no caer tan fácilmente en tendencias engañosas o dañinas, sesgos informativos o noticias falsas generadas por IA). 
  
"La verdad no es lo que vemos, sino desde dónde lo miramos"

Esta frase, inspirada por el pensamiento de Immanuel Kant, resume el dilema central del pilar SER en un mundo donde los medios, las redes sociales y los algoritmos moldean nuestra percepción de la realidad. Kant sostenía que no vemos las cosas como son, sino como somos nosotros. En ese sentido, el SER está íntimamente ligado a la verdad, no como algo objetivo y universal, sino como una construcción profundamente influida por nuestras experiencias, emociones, y -cada vez más-por el flujo algorítmico de la información. La verdad se ha vuelto programable, ajustada al perfil de cada usuario, curada por algoritmos que priorizan lo viral sobre lo veraz. Esto ha llevado a fenómenos como las cámaras de eco, donde solo vemos lo que confirma nuestras creencias, o la personalización excesiva que borra puntos de vista contrarios. Así, no solo consumimos información, somos consumidos por ella. ¿Dónde queda el SER en este contexto? ¿Cómo se forma una identidad auténtica si lo que vemos está prefiltrado para complacernos o manipularnos?


El pilar SER responde con una invitación clara: volver a habitar la verdad, reconociendo nuestra vulnerabilidad ante la manipulación informativa. Desde CONIA, se plantean campañas educativas y éticas que promuevan la alfabetización mediática, el pensamiento crítico y la verificación de fuentes, desde edad escolar hasta niveles profesionales. Iniciativas como las mesas de medios y contenidos certificados buscan que periodistas, canales de YouTube, TikTok, Instagram, influencers y otras plataformas se adhieran a códigos éticos que prioricen la verdad sobre la monetización de la mentira. Al final, SER es elegir conscientemente cómo nos informamos, qué valores sostenemos y a qué verdades les damos espacio en nuestra vida. En tiempos donde la apariencia vale más que la esencia, defender la verdad es defendernos a nosotros mismos.

¿Qué nos hace verdaderamente humanos cuando las máquinas también pueden crear? Esta pregunta se volvió urgente cuando, en 2023, miles de guionistas de Hollywood se declararon en huelga. El motivo: la creciente inclusión de modelos de inteligencia artificial como ChatGPT en los procesos de escritura de guiones, borradores de escenas e ideas creativas. Detrás de esta protesta no solo había una exigencia laboral, había una defensa del SER: del esfuerzo humano, de la chispa irrepetible que da origen a una historia, de la voz propia que no puede ser sustituida por un modelo predictivo entrenado con los textos de miles de otros autores. En la historia del arte, cada nueva herramienta ha generado miedo… y luego maravilla. Desde el uso de la cámara fotográfica hasta los sintetizadores musicales, la creatividad humana ha demostrado una y otra vez su capacidad de adaptarse, reinterpretar y renacer. Hoy, la inteligencia artificial representa un nuevo lienzo, una nueva paleta de sonidos, formas y palabras. Pero su valor -como con cualquier herramienta- depende del alma que la utiliza. Por eso, el pilar SER no nos pide rechazar la IA, sino preguntarnos: ¿cómo usarla para expandir nuestra esencia, sin borrarla?


El pilar SER encuentra una de sus expresiones más poderosas en la co-creación consciente entre humanos e inteligencias artificiales. Artistas como Timbaland, uno de los productores más influyentes del hip hop y R&B, han abierto la puerta a esta colaboración al experimentar con plataformas como SUNO, una IA generadora de música que le permitió crear una canción a partir de una simple entrevista con una rapera. No se trató de imitación, sino de expansión creativa: usar la tecnología para amplificar una voz, no para reemplazarla. Así como Timbaland, artistas como Grimes, quien liberó su voz para que cualquiera pudiera usarla con IA bajo ciertas licencias éticas, y Holly Herndon, que entrenó una versión digital de sí misma (Herndon AI) para explorar nuevos territorios musicales, están demostrando que la IA puede ser una extensión del alma creativa, no una amenaza. Paul Trillo, quien creó un cortometraje experimental donde la IA generó fondos visuales a partir de guiones poéticos, sin perder jamás el hilo narrativo humano. Aquí, la tecnología se vuelve pincel, pero la intención sigue siendo humana.


Plataformas de IA permiten hoy en día generar una imagen estilo Ghibli con un solo prompt. Pero, aunque se puede imitar la técnica, nunca se podrá copiar la esencia del SER que reside en sus historias: esa sensibilidad que Hayao Miyazaki vertía en cada personaje, la profundidad emocional de sus guiones o la filosofía que sostiene su universo narrativo. Este fenómeno ha abierto debates éticos profundos sobre los derechos de autor, la apropiación digital no consentida y el verdadero valor del arte. 
 

¿Es válido utilizar el estilo de un maestro sin comprender su visión? ¿Qué dice eso de nuestra forma de SER en esta era de creación acelerada? El pilar SER nos recuerda que no basta con generar imágenes bellas o resultados eficientes: necesitamos intencionalidad, respeto y autenticidad. Por eso, movimientos culturales, artistas y mesas dentro de CONIA están proponiendo protocolos de uso ético de estilos artísticos, protección para autores visuales y campañas para enseñar a las nuevas 
generaciones que la creación no es solo el resultado, sino el camino. Replicar un estilo no es crear. La tecnología puede ofrecernos herramientas formidables, pero es nuestra NEOCONSCIENCIA (pilar 2) la que decide cómo y para qué se usan. Y ahí, en esa decisión, se manifiesta el SER: cuando defendemos la autoría como una forma de respeto, porque la creatividad auténtica no nace del algoritmo, sino de la emoción, el conflicto, la historia personal y el deseo de comunicar algo profundamente humano. Cuando la IA se convierte en un espejo que refleja lo que llevamos dentro -en lugar de una máscara que oculta quiénes somos- entonces estamos usando la tecnología con NEOCONSCIENCIA (pilar 2), respeto y belleza. Esa es la esencia de expresión del SER.


El pilar SER nos lleva a repensar la dignidad del proceso creativo en esta nueva era. No se trata de rechazar la tecnología, sino de integrarla desde una ética que reconozca y proteja la individualidad humana, así como su autoría. Porque detrás de cada canción, guion o pintura hay una historia de vida, una emoción, un momento específico que ninguna IA puede experimentar. Por eso, CONIA impulsa mesas de trabajo sobre derechos de autor en la era digital, auditorías éticas a plataformas generativas y marcos legales internacionales que contemplen la identidad del creador como una extensión sagrada de su SER.


Finalmente, incluso en el ocio se piensa en el bienestar: se organizan experiencias de reconexión emocional sin pantallas -quizá festivales o retiros donde las personas dejan sus dispositivos y se enfocan en la interacción cara a cara, recordando el valor de la presencia humana-. Puede sonar curioso en un contexto de IA, pero es totalmente pertinente: el pilar SER nos dice que, para abrazar saludablemente la tecnología, a veces debemos también saber soltarla y fortalecer nuestros lazos humanos directos (un tema que se aborda mucho más extensamente en el pilar SENSIVERSO). Todas estas acciones en comunicación y entretenimiento buscan moldear una cultura donde la tecnología y la humanidad coexistan en equilibrio, sin que una atropelle a la otra.



Ciencia y Futuro Sostenible (SINAPSIS 6)



En este frente, se lleva el pilar SER a las discusiones de vanguardia científica y la planificación de largo plazo. La reflexión no se limita al presente, sino que anticipa las tensiones, avances y dilemas de un mundo hiperconectado. Uno de los ejemplos más potentes es el caso de Deepfold, la inteligencia artificial capaz de predecir estructuras de proteínas con precisión revolucionaria. Esta tecnología abre puertas médicas impensables, pero también plantea interrogantes éticos: ¿seguiremos siendo humanos cuando podamos editar nuestra biología a voluntad? ¿Cómo garantizar que tales avances no desdibujen la esencia del SER, sino que la fortalezcan?


El Internet de las Cosas también nos desafía. Con sensores en refrigeradores, cámaras inteligentes en casa y relojes que monitorean nuestras emociones, surge una pregunta urgente: ¿quiénes somos cuando todo está siendo registrado? ¿Qué tan libre es un SER cuya vida cotidiana depende de dispositivos que le anticipan, le controlan o incluso le sustituyen? Esta mesa de trabajo analiza cómo preservar nuestra autonomía y dignidad en un entorno donde el hogar, el cuerpo y hasta nuestras emociones se vuelven parte de una nube de datos.



Y si mañana decides borrar tus redes sociales… ¿dejarías de SER? En una época donde muchas identidades solo existen en línea, esta pregunta no es menor. Por ello, se han desarrollado mesas sobre desintoxicación digital y talleres de desaparición voluntaria online, donde se explora cómo restaurar el equilibrio entre el SER físico y el SER virtual. Estudios como el de la Universidad de Bath (2022) revelan que el 43% de los jóvenes experimentan ansiedad si pasan más de cuatro horas desconectados, pero también que quienes logran desconectarse reportan mejoras en el sueño, concentración y autoestima. Desaparecer un tiempo del mundo digital es, paradójicamente, una forma de reencontrarse con uno mismo. La mesa de simulacros de ausencia digital incluso entrena a comunidades para sobrevivir sin apps, redes o inteligencia artificial, recordando nuestras capacidades innatas: orientarnos sin GPS, conversar sin emojis, investigar sin Google. Recuperar estos saberes también es preservar el SER.


En el umbral del biohacking, el pilar del SER se enfrenta a su interrogante más radical: ¿seguimos siendo humanos cuando modificamos nuestra biología a voluntad o cuando nuestra conciencia puede migrar a un sistema artificial? Con herramientas como CRISPR-Cas9, ya no hablamos solo de prevenir enfermedades, sino de diseñar capacidades físicas, cognitivas y estéticas. Hoy existen bebés nacidos con genes editados, cerdos con ADN humano compatibles para trasplantes y voluntarios que implantan chips bajo la piel para ampliar sus sentidos. Pero si podemos alterar nuestro ADN, mejorar nuestros músculos, reemplazar órganos por prótesis inteligentes o cargar nuestra memoria en un servidor… ¿dónde queda la esencia del SER? ¿Es el cuerpo lo que nos define, la conciencia o la experiencia vivida? Este pilar exige que incluso en la frontera más avanzada de la ciencia, conservemos una brújula ética. Porque si algún día podemos transferir nuestra mente a un robot, crear avatares con emociones o mezclar ADN humano con sintético, tendremos que preguntarnos no solo si eso es posible, sino si eso aún es humano. El SER no puede medirse por la perfección técnica ni por la durabilidad del cuerpo, sino por la dignidad, la libertad y la capacidad de sentir. En esa compleja transición entre carne, código y NEOCONSCIENCIA (pilar 2), el pilar SER se convierte en el último recordatorio que, más allá de lo que podemos crear, debemos saber quiénes elegimos seguir siendo


Un aporte práctico es la mesa de evaluación ética de nuevos modelos de lenguaje e IA emergentes. Con los rápidos avances (piénsese en sistemas cada vez más autónomos o en IA que se auto-mejora), es vital que expertos evalúen proactivamente los dilemas que podrían surgir: ¿qué pasa si una IA de generación de texto empieza a producir discursos de odio? ¿O si un sistema de conducción autónoma debe decidir ante un accidente inevitable?


También dentro de esta SINAPSIS hay una mesa de trabajo enfocada en meditación, salud mental y desconexión digital dentro del pilar de SENSIVERSO (pilar 7), lo que subraya que incluso en la prospectiva futura, el equilibrio interior del ser humano sigue siendo prioridad. Finalmente, la mesa de escenarios futuros y convivencia humano-IA invita a filósofos, tecnólogos y ciudadanos a imaginar cómo será la relación con inteligencias artificiales en 10, 20 o 50 años: ¿nos trataremos como colaboradores, socios, o habrá tensiones? ¿Qué valores deberán prevalecer para mantener una convivencia pacífica? Plantear estas visiones con anticipación ayuda a trazar planes de acción hoy, siempre poniendo como faro la preservación de lo humano. En síntesis, el área de ciencia y futuro sostenible se asegura de que el pilar SER no quede fuera de la conversación técnica, sino que esté en la mesa cada vez que se discute la siguiente gran innovación. La ciencia guiada por conciencia es la 
senda que propone HUMANWARE.


Como vemos, las mesas de trabajo de CONIA están traduciendo el pilar SER en iniciativas tangibles en todos los sectores: educación, gobierno, industria, seguridad digital, cultura y ciencia. Es un abordaje holístico que reconoce que la tarea de humanizar la tecnología es responsabilidad de todos y en todas partes. Estas estrategias no solo son aspiracionales, sino factibles y algunas ya están en marcha como proyectos piloto. Lo inspirador es que nacen de la colaboración entre expertos multidisciplinarios y ciudadanos preocupados, demostrando que no hace falta esperar pasivamente leyes desde arriba; la sociedad civil puede organizarse para infundir ética y humanidad en la revolución digital.


El pilar SER se lleva a la práctica cuando:

• Un maestro enseña a sus alumnos a pensar antes de compartir una tendencia en redes. 
• Un desarrollador incluye filtros para evitar sesgos en su programa. 
• Un legislador consulta a psicólogos antes de regular el uso de IA en juguetes para niños. 
• Un padre de familia establece en casa momentos libres de pantalla para conversar en persona.


Son pequeñas y grandes acciones guiadas por un mismo principio: recordar nuestro SER en cada interacción con la tecnología. 
 


Conclusiones
 


El recorrido por la situación actual, la definición del pilar SER, la evidencia de su necesidad y las estrategias para implementarlo nos conduce a una conclusión potente y esperanzadora: sí es posible lograr que la era de la inteligencia artificial tenga un rostro humano. Para ello, el pilar SER debe consolidarse no solo como un concepto filosófico, sino como una práctica cotidiana y una política transversal. Cuando decimos que el pilar SER es la base de la pirámide HUMANWARE, no lo hacemos para dejarlo en un plano teórico ideal, sino para enfatizar que toda iniciativa tecnológica debe iniciar y terminar pensando en el ser humano. Esto implica un cambio de paradigma: pasar de una innovación centrada en lo que la tecnología puede hacer, a una innovación centrada en lo que la tecnología debe hacer por nosotros.


La visión inspiradora que emerge es la de un humanismo digital renovado. Imaginemos un futuro cercano donde cada nuevo algoritmo es evaluado por su impacto social antes de lanzarse; donde cada niño aprende no solo a usar las IAs, sino también a ser empático y crítico en un mundo con máquinas inteligentes; donde las empresas compiten no solo en eficiencia, sino también con responsabilidad y 
ética; donde desconectarse un rato se valora tanto como estar conectado y donde los avances en IA van de la mano con avances en nuestra conciencia colectiva. En ese futuro, la tecnología sería verdaderamente una extensión de nuestros mejores atributos, y no una amenaza a ellos. Esa es, en esencia, la promesa del pilar SER. 


Llevar a la práctica este pilar no significa oponerse al desarrollo tecnológico, sino orientarlo. Es lograr que las leyes, las instituciones, las escuelas y los mercados incorporen esa pregunta por el ser= en cada decisión. Es también un llamado personal: cada individuo, en su relación diaria con la tecnología, puede aplicar el pilar SER al preguntarse ¿Esto qué hago con la IA respeta mi dignidad y la de otros? "¿Me ayuda a crecer como persona? ¿Estoy consciente de sus efectos?". Si la respuesta es no, el pilar SER nos inspira a buscar alternativas más humanas.


Por supuesto, no es un camino libre de obstáculos. Requiere perseverancia, diálogo continuo y, sobre todo, convicción compartida. Pero hoy más que nunca contamos con bases para el optimismo: nunca antes ha habido tanta conversación global sobre la ética en la tecnología; nunca tantos jóvenes se habían mostrado interesados por el impacto social de la ciencia; nunca tantas naciones y organizaciones se habían puesto de acuerdo en principios para domar la IA (desde el G20 hasta foros de la sociedad civil). El tratado HUMANWARE y esfuerzos como CONIA son fruto de esa creciente conciencia. Nos indican que el mundo está despertando al desafío: o ponemos al ser humano al centro, o arriesgamos nuestra propia esencia en el proceso.


En conclusión, el pilar SER no se queda en el plano filosófico estricto porque lo estamos haciendo vida aquí y ahora. Cada política de IA basada en derechos humanos, cada campaña contra la desinformación, cada curso de ética digital, cada espacio de reflexión sobre nuestra relación con las máquinas, son manifestaciones del SER en acción. Como base de la pirámide, este pilar sostiene todo lo demás: un edificio ético-tecnológico que aspira a ser robusto y elevado. Construyámoslo, entonces, ladrillo a ladrillo, con nuestras acciones diarias y colectivas. Así nos aseguraremos que, por muy sofisticadas que se vuelvan las inteligencias artificiales, la humanidad de las personas seguirá siendo el software más valioso. El futuro no puede ser escrito solo por máquinas; lo escribiremos nosotros, con alma y tecnología unidas, honrando siempre al SER que nos hace humanamente únicos.


Ya lo advertía el filósofo Immanuel Kant en el siglo XVIII: procede de modo que trates a la humanidad, tanto en tu persona como en la de los demás, siempre como un fin en sí mismo y nunca como un medio=. En la era de la IA, este imperativo moral cobra un sentido renovado. Se trata de recordar, cada vez que interactuamos con algoritmos y automatismos, aquello que nos hace irremplazables: nuestra NEOCONSCIENCIA (pilar 2), nuestra empatía, nuestra creatividad, nuestra capacidad de elegir el bien. Como señala el historiador Yuval Noah Harari, corremos el riesgo de convertirnos en animales hackeables si no regulamos la IA adecuadamente - es decir, que otros nos conozcan y manipulen mejor de lo que nos conocemos a nosotros mismos.


Frente a tal posibilidad, el pilar SER reivindica la soberanía interior: nos incita a dominar la tecnología antes que ella nos domine a nosotros. Y como expresa el científico Max Tegmark, mi esperanza con la IA no es que cree una nueva especie mejorada sin los desórdenes de la humanidad, sino que nos ayude a los humanos ordinarios y falibles a vivir nuestras mejores y más felices vidas. Ese es el ideal: una simbiosis virtuosa en la que la IA potencie lo mejor del SER humano, en lugar de 
diluirlo. Lograrlo es el gran desafío y la gran promesa de nuestro tiempo.



Bibliografía 



• Abené, C. (2023, mayo 22). Fake AI-generated image of explosion near Pentagon spreads on social media. The Guardian. Recuperado de https://www.theguardian.com/technology/2023/may/22/pentagon-ai
generated-image-explosion 

• American Federation of Teachers, American Psychological Association, Design It For Us, Fairplay, & ParentsTogether. (2023).
 Likes vs. learning: The real cost of social media for schools. American Federation of Teachers. Recuperado de https://www.aft.org/sites/default/files/media/documents/2023/LikesVSLearning_Report.pdf

• California Legislative Information. (2022, septiembre 15). The California AgeAppropriate Design Code Act. California Legislative Information. Recuperado 
de https://leginfo.legislature.ca.gov/faces/billCompareClient.xhtml?bill_id=2021
20220AB2273&showamends=false

• CBS News. (2021, octubre 29). Yuval Harari warns humans will be hacked if artificial intelligence is not globally regulated. CBS News. Recuperado de https://www.cbsnews.com/news/yuval-harari-sapiens-60-minutes-2021-1029/ 

• Comisión Europea, Dirección General de Redes de Comunicación, Contenido y Tecnologías. (2021, abril 21). Propuesta de reglamento sobre inteligencia artificial (Ley de IA). European Union. Recuperado de https://eurlex.europa.eu/legal-content/ES/ALL/?uri=CELEX:52021PC0206 

•  Costello, N., Kimball, E., Beller, E., et al. (2023, julio). Algorithms, addiction, and adolescent mental health: An interdisciplinary study to inform state-level policy action to protect youth from the dangers of social media. American Journal of Law & Medicine, 49 (2-3), 135-172. Recuperado de 
https://pubmed.ncbi.nlm.nih.gov/38344782/ 

• Estado de Tennessee. (2024, marzo 21). Lee signs ELVIS Act into law. TN Office of The Governor. Recuperado de https://www.tn.gov/governor/news/2024/3/21/photos--gov--lee-signs-elvis
act-into-law.html

• Interesse, G. (2022, diciembre 20). China to regulate deep synthesis (deep fake) technology starting January 2023. China Briefing. Recuperado de https://www.china-briefing.com/news/china-to-regulate-deep-synthesisdeep-fake-technology-starting-january-2023/

• Kant, I. (1946). Fundamentación de la metafísica de las costumbres. Espasa Calpe. 

• Regan, G. (2025, junio 18). The state of deepfake regulations in 2025: What businesses need to know. Reality Defender. Recuperado de https://www.realitydefender.com/insights/the-state-of-deepfake-regulationsin-2025-what-businesses-need-to-know 

• Tegmark, M. (2018). Life 3.0: Being human in the age of artificial intelligence. Penguin Random House Grupo Editorial España.

• UNESCO. (2023, agosto 30). Recomendación sobre la ética de la inteligencia artificial. UNESCO. Recuperado de https://www.unesco.org/es/articles/recomendacion-sobre-la-etica-de-la
inteligencia-artificial 

• U.S. Congress. (2025, abril 28). TAKE IT DOWN Act. Congress.gov. Recuperado 
de https://www.congress.gov/bill/119th-congress/house-bill/633/text 

• Weule, G. (2018, febrero 22). World's oldest-known rock art created by Neanderthals, not modern humans. ABC Science. Recuperado de https://www.abc.net.au/news/science/2018-02-23/how-to-paint-like-a
neanderthal/9466162

• Zahn, M. (2024, julio 24). I love you, robo-dad=: Meet a family using AI to preserve loved ones after death. ABC News. Recuperado de https://abcnews.go.com/Business/love-robo-dad-meet-family-ai-preserveloved/story?id=111756468