Manifiesto personal y profesional sobre la ética en el uso de la inteligencia artificial

Tecnología e inteligencia artificial aplicada a la gestión de microempresas

Este manifiesto nace desde la conciencia. Desde el convencimiento profundo de que la ética no se impone, se practica.

Lo expongo por compromiso personal, como mujer, como madre, como profesional y como consultora que implanta proyectos de inteligencia artificial en organizaciones.

Vivimos un momento en el que la IA ha dejado de ser una promesa futura para convertirse en una herramienta cotidiana. Pero también en un momento en el que el mundo ya está regulando su uso; normas como el EU AI Act europeo ya aplica obligaciones concretas, ISO/IEC 42001 establece el primer estándar internacional para gestionar sistemas de IA de forma responsable, y la Recomendación de UNESCO sobre Ética de la IA marca el marco global desde 2021.

El acceso a la tecnología no equivale a un uso consciente de ella. Y la existencia de normativa no garantiza que se entienda ni se aplique.

Por eso este manifiesto no es solo una declaración personal. Es mi forma de hacer visible lo que creo, lo que practico y el estándar al que me comprometo; empezando por mí misma.

¿Cuál es mi posición?

La IA no está aquí para pensar por nosotros; está para ampliar nuestras capacidades, no para anularlas.

En primer lugar, como ciudadana y madre, me preocupa profundamente el uso de la IA por parte de niños y jóvenes donde el consumo acrítico de contenidos generados por algoritmos, la exposición a datos manipulados, la falta de educación digital crítica merma la capacidad de pensar, de discernir y analizar, cediendo espacios a la inmediatez sin filtro.

Como profesional y consultora, observo también con preocupación cómo la IA está invadiendo espacios de pensamiento, reemplazando la reflexión por rapidez, la estrategia por automatismo, el criterio por dependencia.

La tecnología necesita guía humana, orientación con valores y un propósito definido; sin eso, el acceso se convierte en ruido y la adopción en riesgo.

Por eso mi posición es clara en el sentido de que toda implantación de IA, en una empresa, en un aula o en un hogar, requiere supervisión humana. No como preferencia personal, sino como principio de gestión responsable, que es lo que establece ISO/IEC 42001 en sus controles, lo que exige el EU AI Act en sus obligaciones de transparencia y lo que la Recomendación de UNESCO sitúa como pilar fundacional de la ética en IA.

La IA es una herramienta; el criterio es nuestro y no debería delegarse.

¿Cómo practico esta ética?

La ética no es solo una declaración; se practica cada día, en decisiones concretas.

En mi trabajo como consultora, esto significa revisar críticamente cualquier contenido cocreado con IA antes de compartirlo o implementarlo, ser transparente sobre cuándo y cómo utilizo IA en mis procesos, y dedicar tiempo a pensar antes de delegar una tarea a la tecnología. 

No todo lo que la IA puede hacer debe hacerse, y no todo lo que genera es válido sin filtro humano.

Cuando se trata de contenido de terceros, aplico un filtro básico que se basa en hacerme estas preguntas: quién creó esto, con qué propósito, qué datos lo alimentan y qué perspectivas faltan. 

Solo después de esa validación el contenido se convierte en fuente de valor real.

En los proyectos de implantación de IA que diseño y acompaño, este compromiso se traduce en prácticas concretas al evaluar los riesgos e impactos de cada sistema de IA antes de recomendarlo, asegurar que exista supervisión humana en los procesos donde la IA participa en la toma de decisiones, y trabajar con las organizaciones para que construyan su propia gobernanza de IA, alineada con estándares internacionales como ISO/IEC 42001 y con la regulación aplicable a su sector y geografía.

No se trata de frenar la adopción; se trata de que la adopción tenga estructura, criterio y responsabilidad detrás.

Mi compromiso con la alfabetización en IA

La adopción masiva de la IA sin formación crítica es uno de los riesgos más silenciosos que enfrentamos como sociedad. No se trata solo de saber usar herramientas, sino de entender qué hacen, qué limitaciones tienen y qué consecuencias generan las decisiones que tomamos con ellas o que delegamos en ellas.

En el ámbito de la formación, promuevo constantemente el pensamiento analítico y crítico en el uso de la IA, trabajando los conceptos de cocreación y colaboración como parte de un sistema integral humano-IA. Esto no es opcional ni es un complemento; el propio EU AI Act establece la alfabetización en IA como una obligación vigente desde febrero de 2025, lo que confirma que el mundo ya reconoce que sin comprensión no hay uso responsable.

Mi compromiso va más allá de la formación técnica: acompaño a profesionales y equipos a desarrollar criterio propio frente a la IA, a cuestionar los resultados antes de adoptarlos y a construir una relación con la tecnología donde el pensamiento humano siga siendo el centro de las decisiones.

¿Por qué este manifiesto?

Este manifiesto no pretende ser un documento cerrado ni una lección para nadie. Es una elección consciente de usar la IA desde la ética, la responsabilidad y el pensamiento crítico; y de acompañar a otros a hacer lo mismo.

Creo en una inteligencia artificial al servicio de la inteligencia humana, en la tecnología como herramienta y no como atajo, y en que quienes tenemos voz e influencia en entornos consultivos, educativos o de liderazgo debemos ser los primeros en practicar lo que promovemos.

Si lideras una organización, un equipo o un proyecto donde la IA ya está presente o está por llegar, la pregunta no es si adoptarla, sino cómo hacerlo con estructura, con criterio y con responsabilidad. Ese es exactamente el espacio donde trabajo y donde este manifiesto cobra sentido práctico.