Ir al contenido
Descripción
- Programa formativo para incorporar la Inteligencia Artificial de forma responsable, transparente y alineada con valores, normativa y buenas prácticas, reduciendo riesgos reputacionales, legales y operativos.
- Enfoque práctico: identificación de riesgos (sesgos, discriminación, privacidad, propiedad intelectual, seguridad), diseño de controles (políticas, checklists, trazabilidad), verificación de resultados y gobierno de IA en equipos y organización.
- Pensada para perfiles de negocio, RR. HH., IT, producto, compliance y liderazgo: lenguaje claro, criterios accionables y herramientas aplicables desde el primer día.
- Incluye preparación y acceso a la certificación IA Ethics / IA Ética de EuropeanScrum.org.
2) Objetivos de la formación
- Comprender los principales riesgos éticos de la IA y cómo se manifiestan en la práctica:
- sesgos y discriminación
- alucinaciones y errores
- privacidad y tratamiento de datos personales
- propiedad intelectual y uso de contenido
- seguridad, fuga de información y abuso
- opacidad (“caja negra”) y falta de trazabilidad
- Aprender a implantar un marco de uso responsable:
- políticas mínimas por rol/área
- criterios de datos permitidos/no permitidos
- verificación y revisión humana obligatoria
- trazabilidad y documentación de decisiones
- Diseñar controles y “guardrails” para casos de uso reales:
- checklists de calidad y sesgo
- evaluaciones de riesgo por impacto
- mecanismos de escalado y aprobación
- Construir un plan de adopción y gobierno:
- quick wins en 2–4 semanas
- plan ampliado 6–12 semanas
- métricas y cadencias de revisión
3) Dirigido a
- Dirección y mandos con responsabilidad sobre adopción de IA
- Compliance, Legal, Riesgos y Seguridad de la Información
- RR. HH. y People Ops (procesos sensibles a sesgos)
- IT / Ciberseguridad / Data
- Producto, innovación, marketing y operaciones (uso intensivo de IA)
- Equipos que necesitan definir políticas internas y estándares de uso
4) Formato y modalidades
- Duración (a elegir):
- 8 horas (intensivo): riesgos clave + marco mínimo de control + toolkit base
- 16 horas (completo): profundidad, diseño de políticas y gobierno + plan ampliado y casos
- Convocatoria:
- En abierto (plazas por convocatoria)
- In-company (adaptada a sector, normativa interna y casos de uso del cliente)
- Formato de asistencia:
- Presencial
- OnLive (en directo)
- Bonificable / subvencionable:
- Subvencionable por FUNDAE (Tripartita) para empresas (según requisitos y tramitación aplicable)
5) Contenido (módulos detallados)
- M1. Ética aplicada a IA: marco y conceptos (sin teoría vacía)
- Qué entendemos por IA responsable
- Impactos típicos en personas, negocio y sociedad
- Principios prácticos:
- justicia/no discriminación
- transparencia y explicabilidad
- privacidad y minimización de datos
- seguridad
- accountability (responsables claros)
- M2. Riesgos reales en IA generativa (y cómo detectarlos)
- Sesgos:
- ejemplos típicos por dominio (HR, marketing, soporte, finanzas)
- cómo se cuelan en prompts, datos y decisiones
- Alucinaciones y errores:
- por qué ocurren
- cómo diseñar verificación y “fuentes”
- Privacidad y datos:
- exposición accidental de datos personales o confidenciales
- anonimización y abstracción
- Propiedad intelectual:
- uso de contenido de terceros
- derechos, atribución y riesgos
- Seguridad:
- prompt injection y manipulación de asistentes
- fugas de información y malas configuraciones
- M3. Cumplimiento y gobernanza (visión práctica)
- Roles y responsabilidades:
- quién decide, quién valida, quién opera
- Políticas internas mínimas:
- datos permitidos/no permitidos
- usos autorizados y no autorizados
- requisitos de revisión humana
- Trazabilidad:
- registro de prompts/outputs (cuando aplique)
- evidencias para auditoría ligera
- Gestión de proveedores y herramientas:
- criterios de evaluación (seguridad, datos, almacenamiento)
- M4. Controles y guardrails (lo que realmente funciona)
- Checklists por tipo de salida:
- documentos
- comunicaciones
- soporte a decisiones
- procesos sensibles (HR, compliance, finanzas)
- Validación:
- separar hechos, inferencias e hipótesis
- pedir fuentes y referencias internas
- pruebas en entornos controlados
- Human-in-the-loop:
- puntos de aprobación
- criterios para escalar
- Diseño de “prompts seguros”:
- restricciones explícitas
- formato de salida
- límites y advertencias
- M5. IA en procesos sensibles (casos y decisiones)
- HR:
- sesgos en selección y evaluación
- lenguaje y criterios neutrales
- Atención al cliente:
- alucinaciones en respuestas
- tono, consistencia y escalado
- Marketing y comunicación:
- claims, reputación y compliance
- Dirección:
- decisiones basadas en outputs no verificados
- Cómo diseñar controles específicos por proceso
- M6. Evaluación de riesgos y priorización de casos de uso
- Matriz riesgo/impacto/viabilidad
- Clasificación por severidad:
- Qué casos de uso habilitar primero (quick wins seguros)
- Qué casos requieren:
- aprobación adicional
- entornos corporativos
- más trazabilidad y controles
- M7. Cultura y adopción responsable
- Cómo formar a equipos sin generar miedo ni “barra libre”
- Buenas prácticas de comunicación interna:
- qué se permite
- cómo se verifica
- cuándo escalar
- Comunidad de práctica y mejora continua de políticas
- M8. Plan de implantación y revisión (operativo)
- Plan 2–4 semanas:
- política mínima
- checklists
- repositorio de prompts/plantillas
- quick wins de bajo riesgo
- Plan 6–12 semanas:
- gobierno por áreas
- métricas y auditoría ligera
- revisión y actualización de políticas
- Cadencias:
- comité de IA (si aplica)
- revisión trimestral de riesgos y usos
6) Distribución por duración (8h vs 16h)
- Versión 8 horas (intensivo)
- M1 marco y principios aplicados
- M2 riesgos reales (sesgos, errores, privacidad, IP, seguridad)
- M4 guardrails y checklists (toolkit base)
- M6 evaluación de riesgo y priorización de casos
- M8 plan de implantación 2–4 semanas
- Cierre: preparación certificación
- Versión 16 horas (completo)
- Todo lo anterior, con profundidad en:
- M3 gobernanza y roles (modelo operativo)
- M5 procesos sensibles y controles específicos
- M7 cultura y adopción
- M8 plan 6–12 semanas + métricas y cadencias
- taller integrador con casos reales del cliente
7) Metodología
- Formación estructurada + práctica guiada
- Talleres y dinámicas:
- identificación de riesgos por caso de uso
- diseño de política mínima (datos y usos)
- creación de checklists por tipo de salida
- redacción de prompts seguros con restricciones
- simulación de fallos (sesgo/alucinación) y diseño de controles
- roadmap 30-60-90 días (o 2–4 / 6–12 semanas) y cadencias de revisión
- En in-company:
- adaptación a normativa interna, sector y herramientas utilizadas
8) Certificación incluida
- Incluye preparación y acceso a la certificación IA Ética (EuropeanScrum.org).
- Repaso final y recomendaciones de estudio alineadas con el examen.
9) Entregables
- Toolkit IA Ética:
- plantilla de política mínima de uso (datos/roles/usos)
- matriz de evaluación de riesgo (impacto/viabilidad/severidad)
- checklists de verificación:
- sesgos y neutralidad
- evidencia y fuentes
- privacidad y datos personales
- propiedad intelectual
- seguridad (prompt injection, fugas)
- guías de prompts seguros (restricciones y formato)
- modelo de trazabilidad y auditoría ligera (qué registrar y cómo)
- Plan de adopción:
- quick wins 2–4 semanas + plan ampliado 6–12 semanas
- cadencias de revisión y métricas sugeridas
- Material de apoyo para certificación
10) Bonificación / FUNDAE (Tripartita)
- Formación bonificable por FUNDAE (Tripartita) para empresas, según requisitos y tramitación aplicable.