Logo in Spanish

25 junio 2025

La estadística como brújula ética y técnica en la era de la IA

Otra mirada sobre estadística e inteligencia artificial

Un llamado a reinventar la formación profesional

Dr. Hugo Oscar Ambrosi 
hambrosi@gmail.com


En mi anterior columna describí cómo la IA está transformando la estadística, hoy debo ser más contundente: la estadística no es una disciplina en evolución, sino la piedra angular que evitará que la inteligencia artificial derribe los cimientos de la ciencia basada en evidencia. Y este cambio de paradigma exige una revolución en la formación de los profesionales de datos. 


 1. La ilusión de la automatización total: Por qué la IA no sustituye al estadístico 

He visto cómo empresas y universidades caen en la trampa de pensar que "un algoritmo puede reemplazar el criterio humano". Grave error. 

- Los modelos de IA son máquinas de correlación, no de causalidad: Sin el ojo estadístico, confundimos “patrones” con “verdades” (ej.: algoritmos que vinculan código postal con crédito bancario, perpetuando exclusión). 

- El mito de "datos in, solución out": La IA no pregunta por qué los datos tienen sesgos, ni cómo afectan a poblaciones vulnerables. Ese es nuestro campo de batalla. 


 2. El nuevo perfil del estadístico: Mucho más que un programador con fórmulas 

La formación actual falla al reducir la ciencia de datos a "saber Python + machine learning". Urge integrar tres pilares: 



Competencia técnica

Competencia crítica

Competencia contextual

Aprendizaje automático con fundamentos matemáticos

Auditoría de sesgos algorítmicos (ej.: justicia predictiva)

Comprensión socioeconómica del dato (ej.: ¿qué significa "ingreso promedio" en una favela?)

Diseño experimental robusto

Ética aplicada a algoritmos (GDPR, regulaciones)

Comunicación clara de incertidumbres a no expertos

Estadística bayesiana para cuantificar incertidumbre

Rechazo a modelos "caja negra"

Colaboración interdisciplinar (medicina, políticas públicas, etc.)




"Un científico de datos que solo sabe ajustar modelos es como un cirujano que solo maneja el bisturí: técnicamente hábil, pero peligrosamente incompleto" 



 3. Caso práctico: Cuando la estadística salvó vidas (y la IA casi las pierde) 

En 2024, un hospital implementó un modelo de IA para priorizar pacientes en UCI. Los resultados fueron catastróficos: el 30% de adultos mayores fueron sistemáticamente sub priorizados. ¿La razón? El algoritmo aprendió que "sobrevivían menos" sin considerar causalidades (comorbilidades, acceso tardío a salud). 

  • Solución estadística: Un equipo interdisciplinar (médicos + estadísticos) rediseñó el modelo: 

  •   Incorporaron análisis de supervivencia (métodos de Kaplan-Meier). 

  •   Ajustaron variables con regresión logística causal, no correlacional. 

  • Resultado: Reducción del 40% en errores de triage. 


---


 4. Cómo debe transformarse la formación profesional: 3 exigencias irrenunciables 

Las universidades y bootcamps deben dejar de vender "cursos de data science en 6 meses". Propongo: 


1. Tronco común estadístico-ético: 

   - Asignaturas obligatorias en Ética de Datos y Legislación Digital, con casos reales (ej.: uso perverso de datos en elecciones). 

   - Cursos avanzados de Inferencia Causal (no solo predictiva). 


2. Prácticas en entornos de alto impacto social: 

   - Colaboraciones con hospitales, gobiernos locales y ONGs, donde los errores tienen rostro humano. 


3. Certificación profesional vinculante: 

   - ¡Basta de "expertos en IA" sin fundamentos estadísticos! Abogo por un colegio profesional que acredite competencias técnicas y éticas. 


Conclusión: No formemos técnicos, formemos guardianes del rigor científico 

La inteligencia artificial es la herramienta más poderosa jamás creada. Pero sin estadísticos que entiendan su alma matemática, su impacto social y sus límites morales, será un arma de doble filo. 

Exijamos planes de estudio donde la estadística no sea una asignatura, sino el ADN de una nueva generación de científicos de datos: técnicamente brillantes, éticamente inflexibles y socialmente comprometidos. 


¿Coincides? Te invito a debatir en redes bajo #EstadísticaConAlma. 


PD: Si eres educador o estudiante, comparte este artículo. La reforma educativa en ciencia de datos no puede esperar.


El núcleo irreemplazable de la ciencia de datos


 La estadística en la era de la IA: El núcleo irreemplazable de la ciencia de datos 

Dr Hugo Oscar Ambrosi 

hambrosi@gmail.com


La revolución de la inteligencia artificial no es el fin de la estadística: es su renacimiento como disciplina estratégica. Mientras los algoritmos de aprendizaje profundo devoran datos, surge una verdad incómoda: sin estadísticos con formación integral, la IA genera conclusiones peligrosas. Hoy más que nunca, la ciencia de datos exige profesionales que entiendan lo que ocurre tras el código.

 Los tres pilares no negociables en la formación del estadístico moderno: 

 1. Profundidad matemática + Pensamiento algorítmico 

Ya no basta con dominar distribuciones o intervalos de confianza. El estadístico del siglo XXI debe: 

- Desmontar la "caja negra" de los modelos de deep learning (regularización, funciones de pérdida, sesgo-varianza). 

- Dominar la inferencia causal en modelos no paramétricos: ¿Por qué el algoritmo toma esa decisión? 

- Entender el trade-off entre complejidad computacional y validez estadística. 


> Ejemplo real: Cuando un modelo de crédito bancario rechaza al 68% de mujeres (Amazon, 2023), solo un estadístico con formación sólida detecta que el sesgo está en la interacción de variables ocultas. 


 2. Ética algorítmica: La nueva asignatura troncal 

La formación profesional debe incluir cursos obligatorios en: 

- Sesgo estructural: Cómo los datos históricos perpetúan discriminación (salud, justicia, empleo). 

- Auditoría de modelos: Técnicas para cuantificar impactos sociales (ej.: métricas de fairness). 

- Gobernanza de datos: Cumplimiento normativo (Ley IA de la UE, LPD en Argentina). 


 3. Comunicación estratégica: Traducir el caos en decisiones 

El nuevo perfil exige habilidades híbridas: 

- Visualización de incertidumbre en modelos estocásticos. 

- Storytelling con datos para no expertos (CEO, políticos, ciudadanos). 

- Gestión de expectativas: Explicar que "IA no es adivinar el futuro, es gestionar riesgos". 


 Urgencia educativa: Lo que las universidades deben cambiar YA 

Formación tradicional

Formación necesaria (2025+)

Énfasis en teoría asintótica      

Simulación masiva (Bootstrapping en Big Data)

Software estadístico clásico (SPSS, R básico)

Entornos MLops (MLflow, TensorFlow Ethics)

Casos de prueba con datos limpios

Datos reales con sesgos estructurales

Electivas técnicas aisladas        

Cursos transdisciplinares: IA + Sociología + Derecho


 Conclusión: El estadístico como centinela científico 

La inteligencia artificial nos obliga a un rediseño radical de la formación profesional. No se trata de añadir "un curso de Python", sino de construir un nuevo perfil de científico de datos con alma estadística: profesionales que combinen el rigor de la matemática con la conciencia crítica para evitar que los algoritmos decidan por nosotros. 


La estadística ya no es solo números: es el último bastión entre la tecnología y la humanidad. Exijamos planes de estudio que reflejen esa responsabilidad. 


"Los datos son el nuevo petróleo, pero sin estadísticos somos una civilización prendiendo fuego a su propio océano". 


Cómo transformar los programas académicos para formar estadísticos en la era de la IA

Cómo transformar los programas académicos

Dr Hugo Oscar Ambrosi 

hambrosi@gmail.com

La actualización de los planes de estudio en estadística y ciencia de datos no puede ser superficial: requiere un rediseño estructural que integre matemática avanzada, ética algorítmica y habilidades computacionales. Aquí, un plan de acción concreto para universidades y centros de formación: 


---


 1. Reestructuración curricular: De lo teórico a lo aplicado con impacto real 

 A. Núcleo duro reforzado 

- Matemática avanzada aplicada: 

  - Cursos en optimización estocástica (clave para entender gradient descent en redes neuronales). 

  - Teoría de grafos aplicada a análisis de redes sociales y recomendación algorítmica. 

- Estadística bayesiana moderna: 

  - Modelos jerárquicos para datos masivos (ej.: inferencia en cadenas de Markov - MCMC). 

  - Aprendizaje automático probabilístico (Pyro, Edward) en lugar de estadística clásica desconectada. 


 B. Talleres obligatorios de IA interpretable 

  - "Cómo auditar un modelo de random forest": Métricas de equidad (fairness), SHAP values. 

  - "Datos sucios en la vida real": Casos de data drift (ej.: modelos COVID que fallaron por cambios abruptos). 


 C. Ética y gobernanza como eje transversal 

  - Asignatura: "Sesgos algorítmicos en América Latina" (ej.: discriminación en créditos bancarios por código postal). 

  - Clínicas de datos: Colaboración con ONGs o gobiernos para auditar modelos en uso real. 


---


 2. Metodologías de enseñanza: Aprender haciendo (con riesgos controlados) 

- Reemplazar exámenes teóricos por proyectos de impacto: 

  - Ejemplo: "Diseña un modelo de predicción de deserción escolar para el Ministerio de Educación, documentando sesgos potenciales". 

- Simulaciones de crisis de datos: 

  - Ejercicio tipo NBER: "Tu modelo de IA para asignar becas excluyó a poblaciones rurales. ¿Cómo lo solucionas en 72 horas?". 

- Clases espejo con ingenieros y sociólogos: 

  - Taller conjunto: Estadísticos explican incertidumbre a programadores; abogados enseñan regulación de IA (Ley Europea, LPD argentina). 


---


 3. Alianzas estratégicas con la industria y el Estado 


Sector      

Colaboración propuesta                       

Beneficio para estudiantes                         

Empresas de IA (Ej.: Mercado Libre, Globant)

Pasantías en equipos de ML Ethics

Acceso a datos reales con desafíos éticos

Gobiernos    

Proyectos con datos abiertos (ej.: INDEC, ministerios)

Experiencia en políticas públicas basadas en evidencia | 

ONGs         

Auditorías de algoritmos sociales (ej.: discriminación en IA judicial)

Aprendizaje con impacto social

-


 4. Herramientas y tecnologías no negociables 

- Stack mínimo de dominio: 

  - Python (PyMC3, Scikit-learn) + R (Tidyverse para ETL ético). 

  - Plataformas de MLops (MLflow, Kubeflow) para gestionar ciclo de vida de modelos. 

  - Visualización dinámica (Streamlit, Plotly) para comunicar incertidumbre. 

- Laboratorios con infraestructura real: 

  - Ejemplo: Cluster de GPU para simular entrenamiento de modelos a escala (y sus dilemas energéticos). 


 5. Mecanismos de evaluación continua 

- Certificaciones micro: 

  - Badge en "Interpretabilidad de Modelos" (examen con caso de black-box models). 

  - Credencial en "Ética en IA" (aprobada por el Colegio de Estadísticos). 

- Portafolio público obligatorio: 

  - Cada estudiante debe publicar 3 análisis de datos con código abierto y documentación de sesgos. 


---


 Conclusión: Un llamado a la acción 

La transformación no es optativa. Las universidades que no actualicen sus programas en 3 años formarán obsoletos. Los pasos concretos: 


1. 2025: Introducir cursos híbridos (estadística + derecho digital + Python avanzado). 

2. 2026: Exigir pasantías en equipos de IA con supervisión ética. 

3. 2027: Graduación condicionada a un proyecto de IA con auditoría pública. 


> "El futuro no necesita más técnicos que ejecuten código, sino estadísticos que cuestionen si ese código debería existir." 


¿Tu institución está lista? Comparte este plan con decanos y docentes. La estadística del mañana se define hoy. 


14 junio 2025

Estadística puede salvar a la democracia

La democracia, en su esencia, es un sistema dinámico que prospera sobre la base de un debate robusto y una participación informada. Sin embargo, en la era contemporánea, a menudo nos encontramos con un panorama en el que el diálogo público se ha visto erosionado, dando paso a una retórica polarizante y a la difusión de información sin el debido rigor. En este contexto, surge una necesidad imperante: la de integrar la estadística como un pilar fundamental en la construcción de una democracia sana y resiliente.


El desarrollo de una democracia que verdaderamente sirva a sus ciudadanos depende críticamente de la calidad de su debate. Una democracia así, es aquella en la cual la discusión no se limita a la mera retórica verbal, a la vehemencia de las opiniones o al atractivo superficial de las consignas, sino que profundiza en la sustancia de los argumentos. Es una democracia que se beneficia inmensamente de las oportunidades que ofrece la estadística para fortalecer el razonamiento público, para nutrir la capacidad de discernimiento colectivo y para fundamentar decisiones en la realidad tangible y no en la especulación o el prejuicio.


La estadística, en este sentido, no es solo una disciplina académica; es una herramienta democratizadora. Permite que las afirmaciones sean verificadas, las políticas evaluadas y las narrativas contrastadas con datos concretos. Al hacerlo, eleva el nivel del discurso público, transformándolo de un intercambio de narrativas individuales a una construcción colectiva de conocimiento. Cuando la información y su tratamiento bajo las reglas de la estadística se convierten en el eje del debate, se abre la puerta a una comprensión más profunda de los desafíos que enfrentamos como sociedad y a la identificación de soluciones más efectivas y equitativas.


Lamentablemente, el debate público actual padece de una serie de Vicios Sintéticos, que lo alejan de este ideal. Observamos con preocupación cómo la preferencia se inclina hacia posiciones infundadas, construidas sobre débiles cimientos de autoridad no cuestionada o de anécdotas aisladas que, por muy conmovedoras que sean, adolecen de representatividad. Esta tendencia es perniciosa. Cuando el argumento de autoridad, sin el respaldo de evidencia empírica, o la fuerza de una historia personal se anteponen a la rigurosidad de los datos que ofrece la experiencia colectiva y sistemáticamente analizada, se debilita la capacidad de la ciudadanía para participar de forma efectiva en la toma de decisiones informadas. Se genera una brecha entre la percepción y la realidad, cultivando un terreno fértil para la desinformación y la polarización.


Es fundamental señalar los defectos presentes en la forma en que debatimos hoy. Lejos de ser un espacio para el intercambio constructivo de ideas y la búsqueda de la verdad, a menudo se convierte en un escenario donde prevalece el volumen sobre la razón, la emoción sobre la evidencia. Este patrón de debate, que prioriza la resonancia emocional o la lealtad partidista sobre la veracidad de los hechos, nos priva de la capacidad de abordar los problemas complejos con la seriedad y el pragmatismo que exigen. Se fomenta una cultura donde la convicción personal o la adhesión a un grupo son suficientes para validar una postura, sin necesidad de someterla al escrutinio de los hechos.


La aversión o el desinterés por el uso de los datos en el discurso público no solo es una cuestión de metodología, sino también de cultura cívica. Hemos presenciado cómo se trivializan los estudios científicos, se descalifican las encuestas por motivos ideológicos y se desdeña el análisis estadístico en favor de la intuición o la experiencia personal incomprobable. Esta preferencia por lo subjetivo sobre lo objetivo, por lo anecdotal sobre lo sistemático, es un síntoma de un problema más profundo: la erosión de la confianza en las instituciones que generan conocimiento y la desvalorización del pensamiento crítico. Cuando la estadística es vista con recelo, o lo que es peor, manipulada, se socava la misma base sobre la que se construye una sociedad basada en el conocimiento y la razón.


La solución a estos desafíos no es sencilla, pero es clara: debemos revalorizar y reaprender el uso de la estadística en el corazón de nuestro debate público. Esto implica una educación cívica que promueva la alfabetización numérica y estadística desde etapas tempranas, capacitando a los ciudadanos para interpretar gráficos, entender márgenes de error y discernir entre correlación y causalidad. Implica también un compromiso por parte de los líderes de opinión, políticos y medios de comunicación para basar sus argumentos en datos verificables y presentar la información de manera transparente y ética. La responsabilidad recae en todos nosotros: en los productores de información, para ser rigurosos; en los divulgadores, para ser claros y honestos; y en los receptores, para ser críticos y demandantes de evidencia.


La adopción de un enfoque basado en datos no significa eliminar el componente humano o emocional del debate, sino más bien anclarlo en una realidad compartida. Las políticas públicas afectan vidas; las decisiones económicas tienen repercusiones palpables. La estadística nos permite cuantificar esas repercusiones, entender su magnitud y sus patrones, y así, diseñar intervenciones más justas y eficientes. Nos proporciona el lenguaje para describir la sociedad en su complejidad, para identificar desigualdades, para medir el progreso y para reconocer dónde fallamos. Es la brújula que nos puede guiar a través de la densa niebla de la desinformación y hacia un terreno de decisiones más fundamentadas y un consenso más genuino.


En última instancia, la incorporación de la estadística en el debate democrático no es solo una cuestión de rigor intelectual; es una cuestión de fortalecimiento de la propia democracia. Una democracia que se nutre de la información es una democracia más robusta, más equitativa y más capaz de responder a las necesidades de su gente. Al demandar y utilizar datos, al alejarnos de los Vicios Sintéticos de la retórica vacía y las anécdotas engañosas, y al abrazar el poder de la información y su análisis sistemático, podemos aspirar a un futuro donde el debate público sea un verdadero motor de progreso y no una fuente de división y confusión. Es tiempo de reivindicar el valor de la estadística para construir una esfera pública donde la razón y la evidencia iluminen el camino, conduciéndonos hacia soluciones compartidas y un futuro más informado para todos.

El enorme legado de Student

William Sealy Gosset (Student)

13/06/1876 - 16/10/1936


¡Qué fascinante es observar cómo ciertas figuras y momentos históricos marcan un antes y un después en nuestra forma de entender el mundo! Hoy quiero compartir una reflexión sobre la profunda transformación que la estadística ha experimentado y cómo su evolución ha moldeado, de manera comprensiva y precisa, nuestra capacidad para tomar decisiones y pensar críticamente.


Retrocedamos a 1908, un año que podría parecer distante, pero que vio nacer un cambio paradigmático gracias al trabajo de un hombre extraordinario: William Sealy Gosset, mejor conocido por su seudónimo, 'Student'. Trabajar en la cervecería Guinness le presentó un reto particular: cómo hacer inferencias válidas a partir de muestras pequeñas, algo que los métodos estadísticos de la época no resolvían adecuadamente. Su genialidad no solo radicó en identificar este vacío, sino en desarrollar soluciones prácticas que revolucionarían el campo.


Gosset introdujo la distribución "t de Student", una herramienta que, en manos de un investigador hoy en día, parece tan fundamental como un martillo para un carpintero. Pero en su momento, fue una verdadera revelación. Permitió a los científicos y a los ingenieros tomar decisiones que hoy en día conocemos como 'inferencia estadística sólida', a trabajar con la incertidumbre inherente a los datos de una muestra y de esa manera  aprender. Su capacidad, por ejemplo de determinar nuevas y diversas formas para las muestras, especialmente cuando estas son de tamaño reducido, ha sido el principal baluarte en este caso para evitar lo que hoy en día se conoce como 'vicios sintéticos' en la interpretación de los datos, garantizando conclusiones más fiables y menos propensas a la manipulación o al error.


Este avance no fue meramente técnico; representó un cambio de mentalidad. Antes de Student, el análisis de datos a menudo se basaba en intuiciones o en la recolección masiva de observaciones, que eran costosas y poco prácticas. Su trabajo democratizó, de cierto modo, la capacidad de extraer conocimiento significativo, permitiendo que la experimentación fuera más accesible y sus resultados, más robustos. Sentó las bases para que se pudiera confiar en la ciencia de los datos, ya que su propósito era y es tomar mejores decisiones basadas siempre en la experiencia de esos datos.


La influencia de Gosset se extendió mucho más allá de la industria cervecera. Sus ideas fueron adoptadas y expandidas por gigantes como Ronald Fisher, quien cimentó la estadística moderna tal como la conocemos hoy. Para él el trabajo de Student representó una Revolución lógica de enorme alcance. Desde el diseño de experimentos en agricultura hasta los ensayos clínicos en medicina, la metodología de Student se convirtió en un pilar indispensable para la investigación empírica. Su enfoque nos enseñó a abrazar la variabilidad, a cuantificar la incertidumbre y, en última instancia, a tomar decisiones más informadas y, sí, más comprensivas, al entender mejor las necesidades y los límites de la evidencia.


Pero, ¿por qué es tan relevante esto hoy, en la era de la inteligencia artificial y el Big Data? Porque los principios que Gosset articuló son los cimientos sobre los cuales se construye la 'ciencia de datos'. Aunque ahora manejamos volúmenes de información inimaginables para él, la esencia sigue siendo la misma: extraer patrones significativos, hacer predicciones y tomar decisiones basadas en evidencia. La capacidad de discernir entre la señal y el ruido, de evitar los 'vicios sintéticos' que surgen de interpretaciones descuidadas o modelos defectuosos, es tan crucial hoy como lo fue hace más de un siglo.


Gosset nos legó no solo una fórmula, sino una filosofía: la de la humildad ante los datos, la de la rigurosidad en el análisis y la de la búsqueda incesante de la verdad subyacente. En un mundo inundado de información, donde la desinformación puede proliferar, comprender los fundamentos de la inferencia estadística es más vital que nunca. Nos permite cuestionar, validar y construir conocimiento que realmente aporte valor, evitando caer en la trampa de conclusiones superficiales o erróneas.


Su legado nos recuerda que detrás de cada algoritmo complejo, de cada modelo predictivo, hay principios estadísticos que, con precisión, nos guían hacia una comprensión más profunda de la realidad. La próxima vez que veamos un informe basado en datos, quizás podamos apreciar la larga y fascinante historia que hay detrás de la capacidad de extraer conocimiento significativo, una historia que, de muchas maneras, comenzó con un cervecero llamado Student.


#Estadística #CienciaDeDatos #Gosset #Student #BigData #AnálisisDeDatos #TomaDeDecisiones #HistoriaDeLaCiencia #Innovación

Visitas

Búsqueda

Google

Mapa de visitantes

Myspace Map

Clima... más estadística