12 abril, 2026

12 abril, 2026

Espejismos en la era digital

El Faro/Francisco de Asís
Facebook
X
WhatsApp

En septiembre de 2024, Matthew Gallagher, junto con su hermano, lanzó una empresa con apenas 20 mil dólares.

En su primer mes obtuvo 300 clientes; al siguiente, mil más. Un año después, en 2025, había generado más de 400 millones de dólares en ventas. Para 2026, proyectaban alcanzar 1,800 millones.

Dos personas. Una operación mínima. Un negocio multimillonario impulsado por inteligencia artificial. La historia, difundida por The New York Times, sorprendió y despertó admiración. Pero el asombro no es lo mismo que la explicación

¿De qué trataba el negocio? Intermediar la venta de medicamentos para perder peso directamente al consumidor. Pero su verdadero valor no estaba en el producto, sino en el proceso. En un modelo tradicional, obtener un tratamiento implica varias etapas: buscar médico, agendar cita, esperar, someterse a una evaluación clínica, recibir una receta y adquirir el medicamento.

El modelo reducía ese proceso a unos cuantos pasos: ver un anuncio, llenar un formulario, recibir una evaluación rápida —en parte automatizada— y acceder al tratamiento. Menos tiempo. Menos fricción. Más accesibilidad. Ese fue su atractivo. También su mayor riesgo. Porque en el sistema tradicional, esos pasos no son un obstáculo: son un filtro.

La espera, la consulta, la duda… obligan a pensar. Al eliminarlos, el modelo no solo gana velocidad. También reduce la reflexión. La decisión deja de ser un proceso… y se convierte en una reacción. El artículo del The New York Times se centró en el asombro. No en los cuestionamientos. Y cuando una historia crece demasiado rápido… las preguntas llegan después.

Análisis posteriores señalaron irregularidades en la forma de construir confianza: perfiles de médicos generados con inteligencia artificial; uso de imágenes de personas reales sin autorización; utilización de logotipos de medios que podían sugerir cobertura editorial cuando se trataba de publicidad; y referencias a certificaciones sin respaldo claro. También han surgido cuestionamientos regulatorios.

En septiembre de 2025, la National Consumers League (NCL) y otras organizaciones solicitaron a la Comisión Federal de Comercio (FTC) que investigara a Medvi por posibles prácticas de marketing engañoso. No es una sanción. Pero sí una enorme señal.

A ello se suman advertencias regulatorias, dudas sobre la efectividad de algunos tratamientos y cuestionamientos sobre el manejo de datos médicos. No existe, hasta ahora, una sentencia judicial que declare fraude. Pero tampoco es una historia sin sombras.

Hablamos de una empresa que, con dos personas, generó más de 400 millones de dólares en un año. No es solo innovación. Es escala. Y cuando la escala se combina con automatización, cualquier falla también se amplifica. No es el primer caso. Elizabeth Holmes prometió transformar los análisis de sangre: una mínima muestra capilar, múltiples pruebas simultáneas, resultados rápidos.

Su tecnología, basada en dispositivos como el “Edison”, debía procesar microvolúmenes con precisión.

No funcionó. Los resultados eran inconsistentes. Los procesos no estaban validados. Y lo que parecía una revolución terminó en fraude. La diferencia entre ambos casos es evidente. Pero la lógica de fondo es similar: reducir fricción, acelerar procesos y construir confianza antes de validar completamente el sistema. Aquí está el punto. La inteligencia artificial permite crear empresas rápidas, eficientes y escalables. Pero también permite algo más peligroso: simular confianza.

Hoy es posible construir una estructura que parece sólida —médicos, procesos, atención— sin que necesariamente lo sea. Y el consumidor rara vez puede distinguir la diferencia.

¿La inteligencia artificial tiene ética? No. No tiene valores ni criterio moral. Hace lo que se le pide. Optimiza lo que se le ordena. Escala lo que se le programa. La ética no está en la herramienta. Está en quien la usa. El problema no es la inteligencia artificial.

Es el uso que le damos. Y en particular, cuando se utiliza para eliminar los filtros que nos protegen. Porque el modelo no solo acercaba un producto. Acercaba una decisión médica compleja a un entorno sin pausa ni reflexión. Y ahí está el riesgo. El consumidor no compra solo información.

Compra lo que desea. Y cuando lo que desea es urgente —salud, imagen, solución rápida— es más fácil confiar… y más difícil cuestionar. La inteligencia artificial puede crear valor. Pero también puede crear ilusión. Y cuando la ilusión se disfraza de realidad, estamos frente a un espejismo.

A veces, es una advertencia. Porque cuando la tecnología avanza más rápido que nuestra capacidad de entenderla, dejamos de ser usuarios informados… y empezamos a convertirnos en prueba.

DESTACADAS