Etica tecnológica, nuestro rol como emprendedores y developers
El diseño tecnológico como acto moral
Hace unos días leí un artículo de Microsoft que clasificaba ochenta profesiones según su “nivel de exposición” a la inteligencia artificial. En resumidas cuentas: qué tan probable es que un algoritmo te reemplace en los próximos años.
El texto da para varias discusiones desde temas técnicos hasta existenciales. Pero hubo una idea que me inquietó mucho: detrás de esas tablas y porcentajes hay un supuesto mucho más profundo sobre quiénes estamos considerando en el futuro, y quiénes ni siquiera figuran en él.
Durante años repetimos que la tecnología era el gran ecualizador: que conectaría al mundo, erradicaría la pobreza y democratizaría el acceso al conocimiento.
Pero en la práctica, hemos terminado diseñando el futuro desde los mismos lugares y para las mismas personas.
Los algoritmos se entrenan en Silicon Valley, las interfaces se prueban en Londres, las startups se lanzan en Sand Hill Road (no es una crítica, inviertan en mis empresas, gracias).
Y cada nuevo avance, desde la IA generativa hasta los sistemas de salud digital, se construye bajo un supuesto incuestionado:
El usuario vive en una ciudad con conectividad de fibra óptica, habla inglés, tiene tarjeta de crédito y acceso ilimitado a energía y datos.
No considero que haya malicia en esa idea, simplemente una miopía (casi ceguera) moral.
La neutralidad no existe
Solemos decir que la tecnología es neutral, pero eso es tan falso como decir que la arquitectura de un edificio es neutral.
Un edificio sin rampas excluye activamente a personas en sillas de ruedas, sin importar las “buenas intenciones” de quien esté en la puerta. Su diseño es un acto de exclusión.
Todo diseño carga las creencias, los contextos y las limitaciones de quienes lo crean.
Virginia Eubanks, en Automating Inequality, dice: los sistemas de asistencia social en EE. UU. reproducen los prejuicios de sus diseñadores, no los datos.
Ruha Benjamin lo llama discriminación por diseño.
Y aunque solemos pensar que esos problemas se limitan a algoritmos gubernamentales o grandes plataformas, el sesgo comienza mucho antes: en las decisiones cotidianas de cada emprendedor tecnológico.
Cuando decidimos que una app solo está disponible en inglés, que requiere una conexión de alta velocidad o que su modelo de negocio depende de suscripciones mensuales, estamos creando una puerta moral.
No lo llamamos así, claro. Lo llamamos go-to-market strategy.
Pero en términos filosóficos, es un acto de exclusión ética: un modo de decir quién pertenece al futuro y quién queda en el margen del progreso.
Luciano Floridi lo plantea con claridad:
“Construir sistemas digitales no es solo producir herramientas, sino configurar el entorno moral en que las decisiones humanas ocurren.”
En otras palabras: la moral ya no se juega solo en nuestras acciones, sino en las condiciones de posibilidad que el diseño crea o destruye.
Los invisibles del futuro
Así que mientras Microsoft discute si la IA reemplazará empleos, millones de personas ni siquiera podrán interactuar con ella.
No porque se nieguen al cambio, sino porque el cambio nunca fue diseñado para incluirlos.
Yang y Zhang (2023) identifican tres niveles de brecha digital: acceso, habilidades y beneficio.
En la superficie podríamos pensar que basta con conectar más comunidades, pero incluso con acceso, el diseño sigue reproduciendo desigualdad cuando se basa en contextos, lenguajes o capacidades ajenas a gran parte de la humanidad.
Como emprendedores tecnológicos, al pensar en nuestros usuarios, no imaginamos a una mujer rural de 60 años cuando diseñamos una interfaz digital.
Tampoco imaginamos a un obrero con un teléfono de gama baja y datos limitados al entrenar un modelo de IA.
No es que los excluyamos activamente, simplemente no existen en nuestro mapa mental.
Esos vacíos mentales se traducen en exclusiones reales.
Para parafrasear a Bourdieu: los diseñadores reproducen su contexto social.
Diseñar para el “usuario promedio” es una forma elegante de decir que diseñamos para el usuario estándar de los países desarrollados.
Y esa homogeneidad en la imaginación del usuario tiene efectos políticos y éticos:
convierte el acceso al futuro en un privilegio geográfico, lingüístico y económico.
Lo que llamamos innovación muchas veces es, en realidad, sofisticación para los ya sofisticados.
Al diseñar estamos legislando
Parafraseando a Langdon Winner:
“Toda decisión de diseño es una decisión de poder y autoridad con consecuencias morales.”
- Con la plataforma, decidimos quién tiene acceso.
- Con el modelo de precios, quién accede y quién queda fuera.
- Con el idioma, quién participa y quién observa desde la distancia.
- Y con el algoritmo, quién es visible y quién se vuelve estadísticamente irrelevante.
Como tecnólogos, rara vez nos reconocemos como legisladores.
Pero cada startup que lanza una aplicación o entrena un modelo de IA está creando “leyes” que moldean cómo la gente actúa, se comunica o se informa.
Diseñar tecnología sin una brújula ética clara es legislar sin conciencia.
¿Sigues creyendo que tu producto “democratiza el acceso” si lo pruebas desde el peor punto de conectividad, con el menor ingreso y el menor dominio de otro idioma?
Si la respuesta es no, entonces no estás creando tecnología inclusiva.
Estás creando infraestructura moralmente sesgada.
Replantear el propósito
La ética aplicada a la tecnología no debería limitarse a evitar daños; eso es lo mínimo indispensable, el paso burocrático del pensamiento moral.
El verdadero desafío está en usar la tecnología como herramienta de reparación moral: cerrar brechas, abrir oportunidades, expandir el margen de dignidad humana.
Vassilakopoulou y Hustad (2021) lo plantean con precisión:
“La brecha digital no es una falla técnica, sino un reflejo de desigualdades sociales previas.”
Por tanto, la tecnología no puede ser neutral: o amplifica esas brechas o ayuda a cerrarlas.
La cuestión no es si la IA desplazará empleos, sino quién podrá decidir cómo usarla.
No es si conectaremos más personas, sino si diseñaremos un futuro donde valga la pena estar conectado.
La responsabilidad ética de los emprendedores tecnológicos no está solo en lo que crean, sino en a quién deciden ignorar.
Ejemplos concretos:
- Diseñar offline-first para zonas de baja conectividad.
- Usar modelos de IA pequeños que puedan correr en teléfonos de gama baja, en lugar de perseguir el próximo LLM gigante.
Hans Jonas hablaba de una “ética de la responsabilidad anticipatoria”:
El deber de prever las consecuencias de nuestra potencia técnica.
Quizá el diseño responsable comience ahí: no en reparar, sino en imaginar éticamente antes de construir.
Conclusión: el futuro como decisión moral
Diseñar tecnología es participar en la construcción moral del mundo.
Cada línea de código, cada modelo de negocio y cada interfaz son, en el fondo, juicios éticos sobre qué vidas consideramos relevantes.
La verdadera pregunta no es si la tecnología avanzará ,eso es inevitable, sino si ese avance será moralmente habitable.
El diseño tecnológico no es un acto neutral de innovación, sino una práctica moral y política que configura las condiciones de posibilidad del comportamiento humano.
Cada interfaz y algoritmo legisla implícitamente sobre quién puede participar en el futuro digital y en qué términos.
Considero que la ética tecnológica no es un campo académico inerte, sino la base del nuevo contrato social.
Y depende de nosotros, como emprendedores, como creadores de tecnología, decidir si lo firmamos con conciencia, o si, como en las apps, le damos “aceptar” en automático a los términos y condiciones que se nos han impuesto.