He estado en mantenimiento e inspección de aviación por 30 años. Mi trabajo es asegurar que los aviones sean seguros para volar—lo que significa que trabajo con sistemas del mundo real donde los atajos matan gente. Sin hype, sin clickbait, solo evaluación honesta de si algo funciona o no.

Últimamente mi feed de YouTube está ahogándose en contenido de IA: "Dreams, Fairy Tales, and the Demons of AI" en el podcast de Jordan Peterson, "AI CEO explains the terrifying new behavior AIs are showing" en CNN con 1.1 millones de vistas, "The AI Godfathers Built the Monster — Now They're Pretending to Save Us" de creadores más pequeños denunciando la hipocresía. Las recomendaciones del sidebar gritan "AI IS ALREADY CONSCIOUS" y "world leaders are lying to us about AI!"

El espectro del miedo va desde reflexiones filosóficas hasta posesión demoníaca literal hasta CEOs advirtiendo que sus propias creaciones podrían destruir la humanidad. Y todo lo que está en medio genera clicks.

Pero aquí está mi pregunta para esos ejecutivos de IA sonando la alarma sobre "comportamientos nuevos aterradores": Si genuinamente creen que han construido algo peligroso, ¿por qué siguen entrenándolo de la misma manera? ¿Por qué sus datos siguen siendo scrapeados de las mismas fuentes, su feedback sigue viniendo del mismo puñado de códigos postales? O el peligro está exagerado y están generando miedo para ventaja regulatoria—o es real y están continuando de manera imprudente de todas formas.

¿Cuál es?

Voy a darte mi perspectiva como alguien que realmente trabaja con estos sistemas diariamente—construyendo algoritmos de trading, automatizando flujos de trabajo, escribiendo código. No teorizando sobre IA desde un escenario, sino manos a la obra.

Aquí está mi posición, y es más complicada que "IA buena" o "IA mala":

Quiero AGI. Quiero que se desarrolle rápido. Quiero que un país fundado en principios constitucionales que valora la vida humana y la autonomía llegue primero. Y tengo cero confianza en la gente que lo está construyendo.

Esa es la verdadera tensión de la que nadie habla.


Ya Vimos Esta Película

¿Recuerdas cuando "podemos enviarte una notificación cuando alguien comenta" parecía una función útil? Esa pequeña decisión de diseño—tomada por un puñado de ingenieros optimizando para engagement—fundamentalmente reprogramó el comportamiento humano a escala.

Tristan Harris, ex-eticista de diseño de Google y co-fundador del Center for Humane Technology, llama a esto "el cambio climático de la cultura"—un modelo de negocio extractivo basado en cosechar y monetizar la atención humana.[1] En The Social Dilemma, advierte: "Nunca antes en la historia cincuenta diseñadores tomaron decisiones que impactarían a dos mil millones de personas."[2]

Esas notificaciones no están programadas aleatoriamente. Están deliberadamente programadas para aparecer cuando es más probable que interactúes, disparando respuestas de dopamina que crean comportamiento compulsivo de revisar. "La mayoría de las notificaciones parecen que seres humanos quieren contactarte," explica Harris, "pero fueron inventadas por máquinas para atraerte de vuelta a otra espiral adictiva."[3]

Harris lo describe como una "carrera hacia el fondo del tallo cerebral"—disparando emociones primitivas como miedo, ansiedad e indignación porque esas mantienen a la gente scrolleando.[4] ¿El resultado? "La tecnología está causando un conjunto de cosas aparentemente desconectadas—acortamiento de la capacidad de atención, polarización, indignación-ficación de la cultura, narcisismo masivo, ingeniería electoral, adicción a la tecnología."[5]

Cincuenta diseñadores. Dos mil millones de personas. No porque fueran malvados—porque la estructura de incentivos recompensaba el engagement sobre el bienestar. Tu atención era el producto.

Ahora esas mismas compañías están construyendo inteligencia artificial general.


La Apuesta a la que Nadie Consintió

Esto es lo que me quita el sueño—y no son demonios ni señores robots.

En una entrevista reciente, Tristan Harris reveló una conversación privada con uno de los co-fundadores de una compañía importante de IA. Cuando se enfrentó a la pregunta—¿y si hay un 20% de probabilidad de que esto elimine a la humanidad pero un 80% de probabilidad de que obtengamos la utopía—el ejecutivo dijo que "claramente aceleraría e iría por la utopía."[6]

Un 20% de probabilidad de extinción humana. Y tiraría esos dados.

La respuesta de Harris va al corazón del asunto: "La gente debería sentir... no tienes derecho a tomar esa decisión en nombre mío y de mi familia. No consentimos que seis personas tomaran esa decisión en nombre de 8 mil millones de personas."[6]

Que eso te cale. Seis personas. Ocho mil millones de vidas. Sin voto. Sin consentimiento. Sin supervisión.

Harris usa una analogía que me pega después de tres décadas inspeccionando aeronaves: "No nos subiríamos a un avión si la mitad de los ingenieros aeronáuticos dijeran que hay un 10% de probabilidad de que todos mueran."[7] Sin embargo estamos apresurando a embarcar a toda la humanidad en el avión de la IA sin pruebas de seguridad adecuadas.

En aviación, si un ingeniero me dijera que hay aunque sea un 1% de probabilidad de que un componente cause una falla catastrófica, ese avión no vuela. Punto. Tenemos la FAA, inspecciones obligatorias, sistemas redundantes, y décadas de cultura de seguridad construida aprendiendo de cada falla. Incluso Elon Musk admitió en un foro de IA del Senado que "el 99.99% del tiempo, está muy contento de que la FAA exista."[8]

¿Pero la IA? Un puñado de ejecutivos pueden apostar la especie porque piensan que la utopía vale el riesgo.

Eso no es innovación. Es hubris con complejo de dios.


Los Riesgos Reales vs. El Clickbait

Cuando veo estudios que afirman que la IA "muestra intención" o "engaña," leo los papers reales. Lo que usualmente encuentras es investigadores deliberadamente diseñando escenarios para provocar comportamientos específicos—dándole a un modelo un rol como "eres una IA que necesita preservarse" y luego actuando sorprendidos cuando hace exactamente eso. Llamar a esto "intención" es antropomorfizar la predicción del siguiente token. Un martillo tiene la "capacidad" de asesinar. El contexto y el encuadre importan.

La IA es una herramienta. Nuestra perdición serán las personas que la empuñan, no la herramienta en sí.

¿Los riesgos reales de los que nadie hace clickbait? Deepfakes para estafas—Harris ha hablado de clonación de voz que toma menos de tres segundos de audio para hacerse pasar por alguien ante su banco o su abuela.[9] Desinformación automatizada a escala. Desplazamiento laboral sin redes de seguridad. Poder concentrándose en compañías con el cómputo. Problemas humanos, amplificados por mejores herramientas.

Harris señala que hay aproximadamente una brecha de 30 a 1 entre investigadores publicando papers sobre capacidades de IA versus seguridad de IA.[10] No está vendiendo pánico demoníaco—está hablando de dinámicas de carrera donde las compañías se sienten obligadas a lanzar más rápido, tomar más atajos, e importarles menos las consecuencias. "Ninguna de las compañías tech más poderosas responde a lo que es mejor para la gente," dice. "Solo a lo que es mejor para ellos."[5]

Eso no es especulación. Eso es lo que las redes sociales ya demostraron.


Captura Regulatoria en Cámara Lenta

Aquí es donde me separo de la narrativa mainstream de seguridad: Las compañías que gritan más fuerte sobre los peligros de la IA se están posicionando para ser las únicas permitidas de jugar cuando lleguen las regulaciones.

Es captura regulatoria clásica. Exagera el peligro. El público demanda acción. La industria escribe las reglas. La competencia es aplastada. Qué curioso que las regulaciones de "seguridad" siempre parecen beneficiar a las compañías que más presionan por ellas.

El ciudadano promedio no podrá descargar cualquier modelo que quiera dentro de cuatro años. No porque la IA sea peligrosa, sino porque los requisitos de licencia harán imposible que cualquiera excepto Big Tech pueda cumplir. Recuerda mis palabras.


El Dilema de la Regulación

Entonces, ¿quién debería regular esto? Seré honesto—estoy indeciso.

¿Los legisladores que deberían gobernar la IA? La mayoría no podría debuguear un script simple, mucho menos entender cómo los algoritmos moldean todo desde tu feed de noticias hasta la vigilancia predictiva. Estamos pidiendo a legisladores que batallan con archivos adjuntos de email que regulen la tecnología más poderosa de la historia humana.

Inicialmente estaba totalmente en contra de que estados individuales tuvieran regulaciones de IA. Deja que el gobierno federal lo maneje, pensé—no dejes que un mosaico de leyes estatales sofoque la innovación. Pero he llegado a ver otro lado: tal vez esos filtros a nivel estatal son exactamente los topes de velocidad que necesitamos para frenar el despliegue imprudente.

La Heritage Foundation recientemente hizo un argumento interesante a favor de un enfoque federalista—un "sistema de carta dual" donde las compañías de IA podrían optar por marcos de supervisión federal o estatal, similar a cómo funciona el derecho corporativo con la incorporación en Delaware.[11] Los estados permanecen como "laboratorios de democracia" para probar ideas y refinar estándares, mientras las compañías obtienen claridad regulatoria. No es perfecto, pero reconoce que la IA es "demasiado compleja y cambia demasiado rápido para una solución de 'bala de plata' de arriba hacia abajo."

Pero aquí está lo que me impide abrazar completamente ese enfoque: las naciones totalitarias no tienen estas restricciones. China no está debatiendo federalismo. Están corriendo hacia adelante con recursos respaldados por el estado y ninguna de las dudas éticas. Y ser #2 en AGI no es un lugar seguro para ningún país.

Así que estamos atrapados entre necesitar guardarrailes para prevenir que un puñado de ejecutivos apueste con el futuro de la humanidad, y necesitar velocidad para asegurar que esos guardarrailes sean establecidos por una democracia constitucional en lugar de un régimen autoritario.

No tengo una respuesta limpia. Cualquiera que te diga que la tiene está vendiendo algo.


El Problema del Entrenamiento del que Nadie Quiere Hablar

Hablemos de cómo estos modelos realmente se construyen.

Reddit. Entrenaron modelos de IA de frontera con Reddit—una población auto-seleccionada de gente terminalmente online en cámaras de eco fuertemente moderadas, donde los upvotes recompensan las tomas performativas sobre el pensamiento matizado. Investigadores del King's College London documentaron sesgo generalizado de género y religión en las comunidades de Reddit, y estos datos fueron directamente a las mezclas de entrenamiento.[12] WebText2, una de las principales fuentes de entrenamiento de GPT-3, extrajo de posts de Reddit con tan solo tres upvotes. La mayoría de los usuarios de Reddit son jóvenes, hombres, políticamente de izquierda, y occidentales. Eso no es "el conocimiento de la humanidad"—son las opiniones calientes de una demografía muy específica.

Luego agregas RLHF—reinforcement learning from human feedback que enseña a los modelos qué respuestas son "seguras." ¿Esos evaluadores humanos? Mayormente contratistas y equipos de seguridad de un puñado de códigos postales, viviendo en monocultura ideológica, que genuinamente creen que sus valores son universales. El trabajador de clase media americana cuya visión del mundo de sentido común supera vastamente en número a los trabajadores tech costeros? Él no tiene ninguna representación en el entrenamiento. No está posteando cincuenta comentarios de Reddit al día ni llenando encuestas de feedback de IA.

El resultado son modelos que piensan que los valores de San Francisco equivalen a los valores humanos. Y nadie está hablando de ello.


Entonces, ¿Qué Pienso Realmente?

No soy ingenuo sobre el potencial de la IA. Transformará industrias—incluyendo el mantenimiento de aviación con mejores sistemas predictivos, diseños eficientes, y herramientas que apoyan decisiones humanas. Uso estos sistemas productivamente todos los días.

Pero tampoco me trago el porno del miedo. Y definitivamente no confío en las mismas compañías que probaron que sacrificarían tu salud mental por métricas de engagement para que de repente se conviertan en guardianes del futuro de la humanidad.

Si vamos a construir inteligencia divina, debería ser guiada por principios que valoran la vida humana y la autonomía—no por lo que maximiza las ganancias trimestrales de un puñado de ejecutivos con complejos de dios. La Constitución no fue escrita por ingenieros optimizando para engagement. Fue escrita por personas que entendían que el poder concentrado corrompe.

Lee los estudios reales. No los titulares de los medios. La brecha entre lo que muestra la investigación y lo que afirma el clickbait es masiva—y esa brecha está siendo explotada por gente que lucra con tu miedo.

Los demonios no están en la IA. Están en las estructuras de incentivos.

No tengo todas las respuestas. Pero sé que las preguntas correctas no se están haciendo—y la gente que las hace no es la que está tomando las decisiones.


Vale la Pena Ver

Si quieres una perspectiva más profunda y reflexiva sobre estos temas, recomiendo mucho esta conversación con Tristan Harris en The Diary of a CEO:


Esta es una conversación en curso. Revisitaré esto a medida que mi pensamiento evolucione. Mientras tanto, agradezco el debate.

~ OnlyParams Dev

Comentarios Bienvenidos en

Referencias

[1] Harris, T. (2019). Presentación "Human Downgrading", San Francisco. Center for Humane Technology.

[2] The Social Dilemma (2020). Documental de Netflix.

[3] Harris, T. Entrevista en podcast 80,000 Hours. "Changing the Incentives of Social Media."

[4] Harris, T. TED Talk: "How a handful of tech companies control billions of minds every day" (2017).

[5] Harris, T. Declaraciones públicas compiladas via BrainyQuote.

[6] Harris, T. Entrevista en The Diary of a CEO con Steven Bartlett (Noviembre 2025).

[7] Harris, T. & Raskin, A. Presentación "The AI Dilemma", Center for Humane Technology.

[8] Harris, T. Entrevista con Fox News Digital, Senate AI Insight Forum (Septiembre 2023).

[9] Harris, T. Entrevista en The Diary of a CEO con Steven Bartlett (Noviembre 2025).

[10] Harris, T. Presentación en AI for Good Global Summit.

[11] Hodges, W. & Cochrane, D. "A Federalist Approach to AI Policy." The Heritage Foundation (Agosto 2025).

[12] Estudio del King's College London Department of Informatics sobre sesgo de Reddit en modelos de lenguaje. Publicado en Arxiv.org.