OpenAI gasta 5000 millones en contratar a KOL para grabar "la amenaza de la IA china a la privacidad de datos", con la intención de influir en la regulación de la IA en 2026

WIRED fin de semana publicó una investigación que revela que el cofundador de OpenAI Greg Brockman, el cofundador de Palantir Joe Lonsdale y ejecutivos de Silicon Valley como a16z, están empleando creadores de TikTok a través de un proyecto llamado “Leading the Future” bajo un super PAC, pagando 5,000 dólares por video para grabar un guion sobre la “amenaza de la IA china” — y los creadores están claramente instruidos a no revelar la verdadera identidad de los financiadores. Esta operación de manipulación de opinión avanza en dos etapas, con el objetivo final de influir en la legislación sobre IA antes de las elecciones intermedias de EE. UU. en 2026, para que la industria tecnológica quede exenta de responsabilidades por la recopilación de datos.
(Resumen previo: ¡OpenAI contraataca la adquisición hostil de Musk! Planea otorgar “derechos de voto especiales” a la junta de su organización sin fines de lucro para prevenir adquisiciones hostiles)
(Información adicional: ¿Colapso de la colaboración entre Microsoft y OpenAI? The Wall Street Journal: las brechas entre ambos se amplían)

Índice del artículo

Alternar

  • Estructura de tres niveles: PAC, organización sin fines de lucro, agencia de marketing
  • Guion de dos etapas que engaña con apariencia de honestidad
  • OpenAI: “Acciones personales, no relacionadas con la empresa”
  • Por qué son KOL, y por qué ahora

Una influencer de belleza de 24 años está haciendo un unboxing de productos de cuidado facial frente a la cámara, cuando de repente cambia de tema: “Para que China gane la carrera de IA, robará tus datos y los de tus hijos.” El video lleva la etiqueta #ad, pero no revela quién financia realmente. En una investigación profunda publicada el fin de semana, WIRED revela que quien le paga es un grupo de los ejecutivos de IA más destacados de Silicon Valley.

Estructura de tres niveles: PAC, organización sin fines de lucro, agencia de marketing

El reportero de WIRED señala que la estructura de esta operación de manipulación de opinión está diseñada deliberadamente para ser compleja y difícil de rastrear. La agencia de marketing SM4 contacta directamente a los creadores, acuerda pagarles 5,000 dólares por video, y entrega guiones escritos por la organización sin fines de lucro Build American AI. Esta última es un proyecto bajo el super PAC “Leading the Future”, que ha recaudado hasta ahora 140 millones de dólares, con 51 millones disponibles para gastar.

La lista de financiadores incluye: el cofundador de OpenAI Greg Brockman (incluyendo a su esposa, quien donó en su nombre personal), el cofundador de Palantir Joe Lonsdale, el gigante de capital de riesgo Andreessen Horowitz (a16z), y la startup de búsqueda de IA Perplexity.

Las instrucciones para los creadores son claras y directas: no etiquetar a Build American AI, no mencionar quién paga, simplemente seguir el guion.

Guion de dos etapas que engaña con apariencia de honestidad

La investigación de WIRED describe que esta operación avanza en dos fases. La Fase 1 se centra en contenido cotidiano sobre “innovación en IA en EE. UU.”, con imágenes cálidas y tono positivo, para generar una primera impresión favorable sobre el tema. La Fase 2 — que actualmente está en marcha — cambia a una narrativa de miedo sobre la “amenaza china”, con temas en torno a: China roba datos personales, roba empleos en EE. UU., y pone en riesgo a las próximas generaciones.

Es especialmente notable que la fuente de esta exposición fue que WIRED pudo descubrirlo porque la misma parte se acercó activamente a ellos, invitándolos a participar en esta operación.

OpenAI: “Acciones personales, no relacionadas con la empresa”

Un portavoz de OpenAI declaró que la compañía y Build American AI y “Leading the Future” no tienen ninguna relación corporativa, y que no proporcionaron fondos ni apoyo.

Esta declaración es legalmente sólida — Brockman efectivamente donó en “nombre personal”, no en nombre de OpenAI. Pero los críticos señalan que esto es precisamente la esencia del “dinero oscuro”: usar nombres personales para separar responsabilidades, y estructuras organizacionales para difuminar el flujo de fondos, dejando la responsabilidad en una zona gris legal.

Una cobertura de Drop Site News cita a investigadores que comparan esta estrategia con la práctica de la industria tabacalera en los años 50 en EE. UU., que buscaba respaldo público de médicos y afirmaba que fumar no era dañino — primero usando caras confiables para enmascarar el mensaje, y luego con estructuras financieras complejas para difuminar la responsabilidad.

Por qué son KOL, y por qué ahora

La elección del momento no es casual. Según datos citados por WIRED, el 53% de los adultos en EE. UU. obtiene noticias a través de redes sociales, y entre los menores de 30 años, el 38% confía en KOL como fuente de información. Los medios tradicionales continúan perdiendo confianza, y la “sensación de autenticidad” de los KOL llena ese vacío — pero cuando los guiones los escriben PACs y los financian altos ejecutivos tecnológicos, esa “autenticidad” se convierte en una ilusión cuidadosamente diseñada.

El objetivo político de esta operación también es claro: antes de las elecciones intermedias de EE. UU. en 2026, moldear la opinión pública y reducir el apoyo a la regulación de IA, influyendo en la legislación del Congreso — especialmente en aquellas cláusulas que podrían hacer responsables a las empresas tecnológicas por la recopilación masiva de datos.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado