La cuestión de la seguridad de la IA acaba de volverse más apremiante. ¿Por qué limitarse a pedir a los LLMs que escriban código? El verdadero desafío es exigirles que proporcionen pruebas verificables de corrección junto con ello. Sin la verificación formal, en realidad estamos volando a ciegas con los sistemas de IA desplegados.
Esto es lo que vale la pena prestar atención: aproximadamente el 80% de los principales modelos de lenguaje—incluyendo Claude y otros—extraen datos de entrenamiento de Common Crawl. Eso es un problema de dependencia de datos enorme del que nadie habla lo suficiente.
Pero hay una solución emergente que vale la pena seguir. Las plataformas de gobernanza basadas en blockchain diseñadas específicamente para la seguridad de modelos de IA/ML están comenzando a tomar forma. Imagina capas de verificación distribuidas que puedan garantizar criptográficamente la integridad del modelo y la transparencia en las decisiones a gran escala. Ese es el tipo de brecha en infraestructura que la industria necesita llenar.
La convergencia de la verificación formal, la transparencia del modelo y la supervisión descentralizada podría en realidad transformar la forma en que abordamos el riesgo en el despliegue de IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La cuestión de la seguridad de la IA acaba de volverse más apremiante. ¿Por qué limitarse a pedir a los LLMs que escriban código? El verdadero desafío es exigirles que proporcionen pruebas verificables de corrección junto con ello. Sin la verificación formal, en realidad estamos volando a ciegas con los sistemas de IA desplegados.
Esto es lo que vale la pena prestar atención: aproximadamente el 80% de los principales modelos de lenguaje—incluyendo Claude y otros—extraen datos de entrenamiento de Common Crawl. Eso es un problema de dependencia de datos enorme del que nadie habla lo suficiente.
Pero hay una solución emergente que vale la pena seguir. Las plataformas de gobernanza basadas en blockchain diseñadas específicamente para la seguridad de modelos de IA/ML están comenzando a tomar forma. Imagina capas de verificación distribuidas que puedan garantizar criptográficamente la integridad del modelo y la transparencia en las decisiones a gran escala. Ese es el tipo de brecha en infraestructura que la industria necesita llenar.
La convergencia de la verificación formal, la transparencia del modelo y la supervisión descentralizada podría en realidad transformar la forma en que abordamos el riesgo en el despliegue de IA.