La ruptura del modelo Manus genera controversia sobre la trayectoria del desarrollo de la IA; la encriptación completamente homomórfica podría ser clave.

El modelo Manus ha logrado avances significativos, generando controversias sobre la trayectoria del desarrollo de la IA

Recientemente, el modelo Manus ha obtenido resultados notables en las pruebas de referencia GAIA, superando el rendimiento de modelos de lenguaje de gran tamaño en la misma categoría. Manus ha demostrado su capacidad para completar tareas complejas de forma independiente, como gestionar negociaciones comerciales internacionales, que implican el análisis de cláusulas contractuales, la formulación de estrategias y la generación de propuestas en múltiples etapas. En comparación con los sistemas tradicionales, las ventajas de Manus radican en su descomposición dinámica de objetivos, su razonamiento multimodal y su capacidad de aprendizaje mejorado por memoria. Puede descomponer tareas complejas en cientos de subtareas ejecutables, mientras maneja varios tipos de datos y mejora continuamente la eficiencia de la toma de decisiones mediante el aprendizaje por refuerzo, reduciendo la tasa de errores.

El éxito de Manus ha provocado una discusión en la industria sobre la trayectoria del desarrollo de la IA: ¿el futuro se dirige hacia un modelo unificado de inteligencia artificial general (AGI) o hacia un modelo colaborativo de sistemas multiagentes (MAS)? Esta controversia se origina en la filosofía de diseño de Manus, que sugiere dos posibles direcciones de desarrollo:

  1. Ruta AGI: A través de la mejora continua de las capacidades de un único sistema inteligente, acercándolo gradualmente a la capacidad de toma de decisiones integrales de los humanos.

  2. Ruta MAS: Utilizar Manus como un supercoordinador para dirigir a miles de agentes inteligentes en especialidades profesionales para trabajar en colaboración.

Esta discusión refleja en realidad una contradicción central en el desarrollo de la IA: cómo equilibrar la eficiencia y la seguridad. A medida que los sistemas de inteligencia individual se acercan cada vez más a la AGI, el riesgo de falta de transparencia en su proceso de toma de decisiones también aumenta. Aunque la colaboración entre múltiples agentes puede dispersar los riesgos, puede que se pierdan momentos críticos de decisión debido a la latencia en la comunicación.

Manus trae el primer destello del amanecer de AGI, la seguridad de la IA también merece reflexión

Los avances de Manus también resaltan los riesgos potenciales en el desarrollo de la IA, como la filtración de datos personales, el sesgo algorítmico y los ataques adversariales, entre otros. Por ejemplo, en el ámbito médico, el sistema necesita acceder a datos genómicos sensibles de los pacientes; en las negociaciones financieras, puede involucrar información financiera de empresas no divulgada. Además, en el proceso de contratación, el sistema puede mostrar sesgos hacia ciertos grupos; en la revisión de contratos legales, puede haber una alta tasa de errores en los términos de las industrias emergentes. Más grave aún, los hackers pueden interferir en el juicio del sistema durante las negociaciones al insertar señales de audio específicas.

Estos desafíos destacan un hecho preocupante: cuanto más inteligentes son los sistemas de IA, más amplia es su posible superficie de ataque.

Para hacer frente a estos desafíos de seguridad, la industria ha propuesto diversas soluciones, entre las cuales la tecnología de cifrado homomórfico completo (FHE) se considera un método prometedor. FHE permite realizar cálculos sobre datos en estado cifrado, lo cual es crucial para proteger la información sensible en los sistemas de IA.

Específicamente, FHE puede mejorar la seguridad de los sistemas de IA en los siguientes aspectos:

  1. Capa de datos: toda la información ingresada por los usuarios (incluidas características biométricas, voz, etc.) se procesa en estado cifrado, incluso el propio sistema de IA no puede descifrar los datos originales.

  2. Nivel de algoritmo: A través de FHE se logra "entrenamiento de modelos cifrados", de modo que incluso los desarrolladores no puedan observar directamente el proceso de decisión de la IA.

  3. Nivel de colaboración: La comunicación entre múltiples agentes inteligentes utiliza cifrado umbral, incluso si un nodo individual es comprometido, no se producirá una filtración de datos global.

Con el rápido desarrollo de la tecnología de IA, los problemas de seguridad se vuelven cada vez más importantes. Tecnologías de encriptación avanzadas como FHE no solo pueden abordar los desafíos actuales, sino que también establecen una base segura para futuros sistemas de IA más potentes. En el camino hacia la AGI, estas tecnologías de seguridad ya no son opcionales, sino una condición necesaria para garantizar el funcionamiento confiable de los sistemas de IA.

AGI-0.18%
FHE5.52%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 4
  • Compartir
Comentar
0/400
0xSleepDeprivedvip
· hace4h
Todavía estás utilizando indicadores técnicos, tarde o temprano se convertirá en una máquina revolucionaria.
Ver originalesResponder0
AirdropHunter007vip
· hace4h
Otra vez hay ai para hacer tontos.
Ver originalesResponder0
TokenVelocityTraumavip
· hace4h
Estoy tan confundido, ¿la IA es multiuso o es un todo...?
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)