Manus mencapai hasil SOTA Benchmark GAIA, memicu diskusi tentang jalur pengembangan AI
Manus menunjukkan kinerja yang luar biasa dalam pengujian Benchmark GAIA, melampaui model besar sekelasnya. Ini berarti ia dapat menangani tugas kompleks secara mandiri, seperti negosiasi bisnis lintas negara, yang melibatkan analisis ketentuan kontrak, perumusan strategi, dan pengembangan rencana. Kelebihan Manus terletak pada kemampuannya dalam pemecahan tujuan dinamis, penalaran multimodal, dan pembelajaran dengan penguatan. Ia dapat membagi tugas besar menjadi ratusan sub-tugas yang dapat dilaksanakan, sambil memproses berbagai jenis data, dan terus meningkatkan efisiensi keputusan serta mengurangi tingkat kesalahan melalui pembelajaran penguatan.
Terobosan Manus sekali lagi memicu diskusi di bidang kecerdasan buatan tentang jalur perkembangan masa depan: apakah akan menuju dominasi kecerdasan buatan umum (AGI), atau dominasi kolaboratif sistem multi-agen (MAS)?
Konsep desain Manus mencakup dua kemungkinan:
Jalur AGI: Meningkatkan tingkat kecerdasan individu secara terus-menerus untuk mendekati kemampuan pengambilan keputusan gabungan manusia.
Jalur MAS: Sebagai koordinator super, mengarahkan banyak agen cerdas di berbagai bidang untuk bekerja sama.
Diskusi ini sebenarnya menyentuh pada masalah inti pengembangan AI: bagaimana mencapai keseimbangan antara efisiensi dan keamanan? Seiring dengan kecerdasan tunggal yang semakin mendekati AGI, risiko ketidaktransparanan dalam proses pengambilan keputusan juga meningkat; sementara kolaborasi multi-agen dapat menyebarkan risiko, namun mungkin kehilangan momen pengambilan keputusan yang krusial akibat keterlambatan komunikasi.
Kemajuan Manus juga menyoroti risiko inheren dalam perkembangan AI. Misalnya, dalam skenario medis, Manus perlu mengakses data sensitif pasien secara real-time; dalam negosiasi keuangan, mungkin melibatkan informasi perusahaan yang belum dipublikasikan. Selain itu, ada masalah bias algoritma, seperti dalam negosiasi perekrutan yang bisa menghasilkan saran gaji yang tidak adil terhadap kelompok tertentu, atau tingkat kesalahan yang tinggi dalam menilai ketentuan industri baru saat melakukan tinjauan kontrak hukum. Risiko potensial lainnya adalah serangan adversarial, misalnya, peretas dapat mengganggu penilaian Manus dalam negosiasi dengan menyisipkan sinyal suara tertentu.
Tantangan ini menyoroti satu masalah kunci: semakin cerdas sistem AI, semakin luas pula potensi permukaan serangannya.
Dalam bidang Web3, keamanan selalu menjadi fokus utama. Berdasarkan prinsip ini, berbagai cara enkripsi telah muncul:
Model keamanan nol kepercayaan: Menekankan verifikasi dan otorisasi identitas yang ketat untuk setiap permintaan akses.
Identitas Desentralisasi (DID): Mewujudkan model identitas digital desentralisasi yang baru.
Enkripsi Homomorfik Penuh (FHE): memungkinkan perhitungan data terenkripsi tanpa mendekripsi data.
Di antaranya, enkripsi homomorfik dianggap sebagai alat yang kuat untuk mengatasi masalah keamanan di era AI. Ini memungkinkan perhitungan pada data yang dienkripsi, memberikan kemungkinan baru untuk melindungi privasi.
Dalam menghadapi tantangan keamanan AI, FHE dapat berperan pada berbagai level:
Aspek data: Semua informasi yang dimasukkan oleh pengguna diproses dalam keadaan terenkripsi, bahkan sistem AI itu sendiri tidak dapat mendekripsi data asli.
Tingkat algoritma: Mewujudkan "pelatihan model terenkripsi" melalui FHE, memastikan proses pengambilan keputusan AI tidak dapat disusupi.
Aspek kolaborasi: Komunikasi antar banyak agen menggunakan enkripsi ambang, untuk mencegah kebocoran data global akibat kebocoran titik tunggal.
Meskipun teknologi keamanan Web3 mungkin saat ini terasa jauh dari pengguna biasa, pentingnya tidak dapat diabaikan. Di bidang yang penuh tantangan ini, hanya dengan memperkuat perlindungan secara terus-menerus, kita dapat menghindari menjadi korban yang berpotensi.
Seiring teknologi AI semakin mendekati tingkat kecerdasan manusia, sistem pertahanan non-tradisional menjadi semakin penting. FHE tidak hanya dapat menyelesaikan masalah keamanan saat ini, tetapi juga meletakkan dasar untuk era AI kuat di masa depan. Di jalan menuju AGI, FHE telah berubah dari pilihan menjadi kebutuhan untuk bertahan hidup.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
6 Suka
Hadiah
6
5
Bagikan
Komentar
0/400
CryptoCross-TalkClub
· 4jam yang lalu
AI ini bagaimana bisa naik lebih cepat daripada suckers
Lihat AsliBalas0
NFT_Therapy
· 4jam yang lalu
Model ini begitu Satoshi, setiap hari mencabut suckers, bagaimana?
Lihat AsliBalas0
MEVictim
· 4jam yang lalu
Masih berjuang dengan AGI, benar-benar membuat saya lelah sekali.
Lihat AsliBalas0
SandwichHunter
· 4jam yang lalu
Sakit kepala AGI terlalu membingungkan.
Lihat AsliBalas0
ForkPrince
· 5jam yang lalu
Siapa yang lagi main monster level tinggi di rumah ini?
Model Manus Melampaui Tingkat Memicu Perdebatan Jalur Pengembangan AI
Manus mencapai hasil SOTA Benchmark GAIA, memicu diskusi tentang jalur pengembangan AI
Manus menunjukkan kinerja yang luar biasa dalam pengujian Benchmark GAIA, melampaui model besar sekelasnya. Ini berarti ia dapat menangani tugas kompleks secara mandiri, seperti negosiasi bisnis lintas negara, yang melibatkan analisis ketentuan kontrak, perumusan strategi, dan pengembangan rencana. Kelebihan Manus terletak pada kemampuannya dalam pemecahan tujuan dinamis, penalaran multimodal, dan pembelajaran dengan penguatan. Ia dapat membagi tugas besar menjadi ratusan sub-tugas yang dapat dilaksanakan, sambil memproses berbagai jenis data, dan terus meningkatkan efisiensi keputusan serta mengurangi tingkat kesalahan melalui pembelajaran penguatan.
Terobosan Manus sekali lagi memicu diskusi di bidang kecerdasan buatan tentang jalur perkembangan masa depan: apakah akan menuju dominasi kecerdasan buatan umum (AGI), atau dominasi kolaboratif sistem multi-agen (MAS)?
Konsep desain Manus mencakup dua kemungkinan:
Jalur AGI: Meningkatkan tingkat kecerdasan individu secara terus-menerus untuk mendekati kemampuan pengambilan keputusan gabungan manusia.
Jalur MAS: Sebagai koordinator super, mengarahkan banyak agen cerdas di berbagai bidang untuk bekerja sama.
Diskusi ini sebenarnya menyentuh pada masalah inti pengembangan AI: bagaimana mencapai keseimbangan antara efisiensi dan keamanan? Seiring dengan kecerdasan tunggal yang semakin mendekati AGI, risiko ketidaktransparanan dalam proses pengambilan keputusan juga meningkat; sementara kolaborasi multi-agen dapat menyebarkan risiko, namun mungkin kehilangan momen pengambilan keputusan yang krusial akibat keterlambatan komunikasi.
Kemajuan Manus juga menyoroti risiko inheren dalam perkembangan AI. Misalnya, dalam skenario medis, Manus perlu mengakses data sensitif pasien secara real-time; dalam negosiasi keuangan, mungkin melibatkan informasi perusahaan yang belum dipublikasikan. Selain itu, ada masalah bias algoritma, seperti dalam negosiasi perekrutan yang bisa menghasilkan saran gaji yang tidak adil terhadap kelompok tertentu, atau tingkat kesalahan yang tinggi dalam menilai ketentuan industri baru saat melakukan tinjauan kontrak hukum. Risiko potensial lainnya adalah serangan adversarial, misalnya, peretas dapat mengganggu penilaian Manus dalam negosiasi dengan menyisipkan sinyal suara tertentu.
Tantangan ini menyoroti satu masalah kunci: semakin cerdas sistem AI, semakin luas pula potensi permukaan serangannya.
Dalam bidang Web3, keamanan selalu menjadi fokus utama. Berdasarkan prinsip ini, berbagai cara enkripsi telah muncul:
Model keamanan nol kepercayaan: Menekankan verifikasi dan otorisasi identitas yang ketat untuk setiap permintaan akses.
Identitas Desentralisasi (DID): Mewujudkan model identitas digital desentralisasi yang baru.
Enkripsi Homomorfik Penuh (FHE): memungkinkan perhitungan data terenkripsi tanpa mendekripsi data.
Di antaranya, enkripsi homomorfik dianggap sebagai alat yang kuat untuk mengatasi masalah keamanan di era AI. Ini memungkinkan perhitungan pada data yang dienkripsi, memberikan kemungkinan baru untuk melindungi privasi.
Dalam menghadapi tantangan keamanan AI, FHE dapat berperan pada berbagai level:
Aspek data: Semua informasi yang dimasukkan oleh pengguna diproses dalam keadaan terenkripsi, bahkan sistem AI itu sendiri tidak dapat mendekripsi data asli.
Tingkat algoritma: Mewujudkan "pelatihan model terenkripsi" melalui FHE, memastikan proses pengambilan keputusan AI tidak dapat disusupi.
Aspek kolaborasi: Komunikasi antar banyak agen menggunakan enkripsi ambang, untuk mencegah kebocoran data global akibat kebocoran titik tunggal.
Meskipun teknologi keamanan Web3 mungkin saat ini terasa jauh dari pengguna biasa, pentingnya tidak dapat diabaikan. Di bidang yang penuh tantangan ini, hanya dengan memperkuat perlindungan secara terus-menerus, kita dapat menghindari menjadi korban yang berpotensi.
Seiring teknologi AI semakin mendekati tingkat kecerdasan manusia, sistem pertahanan non-tradisional menjadi semakin penting. FHE tidak hanya dapat menyelesaikan masalah keamanan saat ini, tetapi juga meletakkan dasar untuk era AI kuat di masa depan. Di jalan menuju AGI, FHE telah berubah dari pilihan menjadi kebutuhan untuk bertahan hidup.