Model AI Besar: Sebuah Revolusi yang Dipicu oleh Masalah Teknik
Bulan lalu, dunia AI mengguncang dengan "Perang Binatang".
Di satu sisi ada model seri Llama yang diluncurkan oleh Meta, yang sangat disukai oleh para pengembang karena sifat open source-nya. Perusahaan Jepang NEC dengan cepat mengembangkan versi bahasa Jepang dari ChatGPT berdasarkan makalah dan kode Llama, yang menyelesaikan kendala teknologi Jepang di bidang AI.
Sisi lain adalah model besar bernama Falcon. Pada bulan Mei tahun ini, Falcon-40B diluncurkan, langsung melampaui Llama dan menduduki puncak "peringkat model bahasa sumber terbuka". Peringkat ini dibuat oleh komunitas sumber terbuka Hugging Face, untuk memberikan standar dalam mengevaluasi kemampuan LLM. Sejak saat itu, Llama dan Falcon secara bergantian memperbarui peringkat.
Awal September, Falcon meluncurkan versi 180B, sekali lagi menduduki puncak daftar. Menariknya, pengembang Falcon bukanlah perusahaan teknologi, melainkan lembaga penelitian inovasi teknologi yang berlokasi di Abu Dhabi. Pejabat UEA menyatakan bahwa mereka terlibat dalam kompetisi AI untuk mengubah tatanan yang ada.
Saat ini, bidang AI telah memasuki tahap persaingan yang ketat. Setiap negara dan perusahaan yang memiliki kekuatan tertentu, sedang mencoba untuk menciptakan versi lokal ChatGPT. Hanya di negara-negara Teluk saja terdapat beberapa pemain, Arab Saudi baru-baru ini mengadakan pengadaan lebih dari 3000 chip H100 untuk pelatihan LLM di universitas-universitas domestiknya.
Seorang investor mengeluh: "Dulu meremehkan inovasi model bisnis internet, merasa tidak ada hambatan. Tak disangka, startup model besar teknologi keras masih mengalami perang seratus model..."
Mengapa teknologi keras yang awalnya dianggap sulit telah berkembang menjadi situasi "satu negara, satu model"?
Transformer: Mesin Revolusi AI
Perusahaan rintisan Amerika, raksasa teknologi China, dan taipan minyak Timur Tengah semua terjun ke dalam pengembangan model besar, yang semuanya berasal dari sebuah makalah terkenal: "Attention Is All You Need."
Pada tahun 2017, delapan ilmuwan Google mempublikasikan algoritma Transformer dalam makalah ini. Makalah ini saat ini adalah artikel yang paling banyak dikutip ketiga dalam sejarah AI, kemunculan Transformer telah memicu gelombang panas AI ini.
Model-model besar saat ini, termasuk seri GPT yang menggemparkan dunia, dibangun di atas dasar Transformer.
Sebelumnya, "mengajarkan mesin untuk membaca" telah diakui sebagai masalah yang sulit di kalangan akademis. Berbeda dengan pengenalan gambar, manusia menggabungkan konteks untuk memahami saat membaca. Jaringan saraf awal sulit untuk menangani teks panjang, sering muncul masalah seperti "open water room" diterjemahkan dari "开水间".
Pada tahun 2014, ilmuwan Google Ilia pertama kali menggunakan jaringan syaraf berulang (RNN) untuk memproses bahasa alami, secara signifikan meningkatkan kinerja Google Translate. RNN memberikan kemampuan kepada jaringan syaraf untuk memahami konteks melalui "desain berulang".
Namun, RNN memiliki kekurangan serius: perhitungan berurutan menyebabkan efisiensi rendah dan sulit untuk menangani sejumlah besar parameter. Sejak 2015, ilmuwan Google, Vaswani dan rekan-rekannya, mulai mengembangkan pengganti RNN, yang akhirnya melahirkan Transformer.
Dibandingkan dengan RNN, Transformer memiliki dua inovasi besar: yang pertama adalah menggunakan pengkodean posisi untuk mewujudkan komputasi paralel, yang secara signifikan meningkatkan efisiensi pelatihan; yang kedua adalah semakin memperkuat kemampuan pemahaman konteks.
Transformer secara langsung menyelesaikan berbagai masalah dan secara bertahap menjadi solusi utama di bidang NLP. Ini mengubah model besar dari penelitian teoretis menjadi masalah rekayasa murni.
Pada tahun 2019, OpenAI mengembangkan GPT-2 berdasarkan Transformer. Sebagai tanggapan, Google dengan cepat meluncurkan Meena yang memiliki kinerja jauh lebih kuat. Meena hanya unggul secara signifikan dalam parameter dan daya komputasi dibandingkan GPT-2, tanpa inovasi algoritma dasar. Ini membuat penulis Transformer, Szegedy, terkesan dengan kekuatan "penumpukan yang agresif".
Setelah Transformer muncul, kecepatan inovasi algoritma dasar di kalangan akademisi melambat. Elemen-elemen rekayasa seperti rekayasa data, skala komputasi, dan arsitektur model semakin menjadi kunci dalam kompetisi AI. Selama sebuah perusahaan memiliki kekuatan teknis tertentu, mereka dapat mengembangkan model besar.
Ahli AI, Andrew Ng, percaya bahwa AI telah menjadi serangkaian alat teknologi umum, mirip dengan listrik dan internet.
Meskipun OpenAI masih menjadi pemimpin dalam LLM, analisis industri menunjukkan bahwa keunggulan GPT-4 terutama berasal dari solusi rekayasa. Begitu open source, pesaing dapat dengan cepat menyalin. Diperkirakan dalam waktu dekat, perusahaan teknologi besar lainnya juga akan dapat membangun model besar yang setara dengan kinerja GPT-4.
Parit Pertahanan yang Rentan
Saat ini, "perang model besar" telah menjadi kenyataan. Laporan menunjukkan, sampai Juli tahun ini, jumlah model besar di China mencapai 130, melampaui 114 di Amerika Serikat. Berbagai mitos dan legenda tidak lagi cukup untuk digunakan oleh perusahaan teknologi domestik dalam penamaan.
Selain China dan Amerika Serikat, banyak negara maju juga telah secara awal mencapai "satu negara satu model": Jepang, Uni Emirat Arab, India, Korea Selatan, dan lain-lain telah meluncurkan model besar lokal. Adegan ini seolah kembali ke era gelembung internet, di mana "membakar uang" menjadi cara utama untuk berkompetisi.
Transformer membuat model besar menjadi masalah teknik murni, asalkan ada tenaga dan sumber daya, pengembangan dapat dilakukan. Namun, masuk ke dalam industri ini mudah, tetapi menjadi raksasa di era AI sangat sulit.
Kasus yang disebutkan sebelumnya tentang "Perang Binatang" adalah contoh yang khas: Falcon meskipun menduduki peringkat di atas Llama, namun dampaknya terhadap Meta terbatas.
Hasil penelitian ilmiah sumber terbuka perusahaan, adalah untuk berbagi kesejahteraan teknologi, juga berharap dapat menggerakkan kecerdasan sosial. Dengan semakin banyaknya pihak yang menggunakan dan memperbaiki Llama, Meta dapat menerapkan hasil tersebut pada produk mereka sendiri.
Untuk model besar sumber terbuka, komunitas pengembang yang aktif adalah kekuatan kompetitif inti.
Meta telah menetapkan kebijakan sumber terbuka sejak membentuk laboratorium AI pada tahun 2015. Zuckerberg sangat memahami cara "membangun hubungan baik dengan masyarakat". Pada bulan Oktober, Meta juga meluncurkan program "Insentif Kreator AI", yang mendanai pengembang yang menggunakan Llama 2 untuk menyelesaikan masalah sosial.
Saat ini, seri Llama dari Meta telah menjadi acuan untuk LLM sumber terbuka. Hingga awal Oktober, 8 dari 10 teratas di peringkat Hugging Face dikembangkan berdasarkan Llama 2, dengan lebih dari 1500 LLM yang menggunakan protokol sumber terbukanya.
Meningkatkan kinerja memang penting, tetapi saat ini sebagian besar LLM masih memiliki perbedaan yang jelas dibandingkan dengan GPT-4. Dalam pengujian AgentBench terbaru, GPT-4 meraih skor tertinggi dengan 4.41, sementara posisi kedua, Claude, hanya mendapatkan 2.77, dan LLM sumber terbuka kebanyakan berada di sekitar 1.
Peluncuran GPT-4 telah lebih dari enam bulan, rekan-rekan di seluruh dunia masih sulit untuk menyusul. Ini berasal dari tim ilmuwan terkemuka OpenAI dan pengalaman penelitian LLM yang telah terakumulasi selama bertahun-tahun.
Terlihat, kemampuan inti dari model besar terletak pada pembangunan ekosistem ( sumber terbuka ) atau murni kemampuan inferensi ( tertutup ), bukan sekadar tumpukan parameter yang sederhana.
Dengan meningkatnya aktivitas komunitas sumber terbuka, kinerja berbagai LLM mungkin akan serupa, karena semua orang menggunakan arsitektur model dan dataset yang mirip.
Tantangan yang lebih jelas adalah: selain Midjourney, tampaknya belum ada model besar lain yang dapat menghasilkan keuntungan.
Titik Jangkar Nilai
Pada bulan Agustus tahun ini, sebuah artikel berjudul "OpenAI Mungkin Bangkrut pada Akhir 2024" menarik perhatian. Poin utama adalah: OpenAI membakar uang terlalu cepat.
Artikel tersebut menyebutkan, sejak mengembangkan ChatGPT, kerugian OpenAI semakin meluas, dengan kerugian sekitar 540 juta dolar AS pada tahun 2022, dan hanya dapat mengandalkan investasi dari Microsoft.
Ini mencerminkan dilema umum yang dihadapi oleh penyedia model besar: ketidakseimbangan yang serius antara biaya dan pendapatan.
Biaya yang tinggi menyebabkan saat ini penerima manfaat utama adalah produsen chip seperti Nvidia dan Broadcom.
Diperkirakan, Nvidia menjual lebih dari 300.000 chip AI H100 pada kuartal kedua tahun ini, dengan berat setara dengan 4,5 pesawat Boeing 747. Kinerja Nvidia melonjak 854%, mengejutkan Wall Street. Harga pasar chip H100 bekas telah melonjak menjadi 40.000-50.000 dolar AS, sementara biaya produksinya hanya lebih dari 3.000 dolar AS.
Biaya komputasi telah menjadi penghalang bagi perkembangan industri. Sequoia Capital memperkirakan: perusahaan teknologi global akan menghabiskan 200 miliar USD setiap tahun untuk membangun infrastruktur model besar, tetapi pendapatan tahunan model besar hanya mencapai 75 miliar USD, sehingga terdapat kekurangan minimal 125 miliar USD.
Kecuali beberapa pengecualian, sebagian besar perusahaan perangkat lunak masih belum menemukan model keuntungan setelah mengeluarkan biaya besar. Bahkan pemimpin industri seperti Microsoft dan Adobe juga menghadapi tantangan.
GitHub Copilot yang dikembangkan oleh Microsoft bekerja sama dengan OpenAI, dikenakan biaya 10 dolar per bulan tetapi merugi 20 dolar, pengguna berat bahkan membuat Microsoft merugi 80 dolar per bulan. Microsoft 365 Copilot yang baru diluncurkan dihargai 30 dolar, kerugiannya mungkin lebih besar.
Setelah meluncurkan alat AI Firefly, Adobe dengan cepat meluncurkan sistem poin untuk membatasi penggunaan berlebihan oleh pengguna yang dapat menyebabkan kerugian bagi perusahaan. Setelah melebihi poin yang dialokasikan setiap bulan, Adobe akan mengurangi kecepatan layanan.
Microsoft dan Adobe telah memiliki skenario bisnis yang jelas serta banyak pengguna berbayar. Sementara itu, sebagian besar model besar yang terakumulasi parameternya masih memiliki skenario aplikasi terbesar dalam obrolan.
Kemunculan OpenAI dan ChatGPT telah memicu revolusi AI ini, tetapi nilai pelatihan model besar pada tahap ini diragukan. Dengan meningkatnya persaingan yang homogen dan semakin banyaknya model sumber terbuka, ruang penyedia model besar yang murni mungkin akan semakin menyusut.
Keberhasilan iPhone 4 bukan terletak pada prosesor A4 dengan proses 45nm, tetapi pada kemampuannya untuk memainkan "Plants vs. Zombies" dan "Angry Birds."
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Kompetisi model AI besar semakin memanas: penghalang teknologi menurun, masalah bisnis semakin menonjol
Model AI Besar: Sebuah Revolusi yang Dipicu oleh Masalah Teknik
Bulan lalu, dunia AI mengguncang dengan "Perang Binatang".
Di satu sisi ada model seri Llama yang diluncurkan oleh Meta, yang sangat disukai oleh para pengembang karena sifat open source-nya. Perusahaan Jepang NEC dengan cepat mengembangkan versi bahasa Jepang dari ChatGPT berdasarkan makalah dan kode Llama, yang menyelesaikan kendala teknologi Jepang di bidang AI.
Sisi lain adalah model besar bernama Falcon. Pada bulan Mei tahun ini, Falcon-40B diluncurkan, langsung melampaui Llama dan menduduki puncak "peringkat model bahasa sumber terbuka". Peringkat ini dibuat oleh komunitas sumber terbuka Hugging Face, untuk memberikan standar dalam mengevaluasi kemampuan LLM. Sejak saat itu, Llama dan Falcon secara bergantian memperbarui peringkat.
Awal September, Falcon meluncurkan versi 180B, sekali lagi menduduki puncak daftar. Menariknya, pengembang Falcon bukanlah perusahaan teknologi, melainkan lembaga penelitian inovasi teknologi yang berlokasi di Abu Dhabi. Pejabat UEA menyatakan bahwa mereka terlibat dalam kompetisi AI untuk mengubah tatanan yang ada.
Saat ini, bidang AI telah memasuki tahap persaingan yang ketat. Setiap negara dan perusahaan yang memiliki kekuatan tertentu, sedang mencoba untuk menciptakan versi lokal ChatGPT. Hanya di negara-negara Teluk saja terdapat beberapa pemain, Arab Saudi baru-baru ini mengadakan pengadaan lebih dari 3000 chip H100 untuk pelatihan LLM di universitas-universitas domestiknya.
Seorang investor mengeluh: "Dulu meremehkan inovasi model bisnis internet, merasa tidak ada hambatan. Tak disangka, startup model besar teknologi keras masih mengalami perang seratus model..."
Mengapa teknologi keras yang awalnya dianggap sulit telah berkembang menjadi situasi "satu negara, satu model"?
Transformer: Mesin Revolusi AI
Perusahaan rintisan Amerika, raksasa teknologi China, dan taipan minyak Timur Tengah semua terjun ke dalam pengembangan model besar, yang semuanya berasal dari sebuah makalah terkenal: "Attention Is All You Need."
Pada tahun 2017, delapan ilmuwan Google mempublikasikan algoritma Transformer dalam makalah ini. Makalah ini saat ini adalah artikel yang paling banyak dikutip ketiga dalam sejarah AI, kemunculan Transformer telah memicu gelombang panas AI ini.
Model-model besar saat ini, termasuk seri GPT yang menggemparkan dunia, dibangun di atas dasar Transformer.
Sebelumnya, "mengajarkan mesin untuk membaca" telah diakui sebagai masalah yang sulit di kalangan akademis. Berbeda dengan pengenalan gambar, manusia menggabungkan konteks untuk memahami saat membaca. Jaringan saraf awal sulit untuk menangani teks panjang, sering muncul masalah seperti "open water room" diterjemahkan dari "开水间".
Pada tahun 2014, ilmuwan Google Ilia pertama kali menggunakan jaringan syaraf berulang (RNN) untuk memproses bahasa alami, secara signifikan meningkatkan kinerja Google Translate. RNN memberikan kemampuan kepada jaringan syaraf untuk memahami konteks melalui "desain berulang".
Namun, RNN memiliki kekurangan serius: perhitungan berurutan menyebabkan efisiensi rendah dan sulit untuk menangani sejumlah besar parameter. Sejak 2015, ilmuwan Google, Vaswani dan rekan-rekannya, mulai mengembangkan pengganti RNN, yang akhirnya melahirkan Transformer.
Dibandingkan dengan RNN, Transformer memiliki dua inovasi besar: yang pertama adalah menggunakan pengkodean posisi untuk mewujudkan komputasi paralel, yang secara signifikan meningkatkan efisiensi pelatihan; yang kedua adalah semakin memperkuat kemampuan pemahaman konteks.
Transformer secara langsung menyelesaikan berbagai masalah dan secara bertahap menjadi solusi utama di bidang NLP. Ini mengubah model besar dari penelitian teoretis menjadi masalah rekayasa murni.
Pada tahun 2019, OpenAI mengembangkan GPT-2 berdasarkan Transformer. Sebagai tanggapan, Google dengan cepat meluncurkan Meena yang memiliki kinerja jauh lebih kuat. Meena hanya unggul secara signifikan dalam parameter dan daya komputasi dibandingkan GPT-2, tanpa inovasi algoritma dasar. Ini membuat penulis Transformer, Szegedy, terkesan dengan kekuatan "penumpukan yang agresif".
Setelah Transformer muncul, kecepatan inovasi algoritma dasar di kalangan akademisi melambat. Elemen-elemen rekayasa seperti rekayasa data, skala komputasi, dan arsitektur model semakin menjadi kunci dalam kompetisi AI. Selama sebuah perusahaan memiliki kekuatan teknis tertentu, mereka dapat mengembangkan model besar.
Ahli AI, Andrew Ng, percaya bahwa AI telah menjadi serangkaian alat teknologi umum, mirip dengan listrik dan internet.
Meskipun OpenAI masih menjadi pemimpin dalam LLM, analisis industri menunjukkan bahwa keunggulan GPT-4 terutama berasal dari solusi rekayasa. Begitu open source, pesaing dapat dengan cepat menyalin. Diperkirakan dalam waktu dekat, perusahaan teknologi besar lainnya juga akan dapat membangun model besar yang setara dengan kinerja GPT-4.
Parit Pertahanan yang Rentan
Saat ini, "perang model besar" telah menjadi kenyataan. Laporan menunjukkan, sampai Juli tahun ini, jumlah model besar di China mencapai 130, melampaui 114 di Amerika Serikat. Berbagai mitos dan legenda tidak lagi cukup untuk digunakan oleh perusahaan teknologi domestik dalam penamaan.
Selain China dan Amerika Serikat, banyak negara maju juga telah secara awal mencapai "satu negara satu model": Jepang, Uni Emirat Arab, India, Korea Selatan, dan lain-lain telah meluncurkan model besar lokal. Adegan ini seolah kembali ke era gelembung internet, di mana "membakar uang" menjadi cara utama untuk berkompetisi.
Transformer membuat model besar menjadi masalah teknik murni, asalkan ada tenaga dan sumber daya, pengembangan dapat dilakukan. Namun, masuk ke dalam industri ini mudah, tetapi menjadi raksasa di era AI sangat sulit.
Kasus yang disebutkan sebelumnya tentang "Perang Binatang" adalah contoh yang khas: Falcon meskipun menduduki peringkat di atas Llama, namun dampaknya terhadap Meta terbatas.
Hasil penelitian ilmiah sumber terbuka perusahaan, adalah untuk berbagi kesejahteraan teknologi, juga berharap dapat menggerakkan kecerdasan sosial. Dengan semakin banyaknya pihak yang menggunakan dan memperbaiki Llama, Meta dapat menerapkan hasil tersebut pada produk mereka sendiri.
Untuk model besar sumber terbuka, komunitas pengembang yang aktif adalah kekuatan kompetitif inti.
Meta telah menetapkan kebijakan sumber terbuka sejak membentuk laboratorium AI pada tahun 2015. Zuckerberg sangat memahami cara "membangun hubungan baik dengan masyarakat". Pada bulan Oktober, Meta juga meluncurkan program "Insentif Kreator AI", yang mendanai pengembang yang menggunakan Llama 2 untuk menyelesaikan masalah sosial.
Saat ini, seri Llama dari Meta telah menjadi acuan untuk LLM sumber terbuka. Hingga awal Oktober, 8 dari 10 teratas di peringkat Hugging Face dikembangkan berdasarkan Llama 2, dengan lebih dari 1500 LLM yang menggunakan protokol sumber terbukanya.
Meningkatkan kinerja memang penting, tetapi saat ini sebagian besar LLM masih memiliki perbedaan yang jelas dibandingkan dengan GPT-4. Dalam pengujian AgentBench terbaru, GPT-4 meraih skor tertinggi dengan 4.41, sementara posisi kedua, Claude, hanya mendapatkan 2.77, dan LLM sumber terbuka kebanyakan berada di sekitar 1.
Peluncuran GPT-4 telah lebih dari enam bulan, rekan-rekan di seluruh dunia masih sulit untuk menyusul. Ini berasal dari tim ilmuwan terkemuka OpenAI dan pengalaman penelitian LLM yang telah terakumulasi selama bertahun-tahun.
Terlihat, kemampuan inti dari model besar terletak pada pembangunan ekosistem ( sumber terbuka ) atau murni kemampuan inferensi ( tertutup ), bukan sekadar tumpukan parameter yang sederhana.
Dengan meningkatnya aktivitas komunitas sumber terbuka, kinerja berbagai LLM mungkin akan serupa, karena semua orang menggunakan arsitektur model dan dataset yang mirip.
Tantangan yang lebih jelas adalah: selain Midjourney, tampaknya belum ada model besar lain yang dapat menghasilkan keuntungan.
Titik Jangkar Nilai
Pada bulan Agustus tahun ini, sebuah artikel berjudul "OpenAI Mungkin Bangkrut pada Akhir 2024" menarik perhatian. Poin utama adalah: OpenAI membakar uang terlalu cepat.
Artikel tersebut menyebutkan, sejak mengembangkan ChatGPT, kerugian OpenAI semakin meluas, dengan kerugian sekitar 540 juta dolar AS pada tahun 2022, dan hanya dapat mengandalkan investasi dari Microsoft.
Ini mencerminkan dilema umum yang dihadapi oleh penyedia model besar: ketidakseimbangan yang serius antara biaya dan pendapatan.
Biaya yang tinggi menyebabkan saat ini penerima manfaat utama adalah produsen chip seperti Nvidia dan Broadcom.
Diperkirakan, Nvidia menjual lebih dari 300.000 chip AI H100 pada kuartal kedua tahun ini, dengan berat setara dengan 4,5 pesawat Boeing 747. Kinerja Nvidia melonjak 854%, mengejutkan Wall Street. Harga pasar chip H100 bekas telah melonjak menjadi 40.000-50.000 dolar AS, sementara biaya produksinya hanya lebih dari 3.000 dolar AS.
Biaya komputasi telah menjadi penghalang bagi perkembangan industri. Sequoia Capital memperkirakan: perusahaan teknologi global akan menghabiskan 200 miliar USD setiap tahun untuk membangun infrastruktur model besar, tetapi pendapatan tahunan model besar hanya mencapai 75 miliar USD, sehingga terdapat kekurangan minimal 125 miliar USD.
Kecuali beberapa pengecualian, sebagian besar perusahaan perangkat lunak masih belum menemukan model keuntungan setelah mengeluarkan biaya besar. Bahkan pemimpin industri seperti Microsoft dan Adobe juga menghadapi tantangan.
GitHub Copilot yang dikembangkan oleh Microsoft bekerja sama dengan OpenAI, dikenakan biaya 10 dolar per bulan tetapi merugi 20 dolar, pengguna berat bahkan membuat Microsoft merugi 80 dolar per bulan. Microsoft 365 Copilot yang baru diluncurkan dihargai 30 dolar, kerugiannya mungkin lebih besar.
Setelah meluncurkan alat AI Firefly, Adobe dengan cepat meluncurkan sistem poin untuk membatasi penggunaan berlebihan oleh pengguna yang dapat menyebabkan kerugian bagi perusahaan. Setelah melebihi poin yang dialokasikan setiap bulan, Adobe akan mengurangi kecepatan layanan.
Microsoft dan Adobe telah memiliki skenario bisnis yang jelas serta banyak pengguna berbayar. Sementara itu, sebagian besar model besar yang terakumulasi parameternya masih memiliki skenario aplikasi terbesar dalam obrolan.
Kemunculan OpenAI dan ChatGPT telah memicu revolusi AI ini, tetapi nilai pelatihan model besar pada tahap ini diragukan. Dengan meningkatnya persaingan yang homogen dan semakin banyaknya model sumber terbuka, ruang penyedia model besar yang murni mungkin akan semakin menyusut.
Keberhasilan iPhone 4 bukan terletak pada prosesor A4 dengan proses 45nm, tetapi pada kemampuannya untuk memainkan "Plants vs. Zombies" dan "Angry Birds."