Projek OpenTPU Teruskan Pembangunan Selepas 8 Tahun, Komuniti Membincangkan Evolusi Cip AI Google

BigGo Editorial Team
Projek OpenTPU Teruskan Pembangunan Selepas 8 Tahun, Komuniti Membincangkan Evolusi Cip AI Google

Projek OpenTPU daripada UC Santa Barbara ArchLab , sebuah pelaksanaan sumber terbuka bagi Tensor Processing Unit Google , telah secara senyap-senyap meneruskan pembangunan selama hampir lapan tahun sejak keluaran awalnya. Perbincangan komuniti terkini telah menyerlahkan kedua-dua kegigihan projek ini dan evolusi pesat teknologi TPU Google sejak kertas kerja asal 2017 yang mengilhamkan usaha akademik ini.

Projek Menunjukkan Ketahanan Mengejutkan Walaupun Berusia

Walaupun repositori OpenTPU asal kelihatan tidak aktif, ahli komuniti mendapati bahawa pembangunan aktif telah diteruskan dalam cabang projek, dengan komit seawal tiga jam sebelum perbincangan. Kegigihan ini luar biasa untuk projek akademik yang bermula sebagai usaha kejuruteraan terbalik berdasarkan maklumat awam terhad tentang cip TPU generasi pertama Google .

Projek ini kekal memfokuskan pada keupayaan inferens sahaja bagi TPU pusat data asal Google , yang direka khusus untuk menjalankan pengiraan rangkaian neural dan bukannya melatihnya. Fokus sempit ini mencerminkan butiran teknikal terhad yang tersedia ketika projek bermula, kerana Google belum menerbitkan spesifikasi komprehensif untuk silikon tersuai mereka.

Set Arahan OpenTPU:

  • RHM: Read Host Memory - Baca N vektor dari memori hos ke Unified Buffer
  • WHM: Write Host Memory - Tulis N vektor dari UB ke memori hos
  • RW: Read Weights - Muatkan jubin berat dari DRAM
  • MMC: Matrix Multiply/Convolution - Lakukan operasi matriks
  • ACT: Activate - Gunakan fungsi pengaktifan (ReLU, sigmoid)
  • NOP: Tiada operasi
  • HALT: Hentikan simulasi

Komuniti Menyerlahkan Kekeliruan Mengenai Generasi TPU

Perbincangan teknikal mendedahkan kekeliruan meluas tentang jenis TPU berbeza yang telah dibangunkan oleh Google selama bertahun-tahun. Ahli komuniti menyatakan bahawa ramai orang mengelirukan peranti Edge TPU Google , yang direka untuk aplikasi mudah alih dan terbenam, dengan TPU pusat data besar yang digunakan untuk melatih model AI besar.

Laman web ini mengelirukan enjin inferens dalam Edge TPU dengan TPU pusat data. Mereka adalah dua projek yang tidak berkaitan.

Kekeliruan ini berpunca daripada penggunaan jenama TPU oleh Google merentasi kategori produk yang sangat berbeza, daripada cip pengkomputeran tepi kecil hingga kluster superkomputer sebesar bilik.

Keupayaan TPU Moden Jauh Melebihi Reka Bentuk Asal

Kontras antara keupayaan OpenTPU dan TPU Google moden menggambarkan betapa cepatnya perkakasan AI telah berkembang. Walaupun OpenTPU menyokong pendaraban matriks asas dan fungsi pengaktifan mudah seperti ReLU dan sigmoid, ia tidak mempunyai operasi konvolusi, pengumpulan, dan normalisasi boleh atur cara yang standard dalam pemecut AI kontemporari.

TPU Google moden telah berkembang jauh melampaui reka bentuk inferens sahaja yang mengilhamkan OpenTPU . Generasi semasa mengendalikan kedua-dua latihan dan inferens untuk model bahasa besar, dengan sistem TPU v4 menawarkan lebih 1,200 GB/s lebar jalur memori berbanding spesifikasi yang lebih sederhana bagi TPU asal 2015.

Perbandingan Evolusi TPU:

Generasi Lebar Jalur Memori Kegunaan Utama Tahun
TPU v1 (Asal) Tidak dinyatakan Inferens sahaja 2015
TPU v3 900 GB/s Latihan & Inferens ~2018
TPU v4 1,200 GB/s Latihan & Inferens ~2020

Nilai Akademik Berterusan Walaupun Jurang Teknologi

Walaupun berdasarkan teknologi hampir sedekad lalu, OpenTPU terus berkhidmat untuk tujuan pendidikan bagi pelajar dan penyelidik yang mengkaji seni bina komputer. Projek ini menyediakan pelaksanaan lengkap dan berfungsi yang menunjukkan konsep asas tatasusunan sistolik, hierarki memori khusus, dan model pelaksanaan deterministik yang kekal relevan dalam reka bentuk pemecut AI moden.

Penggunaan PyRTL oleh projek untuk penerangan perkakasan juga menjadikannya mudah diakses oleh penyelidik yang mungkin tidak biasa dengan bahasa penerangan perkakasan tradisional seperti Verilog atau VHDL .

Spesifikasi Teknikal OpenTPU:

  • Unit pendaraban matriks: Susunan boleh parameter bagi pendarab integer 8-bit
  • Konfigurasi lalai: Saiz matriks 8x8 atau 16x16 (boleh dikonfigurasi sehingga 256x256)
  • Memori: Penimbal Bersatu dan Penimbal Pengumpul (saiz boleh dikonfigurasi)
  • Operasi yang disokong: Pendaraban matriks, pengaktifan ReLU, sigmoid
  • Ciri yang tiada: Konvolusi, pengumpulan, normalisasi boleh program

Hala Tuju Masa Depan dan Teknologi Baru Muncul

Perbincangan komuniti telah berkembang melampaui pelaksanaan silikon tradisional untuk meneroka alternatif eksotik seperti pemproses berasaskan tiub nano karbon dan unit pemprosesan kuantum. Penyelidikan terkini mencadangkan bahawa TPU yang dibina dengan transistor tiub nano karbon berpotensi mencapai 1 tera-operasi sesaat setiap watt pada nod pembuatan lama, walaupun teknologi sedemikian kekal sebahagian besarnya eksperimen.

Projek OpenTPU berdiri sebagai bukti nilai penyelidikan perkakasan sumber terbuka, walaupun berdasarkan maklumat tidak lengkap tentang reka bentuk proprietari. Walaupun ia mungkin tidak akan menyamai keupayaan generasi TPU Google terkini, ia terus memberikan wawasan tentang prinsip asas yang memacu pecutan AI moden.

Rujukan: UCSB ArchLab OpenTPU Project