Di tengah perhelatan ETHDenver 2026, diskusi mengenai pentingnya infrastruktur data yang terverifikasi dalam kecerdasan buatan (AI) semakin mengemuka. Ahmed Rashad, CEO Perle Labs, menekankan bahwa untuk meningkatkan kepercayaan dan akuntabilitas dalam sistem AI, diperlukan rantai kepemilikan data pelatihan yang jelas dan dapat diaudit. Dengan pendanaan mencapai $17,5 juta, Perle Labs mengklaim telah mengumpulkan lebih dari satu miliar titik data dari lebih satu juta anotator terverifikasi.
Rashad, yang sebelumnya menjabat di Scale AI, berbicara tentang tantangan yang dihadapi industri AI saat ini, termasuk masalah akuntabilitas dan “model collapse,” di mana kualitas data dapat menurun akibat pelatihan yang terlalu bergantung pada data sintetis. Dia berargumen bahwa institusi yang menggunakan AI di lingkungan berisiko tinggi, seperti rumah sakit atau badan keamanan, harus memiliki kendali penuh atas data yang digunakan untuk melatih sistem mereka.
“Kata berdaulat memang sengaja dipilih karena memiliki makna yang dalam. Ini bukan hanya tentang kontrol, tetapi juga tentang kemandirian dan akuntabilitas,” jelas Rashad. “Dalam konteks kesehatan atau pertahanan, Anda tidak bisa mengandalkan sistem yang tidak dapat diaudit.”
Pentingnya Infrastruktur Data Terverifikasi
Perle Labs menawarkan solusi dengan membangun lapisan verifikasi untuk kredensial data pelatihan yang digunakan oleh AI. Rashad menekankan bahwa dalam dunia yang semakin bergantung pada AI, kejelasan mengenai sumber data menjadi sangat penting. Setiap kontribusi dari anotator dicatat secara permanen di blockchain, sehingga transparansi dan akuntabilitas dapat terjamin. “Kami ingin memastikan bahwa setiap titik data dapat dilacak kembali kepada para profesional yang sudah terverifikasi dan memiliki kredensial,” katanya.
Perle Labs telah menarik perhatian investor besar, termasuk Framework Ventures dan CoinFund. Dengan lebih dari satu juta anotator yang berkontribusi, mereka telah membangun jaringan yang dapat diandalkan untuk memberikan data pelatihan berkualitas tinggi. “Model kami berfokus pada kualitas, bukan hanya kuantitas,” tambah Rashad.
Risiko dan Tantangan dalam Penggunaan AI
Rashad juga menyoroti masalah yang sering diabaikan, yaitu “model collapse.” Fenomena ini terjadi ketika AI dilatih dengan data yang dihasilkan oleh AI itu sendiri, yang dapat mengarah pada penurunan kualitas. “Proses ini bisa mengikis nilai dan keandalan sistem AI, terutama dalam aplikasi yang berisiko tinggi,” katanya.
Dia mengingatkan bahwa saat ini, banyak sistem AI terancam oleh serangan seperti data poisoning, di mana data pelatihan bisa dimanipulasi secara jahat. Ini menjadi perhatian serius bagi lembaga pemerintah dan perusahaan yang mengoperasikan AI dalam lingkungan sensitif. “Ancaman ini nyata dan harus dihadapi dengan serius,” ujar Rashad.
Akuntabilitas dalam Pengembangan AI
Ketika AI mulai digunakan dalam sistem fisik, tantangan akuntabilitas akan semakin meningkat. Rashad berargumen bahwa kesalahan dalam sistem yang mengandalkan AI tidak dapat diperbaiki dengan mudah seperti dalam konteks digital. “Jika sebuah kendaraan otonom membuat kesalahan, tidak ada tombol undo. Ini bisa berakibat fatal,” jelasnya.
Dia menekankan bahwa institusi yang tidak dapat menjelaskan asal-usul data dan proses pelatihannya akan menghadapi risiko hukum yang signifikan. “Kami menciptakan Perle untuk memastikan bahwa setiap langkah dalam proses data dapat diaudit dan diverifikasi,” tambahnya.
Keberagaman Data dan Kualitas
Rashad juga memperhatikan pentingnya keberagaman dalam data pelatihan AI. “Kita membutuhkan sumber data yang benar-benar beragam dan asli, bukan hanya hasil dari data sintetis,” katanya. Dengan lebih dari satu juta anotator, Perle Labs berupaya untuk menghadirkan perspektif yang lebih luas dalam pengumpulan data.
“Kualitas data tidak bisa dicapai hanya dengan menambah tenaga kerja. Kita harus memperlakukan kontributor sebagai profesional dan menciptakan insentif yang tepat,” jelas Rashad. Pendekatan ini diyakini dapat menghasilkan data pelatihan yang lebih baik dan lebih dapat diandalkan.
Menuju Masa Depan Kecerdasan Berdaulat
Lima tahun ke depan, Rashad memprediksi bahwa sistem verifikasi data akan menjadi bagian integral dari pengembangan AI, mirip dengan fungsi audit finansial saat ini. “Pemerintah akan mewajibkan auditabilitas, dan proses pengadaan akan mengharuskan data terverifikasi sebagai syarat kontrak,” katanya.
Dengan meningkatnya ketergantungan pada AI dalam berbagai sektor, termasuk kesehatan, keuangan, dan pertahanan, fondasi yang kuat untuk kecerdasan berdaulat menjadi semakin penting. Rashad percaya bahwa Perle Labs akan memainkan peran kunci dalam menciptakan standar baru untuk verifikasi data yang dapat diandalkan.
“Kami tidak hanya berbicara tentang kontraktor pertahanan. Ini adalah tentang bagaimana AI dapat diterapkan secara aman di mana saja risiko kegagalan nyata,” tutup Rashad.
Untuk mengikuti perkembangan lebih lanjut tentang bagaimana infrastruktur data terverifikasi dapat membentuk masa depan teknologi, jangan ragu untuk memberikan komentar dan berbagi artikel ini.