
Author(s): Sriram Parthasarathy
Awalnya diterbitkan di Menuju AI.
Menyelesaikan Tugas Pembelajaran Mesin dengan MLCoPilot: Memanfaatkan Keahlian Manusia untuk Sukses
Banyak dari kita telah menggunakan model bahasa besar (LLM) seperti ChatGPT untuk menghasilkan tidak hanya teks dan gambar tetapi juga kode, termasuk kode pembelajaran mesin. Kode ini dapat mencakup beragam tugas, seperti membuat kluster KMeans, di mana pengguna memasukkan data mereka dan meminta ChatGPT untuk membuat kode yang relevan.
Di ranah ilmu data, profesional berpengalaman sering melakukan penelitian untuk memahami bagaimana masalah serupa telah ditangani di masa lalu. Mereka menyelidiki algoritme yang paling sesuai, mengidentifikasi bobot dan hyperparameter terbaik, dan bahkan mungkin berkolaborasi dengan sesama ilmuwan data di komunitas untuk mengembangkan strategi yang efektif.
Tapi bagaimana jika LLM juga bisa terlibat dalam pendekatan kooperatif? Di sinilah ML CoPilot memasuki lokasi. Meskipun kemampuannya luas, LLM tidak memiliki keahlian untuk menyelesaikan setiap masalah yang ada. Dengan menyediakan berbagai masalah pembelajaran mesin yang diselesaikan sebagai data pelatihan, LLM dapat memperoleh dan mengumpulkan pengetahuan dari pengalaman sebelumnya. Hal ini memungkinkan mereka untuk mengakses repositori pengetahuan mereka ketika dihadapkan dengan tugas prediktif baru dan memilih tindakan yang paling tepat.
Dalam makalah ini, penulis menyarankan penggunaan LLM untuk memanfaatkan pengalaman ML sebelumnya guna menyarankan solusi untuk tugas ML baru. Di sinilah pemanfaatan database vektor seperti Pinecone menjadi berharga untuk menyimpan semua pengalaman dan bantuan masa lalu sebagai memori untuk LLM.
Menyimpan wawasan ML sebelumnya untuk memandu pengambilan keputusan
Pembelajaran mesin dan model pembelajaran mendalam mengubah data tidak terstruktur menjadi vektor numerik yang disebut penyematan. Database vektor dapat menyimpannya dan dirancang untuk pencarian dan penambangan data. Mereka unggul dalam pencarian kesamaan, menemukan item yang paling mirip dengan kueri tertentu. T
Wawasan ML dari masa lalu memainkan peran penting dalam memandu model bahasa besar (LLM) untuk menjawab tugas pembelajaran mesin (ML) di masa mendatang. Untuk memfasilitasi ini, database vektor seperti Pinecone masuk ke dalam gambar. Database ini menyimpan semua pengetahuan yang diperlukan oleh LLM, yang pada dasarnya berfungsi sebagai memori mereka. Database vektor adalah database khusus yang dirancang untuk menyimpan dan mengambil informasi dimensi tinggi secara efisien, seperti vektor. Mereka umumnya digunakan dalam sistem yang memberikan rekomendasi, menemukan gambar atau teks yang serupa, dan mengelompokkan item serupa menjadi satu.
Saat diberi kueri seperti “klasifikasikan tumor otak”, basis data vektor dapat mencari dokumen atau frasa yang memiliki arti serupa dengan kueri tersebut. Ini dicapai dengan membandingkan representasi vektor dari kueri dengan vektor dari dokumen yang disimpan, yang mencakup pengalaman masa lalu dan akumulasi pengetahuan. Dengan mengidentifikasi kecocokan terdekat dalam ruang semantik, LLM dapat mengambil dokumen yang relevan berdasarkan kesamaan semantiknya, melampaui batasan pencocokan kata kunci saja.
Misalnya, jika tugas ML tumor otak disajikan, LLM berpotensi menemukan pengalaman atau pengetahuan terkait yang terkait dengan tugas ML tumor paru dari basis pengetahuan. Dengan memanfaatkan kesamaan antara tugas-tugas ini, LLM dapat mengakses informasi tentang algoritme yang digunakan, kumpulan data yang digunakan, serta parameter dan bobot lain yang digunakan dalam tugas ML sebelumnya. Informasi yang diambil ini kemudian menjadi masukan yang tak ternilai bagi LLM karena berusaha untuk menyelesaikan tugas ML baru yang ada.
Dengan memanfaatkan database vektor untuk menyimpan dan mengambil wawasan ML dari masa lalu, LLM mendapatkan akses ke gudang pengetahuan yang luas. Hal ini memberdayakan mereka untuk membuat keputusan berdasarkan informasi, menggunakan metodologi yang telah ditetapkan, dan memanfaatkan solusi sukses yang sebelumnya telah diterapkan pada tugas ML yang serupa. Hasilnya, kemampuan LLM ditingkatkan secara signifikan, memungkinkannya memberikan solusi yang lebih akurat dan efisien untuk berbagai masalah ML.
Memanfaatkan pengetahuan sebelumnya untuk menyelesaikan tugas ML
Tujuan utama ML CoPilot adalah memanfaatkan kecerdasan mesin dan pengetahuan manusia untuk mengusulkan solusi bagi tugas pembelajaran mesin (ML) baru. Untuk mencapai tujuan ini, ML CoPilot harus belajar dari pengalaman praktisi manusia di masa lalu. Untuk mencapai hal ini, penulis ML CoPilot menjelajahi tolok ukur ML untuk mengekstrak informasi berharga, yang kemudian diubah menjadi format teks untuk pemahaman yang lebih baik oleh model bahasa besar (LLM).
Ketuk pengalaman ML sebelumnya.
Format teks digunakan karena LLM unggul dalam memahami data tekstual daripada nilai numerik. Oleh karena itu, setiap informasi yang perlu dibaca dan dipelajari LLM harus diubah menjadi format berbasis teks. Ini termasuk mengonversi kode menjadi ringkasan teks dan mengubah angka akurasi menjadi kategori deskriptif seperti sedang, bagus, dan sebagainya. Pengalaman ini digabungkan dan diubah menjadi pengetahuan, membentuk gudang wawasan ML.
Saat tugas ML baru disajikan, ML CoPilot memanfaatkan akumulasi pengalaman dan pengetahuan untuk menyarankan solusi akhir. Dengan memanfaatkan pengalaman ML sebelumnya, ML CoPilot meningkatkan kemampuannya untuk memberikan rekomendasi dan panduan berharga untuk tugas baru yang ada. Pendekatan kolaboratif ini secara efektif menggabungkan kekuatan kecerdasan mesin dan keahlian manusia, yang menghasilkan solusi yang lebih efektif dan efisien untuk tugas ML baru.
Dua bagian berikutnya mengeksplorasi dua langkah di bawah ini.
Langkah 1: Buat kumpulan pengetahuan ML dari tugas ML historis (dari data tolok ukur)
Untuk memfasilitasi proses pembelajaran dari pekerjaan pembelajaran mesin (ML) sebelumnya, digunakan tiga tolok ukur ML, yaitu HPO-B, PD1, dan HyperFD. Tolok ukur ini mencakup berbagai tugas dan kumpulan data ML, mencakup berbagai skenario seperti klasifikasi dan regresi data tabular, klasifikasi gambar, dan deteksi objek. Tujuan utamanya adalah untuk mengubah tolok ukur ini menjadi format pengetahuan yang dapat digunakan oleh model bahasa besar (LLM).
HPO-B-v3, misalnya, terdiri dari 16 kumpulan solusi berbeda untuk 101 kumpulan data yang bersumber dari platform OpenML. Setiap set berfokus pada algoritme pembelajaran mesin tertentu, seperti hutan acak, SVM, atau XGBoost. Tujuan utamanya adalah untuk mengidentifikasi konfigurasi optimal untuk algoritme ini saat diterapkan pada kumpulan data tertentu. Dengan menjelajahi berbagai konfigurasi, tolok ukur bertujuan untuk menemukan setelan berperforma terbaik untuk berbagai algoritme dan kumpulan data ML.
PD1 Neural Net Tuning Dataset, di sisi lain, terdiri dari beragam tugas klasifikasi yang mencakup area seperti klasifikasi gambar, prediksi token berikutnya, dan terjemahan. Setiap tugas dikaitkan dengan arsitektur jaringan saraf tertentu, seperti CNN atau transformator. Kumpulan data berkonsentrasi pada penyempurnaan kinerja jaringan saraf ini dengan menyesuaikan parameter pengoptimal SGD dengan momentum Nesterov. Melalui proses penyempurnaan ini, tolok ukur bertujuan untuk mengoptimalkan jaringan saraf untuk meningkatkan kinerja di berbagai tugas klasifikasi.
HyperFD mewakili sistem tolok ukur yang dirancang untuk meningkatkan akurasi detektor wajah neural pada kumpulan data baru. Ini dicapai dengan menyesuaikan berbagai aspek secara tepat, termasuk augmentasi data, arsitektur saraf, fungsi kerugian, dan resep pelatihan. Dengan mengoptimalkan elemen-elemen ini, tolok ukur bertujuan untuk meningkatkan kinerja jaringan saraf, khususnya dalam konteks tugas deteksi wajah.
Tujuan penggunaan tolok ukur ML ini adalah untuk mengekstraksi pengetahuan berharga dari hasilnya dan mengubahnya menjadi format yang dapat dimanfaatkan secara efektif oleh LLM. Dengan menangkap wawasan dan pengalaman yang diperoleh dari tolok ukur ini, LLM dapat memanfaatkan pengetahuan ini untuk memberikan saran dan solusi berharga untuk tugas ML baru. Tolok ukur menawarkan beragam skenario dan kumpulan data, memungkinkan LLM untuk mendapatkan pemahaman komprehensif tentang tantangan ML dan solusi terkaitnya.
Dari: https://arxiv.org/pdf/2304.14979.pdf
Langkah 2: Sarankan solusi untuk tugas ML berdasarkan pengetahuan dari masa lalu
Saat ML CoPilot menerima tugas baru, ML CoPilot akan mencari kumpulan pengalaman untuk tugas terkait. Misalnya, jika tugasnya adalah mengklasifikasikan tumor otak, ML CoPilot mencari tugas ML yang terkait dengan domain ini. Salah satu contoh tugas terkait adalah klasifikasi tumor paru-paru.
ML CoPilot juga mengeksplorasi rekomendasi pengetahuan terkait yang terkait dengan tugas ini. Informasi yang dikumpulkan kemudian diberikan ke model bahasa besar (LLM) dan digunakan untuk menghasilkan solusi akhir untuk masalah yang diberikan. Dengan memanfaatkan pengalaman dan pengetahuan yang diperoleh dari tugas ML serupa, ML CoPilot meningkatkan kemampuannya untuk memberikan solusi yang akurat dan efektif untuk tugas baru tersebut.
Dari: https://arxiv.org/pdf/2304.14979.pdf
Kehadiran pengalaman dan pengetahuan ML sangat penting untuk berfungsinya sistem ini dengan baik. Tanpa salah satunya, atau tanpa keduanya, keandalan prediksi end-to-end berkurang. Ketersediaan dan penggabungan pengalaman dan pengetahuan ML berfungsi sebagai dasar bagi ML CoPilot untuk memberikan solusi yang akurat dan dapat diandalkan untuk tugas ML baru.
Kesimpulan
Kesimpulannya, pendekatan kolaboratif ML CoPilot, yang menggabungkan kekuatan model bahasa besar (LLM) dengan akumulasi pengetahuan dari pengalaman pembelajaran mesin (ML) sebelumnya, menawarkan potensi besar dalam menyelesaikan tugas ML baru. Dengan memanfaatkan database vektor untuk menyimpan dan mengambil wawasan dari tolok ukur ML, LLM dapat memperoleh akses ke banyak informasi yang memandu proses pengambilan keputusan mereka.
ML CoPilot berfungsi sebagai jembatan antara kecerdasan mesin dan pengetahuan manusia, menggabungkan keahlian praktisi berpengalaman dengan menggunakan metodologi yang telah ditetapkan dan pendekatan sukses yang digunakan dalam tugas ML serupa.
Namun, keberhasilan sistem ini sangat bergantung pada ketersediaan pengalaman dan pengetahuan ML. Tidak adanya salah satu atau kedua komponen ini merusak keandalan prediksi end-to-end. Oleh karena itu, akumulasi dan penyimpanan wawasan ML yang berkelanjutan menjadi sangat penting dalam meningkatkan efektivitas dan keandalan ML CoPilot.
Kesimpulannya, dengan memanfaatkan pengalaman masa lalu, pengetahuan, dan keahlian komunitas ML, ML CoPilot membuka kemungkinan baru dan memajukan bidang pembelajaran mesin menuju solusi yang lebih cerdas dan efektif.
Diterbitkan melalui Menuju AI