Newsletter AI ini adalah semua yang Anda butuhkan # 9 – Menuju AI

Newsletter AI ini adalah semua yang Anda butuhkan # 9 – Menuju AI

Penulis: Menuju Tim Editorial AI

Awalnya diterbitkan di Towards AI the World’s Leading AI and Technology News and Media Company. Jika Anda sedang membangun produk atau layanan terkait AI, kami mengundang Anda untuk mempertimbangkan untuk menjadi sponsor AI. Di Towards AI, kami membantu menskalakan AI dan startup teknologi. Biarkan kami membantu Anda melepaskan teknologi Anda kepada massa.

Apa yang terjadi minggu ini di AI

Gambar yang dihasilkan dengan Difusi Stabil

Minggu ini kami mengalihkan perhatian kami dari Dalle ke model sumber terbuka baru yang disebut Difusi Stabil. Difusi Stabil berasal dari para peneliti di Stability AI, sebuah startup yang berbasis di London dan Los Altos, bersama dengan RunwayML, LMU Munich, EleutherAI, dan LAION. Masalah besar: model dan kode AI akan diterbitkan sebagai sumber terbuka. Ya, ini adalah open source, yang berarti Anda memiliki akses ke kodenya dibandingkan dengan DALLE, yang merupakan sumber tertutup.

Difusi stabil sangat mirip dengan DALLE 2 dalam hal pilihan arsitektur, meskipun jauh lebih ringan karena penggunaan difusi laten. Difusi laten adalah cara yang ampuh untuk menggunakan proses difusi, yang terdiri dari mengambil noise dan menghasilkan gambar, tetapi melakukan itu di ruang laten menggunakan encoder dan decoder untuk berpindah dari ruang laten ke ruang gambar. Hal ini memungkinkan siapa saja untuk mengimplementasikan kode mereka karena dapat berjalan pada satu GPU, dan juga memungkinkan waktu inferensi yang jauh lebih cepat, yang berarti Anda tidak perlu menunggu selama dua menit untuk mendapatkan hasil yang lucu seperti pada DALLE atau Craiyon lagi! Ini juga merupakan langkah penting bagi komunitas untuk menerapkan model teks-ke-gambar canggih yang canggih dan bereksperimen dengan kode, menciptakan banyak peluang untuk memajukan penelitian dengan model difusi dan model gambar. Kami sangat bersemangat untuk mengikuti berita dan pekerjaan yang dilakukan dengan Difusi Stabil! Jika Anda menerapkan kode mereka, beri tahu kami dan bagikan kreasi Anda di server perselisihan kami!

Anda juga dapat bermain dengan Stable Diffusion API sekarang!

Berita Terpanas

Insinyur dari Stanford telah mengembangkan chip yang melakukan pemrosesan AI dalam memorinya (meningkatkan efisiensi komputasi)
“Sebuah chip memori akses acak resistif (RRAM) baru yang melakukan pemrosesan AI di dalam memori itu sendiri, sehingga menghilangkan pemisahan antara unit komputasi dan memori. Chip “compute-in-memory” (CIM) mereka, yang disebut NeuRRAM, berukuran sebesar ujung jari dan bekerja lebih banyak dengan daya baterai terbatas daripada yang dapat dilakukan oleh chip saat ini.” Difusi Stabil: Model AI generator gambar Open-Source!
Difusi Stabil berasal dari para peneliti di Stability AI, sebuah startup yang berbasis di London dan Los Altos, bersama dengan RunwayML, LMU Munich, EleutherAI, dan LAION. Masalah besar: model dan kode AI telah diterbitkan sebagai open source. Mainkan di sini. TikTok memperkenalkan “AI greenscreen”, generator teks-ke-gambar mereka
Hasilnya belum seperti Dalle 2 atau Midjourney, tapi cukup keren dan mereka pasti masuk ke balapan ini. Saat ini, layar hijau AI menghasilkan “gumpalan” abstrak dan citra berputar-putar yang berfokus pada pembuatan latar belakang yang bagus dan bukan gambar fotorealistik.

Makalah paling menarik minggu ini

Paint2Pix: Sintesis dan Pengeditan Gambar Progresif berbasis Lukisan Interaktif
Sebuah pendekatan baru yang memprediksi (dan mengadaptasi) “apa yang ingin digambar pengguna” dari input sapuan kuas yang belum sempurna, dengan mempelajari pemetaan dari berbagai lukisan manusia yang tidak lengkap ke rendering realistisnya. Dapatkan kodenya! UPST-NeRF: Transfer Gaya Fotorealistik Universal Bidang Neural Radiance untuk Pemandangan 3D
Kerangka transfer gaya fotorealistik adegan 3D baru untuk mentransfer gaya fotorealistik dari gambar input ke adegan 3D, menggabungkan pendekatan transfer gaya 2D dengan representasi voxel. Transframer: Prediksi Frame Sewenang-wenang dengan Model Generatif [deepmind paper]
Transframer: Kerangka tujuan umum untuk pemodelan gambar dan tugas visi berdasarkan prediksi bingkai probabilistik, menggabungkan komponen U-Net dan Transformer.

Nikmati makalah dan ringkasan berita ini? Dapatkan rekap harian di kotak masuk Anda!

Pengumuman

Di Towards AI Inc, kami memiliki berita menarik untuk diumumkan — kami telah mengakuisisi Confetti AI. Confetti AI didirikan oleh Mihail Eric dan Henry Zhao pada tahun 2020 dan telah berkembang menjadi 6.000 pengguna aktif dengan perpustakaan konten lebih dari 350 pertanyaan. Confetti AI dibangun di atas pengalaman satu dekade dalam kecerdasan buatan dan ratusan jam diskusi dengan para ahli di bidangnya. Ini bertujuan untuk menyusun perpustakaan terkemuka pembelajaran mesin dan pertanyaan wawancara ilmu data, dengan fokus pada pemahaman konseptual dan aplikasi praktis. Pelajari lebih lanjut tentang berita.

Bagian Komunitas Belajar AI Bersama! Hai

Meme minggu ini!

Sungguh cara yang luar biasa untuk mengevaluasi pengetahuan teknis sebenarnya dari seorang perekrut 😂. Tentu saja, jangan lakukan itu, itu hanya meme! Meme dibagikan sekali lagi oleh salah satu moderator fantastis kami dengan humor yang luar biasa, DrDub#0108. Bergabunglah dengan percakapan dan bagikan meme Anda dengan kami!

Postingan Komunitas unggulan dari Discord

Luar biasa! Salah satu moderator kami baru saja meluncurkan produk yang sangat keren!

“produk saya dari buku-> generator pos IG sedang beringsut menuju peluncuran.” DrDub#0108
Produk DrDub adalah tentang menggunakan AI untuk menghasilkan postingan Instagram dari sebuah buku. Penulis dapat menggunakannya secara gratis untuk secara otomatis menghasilkan dan membagikan kutipan dan ide menarik untuk buku mereka di Instagram. Betapa kerennya itu!

Tonton beberapa hasil di halaman Instagram-nya, dan jangan lupa untuk membagikan proyek atau produk Anda sendiri dengan komunitas jika Anda juga ingin ditampilkan di buletin!

Jajak pendapat AI minggu ini!

Bagian yang dikuratori TAI

Artikel minggu ini

Tugas NLP mana yang TIDAK Menguntungkan Dari Model Bahasa yang Sudah Terlatih?

Ada begitu banyak sejarah model bahasa generik pra-terlatih yang sangat berpengaruh yang kami terima begitu saja. Namun, mereka adalah dasar yang mutlak diperlukan untuk sebagian besar aplikasi NLP. Namun, penulis artikel kami ingin menyoroti klaim bahwa ada kasus di mana model umum yang telah dilatih sebelumnya tidak efektif, mendukung klaimnya dengan analisis yang sangat baik.

Jika Anda tertarik untuk menerbitkan bersama kami di Towards AI, silakan mendaftar di sini, dan kami akan menerbitkan blog Anda ke jaringan kami jika memenuhi kebijakan dan standar editorial kami.

Pandangan Etis Lauren tentang NeuRRAM Stanford

Kemajuan Stanford di NeuRRAM adalah prestasi yang luar biasa! Saya sangat menganjurkan membaca seluruh artikel di atasnya jika Anda belum melakukannya. Meskipun teknologi komputasi-dalam-memori bukanlah hal baru, penerapannya lebih dari sekadar simulasi. Dikombinasikan dengan efisiensi energi dua kali lipat dan kinerja yang menjanjikan pada tolok ukur AI seperti MNIST dan CIFAR-10, chip NeuRRAM memiliki potensi luar biasa untuk kebaikan.

Berdasarkan spesifikasinya, saya dapat memperkirakan bahwa salah satu kegunaan utamanya adalah implantasi biomedis. Daya komputasi, ukuran, dan efisiensi adalah faktor yang selalu menjadi titik gesekan dengan pengembangan implan, sehingga peningkatan ini dapat dengan mudah menghasilkan manfaat langsung bagi implan tanpa kompromi dalam kemampuan perangkat. Kemajuan ini akan datang dengan serangkaian teka-teki bioetikanya sendiri selain teka-teki rekayasa, seperti memastikan keamanan informasi dan otonomi pasien. Stanford selalu menjadi pemimpin dalam inovasi perangkat medis serta etika, menjadikannya dilengkapi dengan baik untuk memimpin gelombang implan bertenaga AI berikutnya.

Manfaat besar lainnya yang berasal dari pengembangan NeuRRAM adalah dampak lingkungan dari pengurangan konsumsi daya dan kebutuhan perangkat keras. Daya yang diperlukan untuk komputasi skala besar dan toksisitas/pembuangan limbah teknologi yang sulit membuat mesin kesayangan kita menjadi beban lingkungan yang serius, baik untuk kehidupan manusia maupun kehidupan yang kita bagi bersama di planet ini. Keberhasilan NeuRRAM sebagai produk fisik menunjukkan bahwa kemajuan ini mungkin dan diperlukan untuk inovasi. Harapan saya adalah ini memulai tren yang berfokus pada berbuat lebih banyak dengan lebih sedikit.

Saya ingin menggarisbawahi bahwa dalam artikel tersebut, H.-S Philip Wong menyebutkan bahwa inovasi NeuRRAM dimungkinkan melalui tim internasional dengan beragam keahlian dan latar belakang, yang berbicara dengan baik tentang nilai kolaborasi. Saya sangat senang melihat ke mana lagi NeuRRAM membawa kita!

Tawaran pekerjaan

Ilmuwan Riset — Pembelajaran Mesin @ DeepMind (London, Inggris Raya)

Ilmuwan Data Senior @ EvolutionIQ (Jarak Jauh)

Senior ML Engineer — Algolia AI @ Algolia (Hybrid remote)

Senior ML Engineer — Pencarian Semantik @ Algolia (Hybrid remote)

Tertarik untuk berbagi peluang kerja di sini? Kontak [email protected] atau posting peluang di saluran #hiring kami di discord!

Jika Anda sedang mempersiapkan wawancara pembelajaran mesin berikutnya, jangan ragu untuk melihat situs web persiapan wawancara terkemuka kami, confetti!

Buletin AI ini adalah semua yang Anda butuhkan # 9 awalnya diterbitkan di Towards AI on Medium, di mana orang-orang melanjutkan percakapan dengan menyoroti dan menanggapi cerita ini.

Diterbitkan melalui Menuju AI

Author: Scott Anderson