chevron_left

メインカテゴリーを選択しなおす

cancel
hiromi
フォロー
住所
未設定
出身
未設定
ブログ村参加

2018/12/09

arrow_drop_down
  • Editor Gen Berbasis AI OpenCRISPR: Kompatibel dengan Pengeditan Basa

    Pendahuluan Pengeditan gen adalah bidang yang berkembang pesat dengan implikasi mendalam bagi pertanian, bioteknologi, dan kedokteran. Salah satu alat paling menjanjikan di bidang ini adalah sistem CRISPR-Cas, yang awalnya berasal dari mekanisme pertahanan kekebalan bakteri. Teknologi ini menawarkan cara yang tepat untuk mengubah urutan genetik, tetapi adaptasinya dari lingkungan mikroba ke sel eukariotik yang lebih kompleks sering kali mengorbankan efisiensi dan spesifisitas. Peningkatan Fungsionalitas CRISPR dengan Kecerdasan Buatan Peneliti telah berupaya meningkatkan fungsionalitas sistem CRISPR untuk mengatasi tantangan ini. Metode tradisional seperti evolusi terarah dan desain berpemandu struktur telah memfasilitasi beberapa kemajuan. Namun, teknik-teknik ini berjuang dengan sifat protein evolusi yang rumit dan tidak dapat diprediksi, yang sering kali menyebabkan kinerja yang kurang optimal ketika sistem ini diterapkan di luar konteks alami mereka. Sebuah tim peneliti dari Profluent Bio, Berkeley, CA, A

  • Fujitsu Gandeng Oracle untuk Solusi TI Hibrid

    Kolaborasi untuk Kedaulatan Digital Fujitsu dan Oracle bekerja sama untuk menyediakan cloud dan kemampuan AI yang berdaulat, memenuhi persyaratan kedaulatan digital untuk bisnis dan sektor publik Jepang. Dengan Oracle Alloy, Fujitsu akan memperluas penawaran TI Hibrid untuk Fujitsu Uvance, yang membantu pelanggan mengembangkan bisnis dan memecahkan masalah sosial. Fujitsu akan dapat mengoperasikan Oracle Alloy secara independen di pusat datanya di Jepang dengan kontrol tambahan atas operasinya. Fujitsu akan menggunakan Oracle Alloy, platform infrastruktur cloud yang menyediakan lebih dari 100 layanan Oracle Cloud Infrastructure (OCI), termasuk AI generatif, sebagai bagian dari portofolio TI Hibrid Fujitsu Uvance, yang mendukung pelanggan dengan infrastruktur lokal dan berbasis cloud. Hal ini akan memungkinkan bisnis dan sektor publik untuk memanfaatkan infrastruktur cloud dan AI berdaulat langsung dari pusat data yang dioperasikan oleh Fujitsu di Jepang. Oracle adalah satu-satunya hyperscaler yang mampu menye

  • Survei Fujitsu SX Mengungkap Sasaran Keberlanjutan Berbasis Data yang Baru

    Pendahuluan Fujitsu telah merilis hasil “Survei Fujitsu SX 2024,” yang menyoroti temuan survei terhadap 600 eksekutif perusahaan (CxO) dari organisasi di 15 negara. Survei ini menyelidiki kemajuan mereka dalam mencapai Transformasi Keberlanjutan (SX) dan upaya mereka menciptakan nilai baru dalam bisnis. Prioritas dan Pembuat Perubahan Survei mengungkapkan prioritas yang menghubungkan keberlanjutan dengan pertumbuhan bisnis, mengidentifikasi sekelompok organisasi yang menyeimbangkan pertumbuhan bisnis dan kemajuan SX (11% dari total), yang disebut Fujitsu sebagai “Pembuat Perubahan.” Pembuat Perubahan ditemukan memiliki dua karakteristik utama: Perspektif jangka panjang dan motivasi matang untuk Transformasi Keberlanjutan untuk memberikan dampak positif pada masyarakat dan lingkungan Kemampuan untuk memanfaatkan data di luar kerangka organisasi mereka Langkah Menuju Pembuat Perubahan Laporan tersebut menyarankan empat langkah yang diperlukan untuk menjadi Pembuat Perubahan, dan bagaimana Fujitsu dapat membantu

  • Solusi Keterlacakan yang Disempurnakan TradeBeyond Memanfaatkan AI

    Pendahuluan TradeBeyond, sebuah perusahaan yang membantu mengelola pergerakan produk dari pemasok ke toko, telah membuat kemajuan besar dalam melacak barang. Mereka menggunakan kecerdasan buatan (AI) untuk memudahkan merek dan toko melihat asal produk mereka dan mengurangi kemungkinan masalah dalam rantai pasokan mereka. Hal ini membuat TradeBeyond semakin menonjol sebagai pemimpin di bidang ini, karena penyempurnaan terbaru mereka menggunakan AI untuk memeriksa dokumen dan memastikan produk asli dan aman. Hal ini membantu memenuhi aturan baru tentang tata kelola lingkungan, sosial, dan perusahaan (ESG) dan membuat seluruh proses lebih efisien dan tepercaya. Mengapa Berita Ini Penting? Pesanan, faktur, bill of lading, dan saran pengiriman semuanya dipindai secara otomatis oleh sistem keterlacakan TradeBeyond yang disempurnakan, yang menggunakan AI. Untuk mengidentifikasi masalah kepatuhan, sistem ini menyusun dokumen rantai penyimpanan dan membandingkan dokumen produk dan pengiriman penting dengan berbagai ba

  • Produk AI Gigi EM2AI Akan Hadir di Semester 2 2024

    Produk AI Gigi yang Revolusioner Sebuah produk AI gigi yang revolusioner akan segera hadir tahun ini. Perusahaan perawatan gigi yang berbasis di Singapura, EM2AI, mengumumkan sebuah pengembangan terobosan yang siap membentuk lanskap perawatan gigi, dengan peluncuran produk AI gigi perintisnya. Dengan peluncuran ini, Perusahaan juga berencana mencari investor dan mitra strategis, baik lokal maupun luar negeri, untuk tahap selanjutnya dari rencana pertumbuhan Perusahaan. Dijadwalkan untuk diluncurkan akhir tahun ini, alat inovatif ini bertujuan untuk memberikan transparansi dan akurasi yang tak tertandingi bagi dokter gigi dan pasien dalam perencanaan perawatan, menandai lompatan signifikan bagi industri gigi. Produk AI Gigi Baru Akan Memberdayakan Dokter Gigi dan Pasien Pada saat pengumuman ini, Ryan San, Chief Executive Officer EM2AI mengungkapkan antusiasme yang mendalam tentang peluncuran yang akan datang, dengan menyatakan, “Produk AI gigi baru kami merupakan puncak dari penelitian dan pengembangan selama

  • Transformasi Digital: Aliansi Cognizant, Shopify, dan Google Cloud

    Pendahuluan Shopify, Google Cloud, dan Cognizant telah berkolaborasi untuk memodernisasi platform dan mendorong transformasi digital bagi perusahaan dan pedagang di seluruh dunia. Kolaborasi ini berfokus pada penyampaian layanan klien oleh para profesional konsultasi industri ritel dan implementasi teknologi Cognizant, infrastruktur cloud inti Google Cloud, dan platform e-commerce terkemuka Shopify. Pendorong Kolaborasi Kebutuhan mendesak bagi pengecer untuk memperbarui dan mengadopsi teknologi baru untuk memberikan saran waktu nyata, bantuan belanja, dan penawaran yang dipersonalisasi kepada konsumen menjadi pendorong utama kemitraan ini. Dengan menggabungkan layanan ini, kolaborasi ini bertujuan untuk memicu transformasi ritel dan membantu bisnis mewujudkan potensi AI dan teknologi mutakhir lainnya. Manfaat Transformasi Ritel yang Ditingkatkan: Bisnis dapat menjalani transformasi digital yang komprehensif dengan memanfaatkan keahlian ritel Cognizant, infrastruktur Google Cloud, dan platform Shopify. Kemampu

  • CopilotKit: Platform Copilot Open-Source untuk Integrasi AI yang Mulus di Aplikasi Apa Pun

    **Apa itu CopilotKit?** CopilotKit adalah kerangka kerja open-source yang dirancang untuk memfasilitasi integrasi AI ke dalam aplikasi. Dengan lebih dari 4,4 ribu Git Stars, CopilotKit telah mendapat apresiasi yang besar dalam komunitas open-source. Ini membantu membuat copilot AI khusus, termasuk chatbot dan agen AI dalam aplikasi yang mampu berinteraksi secara dinamis dengan lingkungan aplikasi. Kerangka kerja ini dibangun untuk menyederhanakan integrasi AI dengan menangani aspek kompleks seperti kesadaran konteks aplikasi dan interaksi. **Tantangan yang Diselesaikan Melalui CopilotKit** Berikut adalah empat tantangan dari banyak tantangan yang dibantu oleh CopilotKit: – **Integrasi AI yang Kompleks:** CopilotKit menyederhanakan integrasi AI dengan menyediakan kerangka kerja yang komprehensif dan komponen yang dapat digunakan kembali. – **Kurangnya Kesadaran Konteks:** CopilotKit memberikan akses waktu nyata ke konteks aplikasi, memungkinkan AI memahami dan berinteraksi dengan aplikasi secara efektif. – **I

  • VDTuner: Kerangka Penyetelan Performa Otomatis Berbasis Pembelajaran Mesin untuk Sistem Manajemen Data Vektor (VDMS)

    Pendahuluan Model Bahasa Besar (LLM) telah mengantarkan era pertumbuhan luar biasa untuk teknologi Kecerdasan Buatan (AI). Untuk mengatasi masalah seperti halusinasi percakapan, model ini semakin banyak digunakan dalam berbagai pengaturan di mana data multimedia tidak terstruktur diubah menjadi vektor penanaman. Sistem Manajemen Data Vektor (VDMS) dirancang khusus untuk mengelola vektor ini secara efektif. Platform seperti Qdrant dan Milvus telah mengembangkan basis pengguna yang besar dan komunitas yang aktif, yang menjadi tulang punggung era LLM. Masalah Penyetelan Performa VDMS LLM dan sistem pembelajaran mesin serta pengambilan informasi lainnya sangat bergantung pada Sistem Manajemen Data Vektor. Sistem ini bergantung pada pencarian kesamaan yang efektif, yang dimungkinkan oleh VDMS, yang menyediakan pengguna dengan kemampuan untuk menentukan banyak indeks yang dapat disesuaikan dan parameter sistem. Namun, kerumitan intrinsik VDMS menghadirkan hambatan penting untuk optimalisasi performa otomatis, yang

  • Pembelajaran Mendalam yang Dapat Diinterpretasikan untuk Pemantauan Keanekaragaman Hayati: Memperkenalkan AudioProtoPNet

    Latar Belakang Keanekaragaman hayati global telah menurun tajam dalam beberapa dekade terakhir, dengan Amerika Utara mengalami penurunan populasi burung liar sebesar 29% sejak 1970. Berbagai faktor mendorong hilangnya ini, termasuk perubahan penggunaan lahan, eksploitasi sumber daya, polusi, perubahan iklim, dan spesies invasif. Sistem pemantauan yang efektif sangat penting untuk memerangi penurunan keanekaragaman hayati, dengan burung berfungsi sebagai indikator utama kesehatan lingkungan. Pemantauan Akustik Pasif (PAM) Pemantauan Akustik Pasif (PAM) telah muncul sebagai metode hemat biaya untuk mengumpulkan data burung tanpa mengganggu habitat. Sementara analisis PAM tradisional memakan waktu, kemajuan terbaru dalam teknologi pembelajaran mendalam menawarkan solusi yang menjanjikan untuk mengotomatiskan identifikasi spesies burung dari rekaman audio. Namun, memastikan algoritma kompleks dapat dipahami oleh ahli burung dan ahli biologi sangat penting. Pembelajaran Mendalam yang Dapat Diinterpretasikan untuk

  • Peningkatan Keandalan Prediksi Klasifikasi Teks Medis dengan Model Pembelajaran Mendalam Bayesian Baru dengan Kernel Dropout

    Pendahuluan Integrasi kecerdasan buatan (AI) dalam perawatan kesehatan merevolusi praktik medis dengan meningkatkan akurasi dan efisiensi diagnostik serta perencanaan pengobatan. Dengan memanfaatkan algoritma canggih, AI mendukung berbagai aplikasi, mulai dari deteksi anomali dalam pencitraan medis hingga prediksi perkembangan penyakit, sehingga meningkatkan efektivitas intervensi medis secara keseluruhan. Tantangan dalam AI Medis Salah satu kendala utama dalam menerapkan AI dalam sektor medis adalah memastikan akurasi dan keandalan prediksi berbasis AI, terutama ketika data langka. Dataset kecil umum terjadi dalam perawatan kesehatan karena masalah privasi dan sifat khusus data medis, yang sering kali membatasi informasi yang tersedia untuk melatih sistem AI. Kelangkaan ini menantang kemampuan AI untuk belajar secara efektif dan memberikan hasil yang andal, yang sangat penting ketika hasil ini secara langsung memengaruhi perawatan pasien. Penelitian yang Ada Penelitian yang ada dalam AI medis mencakup model

  • Pengenalan Ekspresi Matematika Tulisan Tangan dengan MathWriting

    Pendahuluan Pengenalan teks daring telah berkembang pesat dalam beberapa tahun terakhir berkat struktur model yang disempurnakan dan kumpulan data yang lebih besar. Namun, pengenalan ekspresi matematika (ME), tugas yang lebih rumit, belum mendapat perhatian yang sama. Tidak seperti teks, ME memiliki struktur dua dimensi yang kaku di mana susunan spasial simbol sangat penting. ME tulisan tangan (HME) menimbulkan tantangan yang lebih besar karena ambiguitas dan kebutuhan akan perangkat keras khusus. Memperoleh sampel tulisan tangan itu mahal karena memerlukan input manusia, ditambah lagi dengan kebutuhan akan perangkat khusus seperti layar sentuh atau pena digital. Oleh karena itu, meningkatkan pengenalan ME menuntut pendekatan yang disesuaikan berbeda dari pengenalan teks. MathWriting: Kumpulan Data HME Daring Google Research telah meluncurkan MathWriting, kumpulan data untuk HME daring. Terdiri dari 230k sampel tulisan tangan dan 400k sampel sintetis, ini melampaui kumpulan data HME luring seperti IM2LATEX-10

  • Perbandingan Llama 3 dengan Model AI Seperti GPT-4, Claude, dan Gemini

    Sekilas Model Llama 3: Ukuran model yang lebih kecil (8B dan 70B parameter) tetapi berkinerja baik dalam penalaran tingkat lanjut dan mengikuti instruksi pengguna secara akurat. GPT-4: Ukuran model yang sangat besar (1,7 triliun parameter) dengan kinerja luar biasa dalam perhitungan matematika dan pemberian jawaban yang akurat. Claude: Menekankan penggunaan AI yang aman dan etis, dengan kualitas keluaran yang tinggi dalam konteks yang membutuhkan pemahaman yang bernuansa. Gemini: Dikembangkan oleh Google, sangat efisien dan terukur dalam ekosistem Google, dengan kinerja yang kuat dalam tugas integrasi. Performa dan Tolok Ukur Llama 3 menunjukkan kinerja yang luar biasa dalam tolok ukur MMLU, mengungguli model serupa dalam kondisi tertentu. GPT-4 tetap menjadi pemimpin dalam pemahaman dan pembuatan bahasa yang komprehensif. Claude memiliki kinerja yang kuat dalam skenario yang membutuhkan pemahaman konteks yang bernuansa. Gemini unggul dalam integrasi dan efisiensi operasional dalam rangkaian alat Google. Tabe

  • Atlas: Jennifer Lopez Membintangi Film Thriller AI yang Akan Datang

    Jennifer Lopez, aktris, penyanyi, dan penari multitalenta, akan membintangi film mendatang “Atlas,” sebuah film thriller yang mengeksplorasi dunia kecerdasan buatan yang kompleks. Film yang saat ini sedang dalam produksi ini diperkirakan akan dirilis pada akhir 2024 atau awal 2025. Dalam “Atlas,” Lopez memainkan peran utama sebagai seorang peneliti AI brilian yang mendapati dirinya terjerat dalam konspirasi berbahaya yang melibatkan teknologinya sendiri yang inovatif. Saat dia menggali lebih dalam misteri tersebut, dia mengungkap jaringan rahasia yang mengancam tidak hanya hidupnya tetapi juga masa depan umat manusia. Film ini disutradarai oleh Brad Peyton, yang dikenal dengan karyanya pada film-film penuh aksi seperti “San Andreas” dan “Rampage.” Skenarionya ditulis oleh Leo Sardarian, pendatang baru di industri ini yang telah menarik perhatian karena penceritaannya yang menggugah pikiran dan menegangkan. Selain Lopez, para pemeran termasuk beberapa aktor terkenal, meskipun peran spesifik mereka belum diungk

  • Kecerdasan Pengiriman yang Ditingkatkan dengan Teknologi Manajemen Pengeluaran Paket 2.0 Berbasis AI dari Reveel

    Visibilitas Pengeluaran Paket Multi-Operator Reveel, penyedia perangkat lunak kecerdasan pengiriman, mengumumkan bahwa platformnya kini mendukung operator tambahan selain FedEx dan United Parcel Service (UPS). Kini, Platform Reveel Shipping Intelligence™ juga memungkinkan pengirim paket untuk memperoleh visibilitas dan kontrol langsung dan komprehensif atas pengeluaran paket mereka dengan DHL eCommerce, DHL Express, dan Layanan Pengiriman Nasional dan Regional Pitney Bowes. Peningkatan Efisiensi Operasional dan Kepuasan Pelanggan Kemampuan visibilitas multi-operator pada platform ini memberdayakan pengirim untuk meningkatkan efisiensi operasional dan meningkatkan kepuasan pelanggan dengan memilih operator terbaik untuk setiap pengiriman berdasarkan biaya, kecepatan pengiriman, dan kualitas layanan – sekaligus mengurangi risiko yang terkait dengan gangguan layanan dan ketergantungan berlebihan pada satu operator. Faktor Penting Pengiriman Pelanggan kini dapat menggunakan platform Reveel untuk memperoleh visibi

  • Pemangkasan Terstruktur yang Menjaga Performa untuk Model Difusi Laten

    Pengantar Model generatif telah menjadi alat transformatif di berbagai bidang, termasuk visi komputer dan pemrosesan bahasa alami, dengan mempelajari distribusi data dan menghasilkan sampel darinya. Di antara model-model ini, Model Difusi (DM) telah menarik perhatian karena kemampuannya menghasilkan gambar berkualitas tinggi. Model Difusi Laten (LDM) menonjol karena kemampuan generasinya yang cepat dan biaya komputasi yang rendah. Namun, penerapan LDM pada perangkat dengan sumber daya terbatas masih menjadi tantangan karena persyaratan komputasi yang signifikan, terutama dari komponen Unet. Para peneliti telah mengeksplorasi berbagai teknik kompresi untuk LDM untuk mengatasi tantangan ini, dengan tujuan mengurangi beban komputasi sambil mempertahankan kinerja. Strategi-strategi ini meliputi kuantisasi, dekomposisi filter berpangkat rendah, penggabungan token, dan pemangkasan. Pemangkasan untuk Kompresi LDM Pemangkasan, yang secara tradisional digunakan untuk mengompresi jaringan konvolusional, telah diadaptas

  • Benchmark Blink: Evaluasi Kemampuan Persepsi Visual Inti yang Tidak Ditemukan dalam Evaluasi yang Ada

    Pengantar Dengan munculnya visi komputer, penelitiannya tidak lagi hanya memindai larik 2D dari “pola” datar. Sebaliknya, mereka berusaha memahami gambar sebagai proyeksi pemandangan 3D. Awalnya, para peneliti menciptakan beberapa tugas perantara untuk membantu pengejaran ini. Ini termasuk mempelajari sifat optik seperti reflektansi, primitif tiga dimensi menggunakan penalaran multi-tampilan, penalaran geometris menggunakan estimasi kedalaman, korespondensi visual, pengenalan, landasan titik kunci untuk kemampuan, dan gambar intrinsik untuk forensik. Studi telah mengarah pada penyusunan tugas-tugas baru, yang sebagian besar diartikulasikan dalam bahasa alami, di era model bahasa besar (LLM) saat ini, yang menekankan hubungan visi-bahasa yang dipelajari oleh LLM multimodal dan kurang pada tugas persepsi tersebut. Hal ini bisa jadi karena ketidaktepatan bahasa yang melekat, yang membuatnya sulit untuk digunakan untuk memediasi banyak tugas visi komputer konvensional (misalnya, menentukan titik kunci spasial mel

  • Etika Asisten Kecerdasan Buatan Canggih

    Pendahuluan Peneliti dari Google DeepMind meneliti manfaat potensial dan ancaman etis dari asisten Kecerdasan Buatan (AI) canggih. Asisten ini digambarkan sebagai agen buatan dengan antarmuka bahasa alami yang bertanggung jawab mengatur dan melaksanakan operasi yang ditentukan pengguna di berbagai domain. Potensi dan Ancaman Etis Asisten AI canggih diprediksi lebih mampu daripada pendahulunya, seperti Siri dari Apple atau Alexa dari Amazon, dalam hal otonomi, generalitas, dan jangkauan tindakan. Model dasar seperti Meta AI, model Gemini Google, Copilot Microsoft, Pi Inflection, dan API Asisten OpenAI semakin menunjukkan potensi asisten AI ini untuk terintegrasi secara menyeluruh ke dalam berbagai aspek kehidupan kita. Integrasi ini menimbulkan masalah etika dan sosial yang penting, karena hubungan manusia dengan teknologi AI memasuki fase baru. Studi ini menekankan pentingnya menyelaraskan teknologi ini dengan tujuan, hasrat, dan nilai-nilai pribadi dan sosial. Teknologi yang Mendasari Studi ini memberikan ti

  • Model Dasar PROSE-PDE untuk Menyelesaikan dan Mengekstrapolasi Persamaan Diferensial Parsial

    **Pengantar** Persamaan diferensial parsial (PDE) adalah alat yang ampuh untuk memodelkan dan memahami proses spatio-temporal yang rumit di berbagai bidang ilmiah. Namun, memecahkan persamaan ini secara analitis bisa menjadi tugas yang menakutkan, seringkali membutuhkan metode komputasi atau simulasi. Di sinilah pembelajaran mesin berperan, menawarkan pendekatan baru untuk mengatasi masalah PDE dengan belajar memperkirakan solusi langsung dari data. **Model PROSE-PDE** PROSE-PDE adalah model jaringan saraf multimodal yang dirancang sebagai dasar untuk memecahkan berbagai PDE bergantung waktu, termasuk hukum difusi nonlinier, dispersif, konservasi, dan persamaan gelombang. Inovasi utama terletak pada kemampuan PROSE-PDE untuk mempelajari beberapa operator secara bersamaan dan mengekstrapolasi fenomena fisik di berbagai sistem pemerintahan. **Cara Kerja PROSE-PDE** PROSE-PDE menggunakan teknik baru yang disebut Pembelajaran Multi-Operator (MOL). Tidak seperti pendekatan tradisional yang mempelajari satu operato

  • AlphaLLM: Kerangka Pembelajaran Mesin Baru untuk Model Bahasa yang Memperbaiki Diri

    Pengantar Model Bahasa Besar (LLM) terkenal karena kemampuannya mengurai dan menghasilkan teks seperti manusia dalam berbagai aplikasi. Model-model ini telah menjadi bagian integral dari teknologi yang mengotomatiskan dan menyempurnakan tugas berbasis teks. Meskipun memiliki kemampuan yang canggih, LLM modern menghadapi tantangan signifikan dalam skenario yang membutuhkan penalaran rumit dan perencanaan strategis. Tantangan ini berasal dari keterbatasan dalam metodologi pelatihan saat ini, yang sangat bergantung pada sejumlah besar data beranotasi berkualitas tinggi yang terkadang tidak tersedia atau sulit dikumpulkan. Pendekatan yang Ada Penelitian yang ada mencakup teknik pemberian perintah lanjutan seperti GPT-4’s Chain-of-Thought, yang meningkatkan penalaran dengan menguraikan langkah-langkah perantara. Beberapa model menunjukkan potensi penyesuaian halus LLM dengan data berkualitas tinggi, meskipun pendekatan ini dibatasi oleh ketersediaan data. Strategi koreksi diri memungkinkan LLM menyempurnakan kelua

  • Gelar Paling Cocok untuk Karier di Bidang AI

    Pendahuluan Bagi mereka yang berminat berkarier di bidang kecerdasan buatan (AI), California Polytechnic State University menawarkan gelar dengan bayaran terbaik dan paling banyak dicari di Amerika. Penelitian terbaru menemukan tiga gelar sarjana lain yang 100% dapat diterima dan dapat menghasilkan gaji di atas $100.000 bagi lulusannya. Gelar tersebut tersedia di Wake Forest University (NC), Trinity University (TX), dan Clarkson University (NY). Gelar Terkait AI dengan Prospek Kerja dan Gaji Tinggi Menurut studi terbaru dari perusahaan pengembangan perangkat lunak Vention, yang menganalisis data ketenagakerjaan lulusan terbaru dari Departemen Pendidikan AS, tiga institusi lain menawarkan gelar terkait AI dengan prospek kerja 100% dan gaji di atas $100.000 empat tahun setelah lulus: Wake Forest University (NC), Trinity University (TX), dan Clarkson University (NY). Studi ini berfokus pada gelar yang lulusannya mendapatkan pekerjaan setahun setelah menyelesaikan gelar mereka, serta empat tahun kemudian. Dari 1.

  • Cara AI Membantu Bisnis Baru Menghemat hingga Rp75 Juta

    Pendahuluan Hanya 29% dari perusahaan rintisan/bisnis kecil yang mengadopsi AI dalam operasi mereka, dengan alasan kurangnya keahlian sebagai alasan utama mereka tidak melakukannya. Namun, memanfaatkan AI secara efektif dapat secara signifikan mengurangi stres bagi pemilik bisnis, dengan survei AIPRM baru-baru ini mengungkapkan bahwa satu dari delapan bisnis AS telah menghemat antara Rp15 juta dan Rp75 juta dengan mengganti tugas-tugas sederhana dengan AI. Membantu Bisnis Rintisan dan Bisnis Kecil Pemasaran Pemasaran merupakan elemen penting bagi setiap perusahaan rintisan atau bisnis kecil, tidak hanya untuk membangun kesadaran merek, kredibilitas, dan kepercayaan, tetapi juga untuk retensi pelanggan yang positif dan pertumbuhan jangka panjang. Menggunakan AI dalam strategi pemasaran Anda tidak harus terlalu rumit, dan biasanya sangat mudah diakses – dengan alat gratis untuk digunakan seperti Chat GPT. Dengan lebih dari tiga dari lima (61%) pemasar sekarang menggunakan AI untuk menghemat waktu dan sumber day

  • Langdock Galang Dana $3 Juta untuk Tingkatkan Produktivitas Tempat Kerja Berbasis LLM

    Langdock, platform yang memberdayakan perusahaan untuk memanfaatkan model bahasa besar (LLM) sekaligus mengontrol data mereka, telah mengumpulkan dana awal sebesar $3 juta yang dipimpin oleh General Catalyst bersama La Famiglia. Dana tersebut juga mencakup partisipasi dari Y Combinator dan pendiri Jerman ternama, termasuk Rolf Schrömgens (Trivago), Hanno Renner (Personio), Johannes Reck (GetYourGuide), dan Erik Muttersbach (Forto), bersama dengan lebih dari 25 investor malaikat lainnya. Dana terbaru ini akan memungkinkan perusahaan untuk menghadirkan solusi LLM baru dengan kepatuhan dan standar data yang lengkap. Perusahaan dapat memilih antara LLM Eropa dan AS yang mendukung aplikasi khusus mereka sambil menggabungkan konteks perusahaan, termasuk pengetahuan dan data. Ini dapat mengatasi kekurangan tenaga kerja yang membayangi di Eropa. Langdock didedikasikan untuk mendemokratisasi manfaat AI generatif. Dalam lanskap korporat Eropa, startup AI terkemuka ini membantu perusahaan membuka kekuatan LLM sambil mem

  • Unit Pemrosesan Bahasa (LPU): Peran Pentingnya dalam Perangkat Keras AI

    Definisi dan Karakteristik Inti LPU Unit Pemrosesan Bahasa (LPU) adalah perangkat keras khusus yang dirancang untuk unggul dalam tugas pemrosesan bahasa. LPU mengintegrasikan desain arsitektur canggih yang memprioritaskan pemrosesan data berurutan, yang sangat penting untuk pemahaman dan pembuatan bahasa manusia secara akurat. LPU menjadi semakin relevan di dunia digital saat ini, di mana tugas-tugas yang berpusat pada bahasa, mulai dari penerjemahan waktu nyata hingga pembuatan konten otomatis, sangat lazim. Fitur Khas LPU Spesialisasi Tugas: LPU dioptimalkan untuk pemrosesan bahasa, memberikan kinerja superior pada tugas-tugas NLP seperti analisis sentimen, terjemahan mesin, dan AI percakapan dibandingkan dengan prosesor multiguna. Efisiensi: Dengan berfokus pada tugas bahasa, LPU mencapai waktu pemrosesan yang lebih cepat dan konsumsi daya yang lebih rendah, sehingga mengurangi biaya operasional dan meningkatkan efisiensi energi. Integrasi yang Ditingkatkan: Perusahaan seperti Groq telah memelopori LPU den

  • AI Ajaib Amazon: Menyederhanakan Pesanan dengan Kemasan Berkelanjutan

    Pendahuluan Algoritma AI multimodal berbasis cloud Amazon Web Services (AWS) dapat menentukan apakah selimut membutuhkan kemasan pelindung atau apakah piring makan membutuhkan kotak yang lebih kokoh. Algoritma ini mempelajari pilihan kemasan Amazon yang berubah menggunakan pembelajaran mesin mendalam, pemrosesan bahasa alami, dan visi komputer. Pakar Amazon mengatakan algoritma ini biasanya memperkirakan pilihan kemasan yang paling efisien. Amazon menjual ratusan juta barang, dari tenda berkemah hingga sweter liburan, dan kecerdasan buatan kemungkinan besar memilih kotak atau surat yang sampai di depan pintu pelanggan. Package Decision Engine, sebuah model AI yang dibuat Amazon, membantu mengurangi jumlah kotak kardus, bantalan udara, selotip, dan surat yang diperlukan untuk mengirimkan barang dengan menentukan kemasan paling ekonomis untuk setiap barang yang dipelajarinya. Model ini menunjukkan bagaimana organisasi menggunakan AI untuk mencapai target keberlanjutan dengan lebih cepat, meminimalkan kemasan, m

  • Solusi Layanan Terlengkap di Era AI dari Zendesk

    Pengantar Zendesk AI meluncurkan solusi layanan terlengkap di industri untuk era AI. Agen AI otonom, otomatisasi alur kerja, kopilot agen, Manajemen Tenaga Kerja (WFM), dan Jaminan Kualitas (QA) yang didukung oleh Zendesk AI tersedia untuk membantu bisnis memberikan layanan yang sangat baik. Ribuan perusahaan menggunakan Zendesk AI, produk dengan pertumbuhan tercepat perusahaan, untuk mengelola kualitas layanan dan memperluas jangkauan. Ini mengotomatiskan 80% permintaan dukungan dan melipatgandakan resolusi otomatis secara langsung. Hal ini mengurangi waktu penyelesaian sebesar 30% dan meningkatkan produktivitas agen sebesar 10%. Agen AI lebih dari sekadar alat—mereka mengubah cara organisasi berinteraksi dengan pelanggan. Zendesk sedang mengembangkan bot AI yang secara otonom menangani pertanyaan pelanggan yang sederhana dan kompleks. Agen AI ini dapat menangani kasus penggunaan yang kompleks, berinteraksi dengan basis pengetahuan apa pun, dan sepenuhnya dapat disesuaikan. Mengapa Berita Ini Penting? Zendes

  • LaunchFlow: Startup AI Pengembang yang Menyediakan Alat Infrastruktur dari Kode untuk Meningkatkan Pengalaman Pengembang di GCP dan AWS Secara Drastis

    Infrastruktur Cloud untuk Pengembangan AI Infrastruktur cloud adalah komponen utama pengembangan dan implementasi AI di era modern. Pengelolaan dan pemanfaatan infrastruktur cloud harus disederhanakan. Membangun alur penyebaran itu menantang, dan menyinkronkan pengaturan cloud dan kode aplikasi itu merepotkan. Munculnya LaunchFlow LaunchFlow adalah startup inovatif AI yang menyederhanakan dan mengotomatiskan penyebaran cloud sebagai alat infrastruktur dari kode (IaC). LaunchFlow adalah alat pengembang yang menyederhanakan proses penyebaran infrastruktur saat mengirimkan aplikasi Python ke platform cloud. Fitur dan Manfaat Utama Kekuatan utama LaunchFlow adalah kemampuannya menyediakan pengaturan yang telah dikonfigurasi sebelumnya. Pengembang tidak perlu repot mengatur fitur-fitur ini karena lingkungannya sudah aman, terukur, dan hemat biaya. Ini membantu mengoptimalkan penggunaan sumber daya cloud dan memastikan penyebaran aman sejak awal. Keuntungan tambahan lainnya adalah Python SDK LaunchFlow. Dengan SDK

  • Keluarga Model AI OpenBezoar: Model AI Kecil, Hemat Biaya, dan Sumber Terbuka yang Dilatih pada Data Instruksi Campuran

    Pendahuluan Keberhasilan terkini dalam fine-tuning instruksi pada Large Language Model (LLM) yang telah dilatih sebelumnya untuk tugas-tugas hilir telah menarik minat yang signifikan dalam komunitas Kecerdasan Buatan (AI). Hal ini karena memungkinkan model selaras dengan preferensi manusia. Metode Pelatihan Untuk memastikan bahwa model yang disempurnakan ini secara tepat mewakili preferensi manusia, metode seperti Optimalisasi Preferensi Langsung (DPO) dan Pembelajaran Penguatan dari Umpan Balik Manusia (RLHF) telah dikembangkan. Fine-Tuning yang Diawasi Dalam Fine-Tuning yang Diawasi (SFT), instruksi diberikan kepada LLM yang telah dilatih sebelumnya, yang memungkinkan penyesuaiannya untuk menjalankan tugas tertentu. Hal ini tidak hanya menjamin bahwa mereka menghasilkan jawaban yang logis, tetapi juga menunjukkan bagaimana pembelajaran yang diawasi memungkinkan model-model ini menyesuaikan diri dengan tugas yang berbeda melalui pembelajaran observasional secara efisien. Model dengan Parameter Lebih Sedikit

  • Saluran Pipa untuk Meningkatkan Performa Pembelajaran Imitasi dengan Anggaran Demonstrasi Manusia yang Kecil

    Pendahuluan Teknologi robotika sangat berharga untuk proses perakitan otomatis. Namun, sistem robotika tradisional kesulitan beradaptasi dengan tuntutan lingkungan produksi yang ditandai dengan manufaktur volume rendah dengan campuran tinggi. Pembelajaran robotika memberikan solusi potensial untuk tantangan ini dengan memungkinkan robot memperoleh keterampilan perakitan melalui demonstrasi daripada lintasan yang sudah ditulis, sehingga meningkatkan kemampuan beradaptasi dan fleksibilitas. Tantangan dalam Pembelajaran Imitasi Mengajar robot untuk melakukan tugas perakitan hanya dari data sensor mentah tetap menjadi tantangan yang berat karena sifat tugas yang kompleks dan presisi. Hal ini memerlukan pendekatan pelatihan dan pembelajaran yang inovatif. Strategi Pembelajaran Imitasi Para peneliti telah mengeksplorasi berbagai strategi untuk mengatasi kesulitan dalam melatih robot untuk tugas perakitan menggunakan persepsi mentah, termasuk Pembelajaran Penguatan (RL) dan Pembelajaran Imitasi (IL). Meskipun RL men

  • Perluasan Jendela Konteks NLP dengan LongEmbed dari Universitas Peking dan Microsoft

    Model Penyelaman Model penyematan merupakan alat dasar dalam pemrosesan bahasa alami (NLP), yang menjadi tulang punggung untuk aplikasi seperti pengambilan informasi dan generasi yang diperkuat pengambilan. Model-model ini mengubah teks menjadi format numerik yang dapat diproses mesin, yang sangat penting untuk memahami dan memanipulasi bahasa. Secara tradisional, model-model ini dibatasi oleh jendela konteks yang sempit, biasanya menangani tidak lebih dari 512 token. Keterbatasan ini membatasi penggunaannya dalam skenario yang menuntut analisis dokumen yang diperluas, seperti kontrak hukum atau ulasan akademis yang terperinci. Perkembangan Model Penyelaman NLP Penelitian yang ada dalam model penyematan NLP secara progresif berfokus pada perluasan kemampuan konteks. Model awal seperti BERT menggunakan penyematan posisi absolut (APE), sementara inovasi yang lebih baru seperti RoFormer dan LLaMA menggabungkan penyematan posisi rotasi (RoPE) untuk menangani teks yang lebih panjang. Model terkenal seperti Longfor

  • COCONut: Dataset Skala Besar Berkualitas Tinggi untuk Model Segmentasi Generasi Berikutnya

    Pendahuluan Visi komputer telah berkembang pesat dalam beberapa dekade terakhir, sebagian besar berkat dataset tolok ukur yang komprehensif seperti COCO. Namun, hampir satu dekade setelah diperkenalkan, kesesuaian COCO sebagai tolok ukur untuk model AI modern dipertanyakan. Anotasinya mungkin mengandung bias dan nuansa yang mencerminkan tahap awal penelitian visi komputer. Dengan kinerja model yang melandai pada COCO, ada kekhawatiran tentang kesesuaian yang berlebihan dengan karakteristik khusus dataset, yang berpotensi membatasi penerapan di dunia nyata. COCONut: Dataset Segmentasi Universal Skala Besar Untuk memodernisasi segmentasi COCO, para peneliti telah mengusulkan COCONut – sebuah dataset segmentasi universal skala besar yang baru dalam makalah ini. Tidak seperti upaya sebelumnya dalam membuat dataset besar yang sering mengorbankan akurasi label untuk skala, COCONut menampilkan label topeng yang diverifikasi manusia untuk 383 ribu gambar. Pipa Anotasi Manual Berbantuan COCONut mengatasi tantangan ini

  • Model AI Pra-latih MuPT untuk Pembuatan Musik Simbolik, Tetapkan Standar Pelatihan Model Dasar Musik Simbolik Open-Source

    Pendahuluan Model Bahasa Besar (LLM) telah menjadi alat serbaguna dalam lanskap kecerdasan buatan yang terus berkembang, membuat kemajuan signifikan di berbagai bidang. Saat mereka menjelajah ke ranah multimodal seperti pemrosesan visual dan pendengaran, kapasitas mereka untuk memahami dan merepresentasikan data kompleks, dari gambar hingga ucapan, menjadi semakin tak tergantikan. Namun, ekspansi ini membawa banyak tantangan, terutama dalam mengembangkan teknik tokenisasi yang efisien untuk berbagai jenis data, seperti gambar, video, dan aliran audio. Tantangan dalam Pembuatan Musik Simbolik Di antara banyak aplikasi LLM, bidang musik menghadirkan tantangan unik yang membutuhkan pendekatan inovatif. Meskipun mencapai kinerja musik yang luar biasa, model-model ini sering kali perlu ditingkatkan dalam menangkap koherensi struktural yang penting untuk komposisi yang estetis. Ketergantungan pada Musical Instrument Digital Interface (MIDI) menghadirkan keterbatasan yang melekat, menghambat keterbacaan dan represen

  • Transformasi Pengajaran: Bagaimana AI Generatif Meningkatkan Perangkat dan Metode Pendidik

    Pengalaman Belajar yang Dipersonalisasi Platform Pembelajaran Adaptif: AI dapat menyesuaikan konten pendidikan agar sesuai dengan kecepatan dan gaya belajar setiap siswa. Platform berbasis AI seperti Coursera dan Khan Academy menggunakan algoritme untuk menyesuaikan tingkat kesulitan tugas dan menyarankan sumber daya tambahan berdasarkan kinerja siswa. Sistem Bimbingan Cerdas: Tutor AI memberikan umpan balik dan penjelasan yang dipersonalisasi, membantu siswa memahami konsep kompleks sesuai kecepatan mereka sendiri. Jalur Pembelajaran yang Disesuaikan: Sistem AI menganalisis data siswa untuk membuat rencana pelajaran dan aktivitas belajar khusus, mengoptimalkan hasil pendidikan. Pembuatan Konten Otomatis Pengembangan Kurikulum: Alat AI dapat membantu pendidik dalam mengembangkan materi kurikulum, menghasilkan konten pendidikan, dan menyiapkan alat bantu mengajar, sehingga mengurangi waktu persiapan dan meningkatkan kualitas materi pembelajaran. Pembuatan Kuis: Alat seperti Quizlet menggunakan AI untuk membuat

  • Peneliti MIT Gunakan Pembelajaran Mendalam untuk Mendapatkan Gambaran Lebih Baik tentang Lapisan Atmosfer yang Paling Dekat dengan Permukaan Bumi: Meningkatkan Prediksi Cuaca dan Kekeringan

    Pendahuluan Lapisan batas planet (PBL) adalah lapisan atmosfer yang paling dekat dengan permukaan bumi. Lapisan ini sangat penting untuk cuaca dan iklim, tetapi sulit untuk dipahami dan dimodelkan secara akurat. Tantangan dalam Memahami PBL Teknologi saat ini kesulitan untuk menyelesaikan fitur penting PBL, seperti ketinggiannya, yang berdampak signifikan pada cuaca dan iklim di dekat permukaan bumi. Akibatnya, terdapat kebutuhan mendesak untuk mengembangkan metode yang lebih baik untuk pencitraan dan analisis PBL untuk meningkatkan pemahaman kita tentang proses atmosfer. Pembelajaran Mendalam untuk Pencitraan PBL Peneliti dari Lincoln Laboratory mengusulkan penggunaan teknik pembelajaran mendalam untuk mengatasi tantangan ini. Mereka memperlakukan atmosfer di atas wilayah yang diminati sebagai gambar tiga dimensi. Pendekatan ini bertujuan untuk meningkatkan representasi statistik pencitraan suhu dan kelembapan 3D untuk memberikan informasi yang lebih akurat dan terperinci tentang PBL. Manfaat Pembelajaran Me

  • 6 Kursus Kecerdasan Buatan (AI) Gratis dari Google

    Kursus-kursus AI gratis berikut menawarkan jalur terstruktur bagi pemula untuk memulai perjalanan mereka ke dunia kecerdasan buatan. Setiap kursus dirancang untuk memperkenalkan konsep dasar dan alat praktis dalam format yang ringkas dan mudah dikelola: 1. Pengenalan AI Generatif Kursus ini memberikan gambaran umum pengantar tentang AI Generatif, menjelaskan apa itu dan bagaimana perbedaannya dari metode pembelajaran mesin tradisional. Peserta akan mempelajari tentang aplikasi AI Generatif dan menjelajahi alat yang dikembangkan oleh Google untuk membuat aplikasi berbasis AI mereka sendiri. Modul pembelajaran mikro ini sangat cocok bagi mereka yang ingin tahu tentang bagaimana AI dapat menghasilkan konten dan berinovasi di berbagai bidang. 2. Pengenalan AI yang Bertanggung Jawab Kursus ini berfokus pada aspek etika teknologi AI. Kursus ini memperkenalkan peserta pada AI yang bertanggung jawab dan menjelaskan mengapa hal ini penting dalam mengembangkan sistem AI. Kursus ini juga mencakup tujuh prinsip AI Google

  • Inheritune: Pelatihan Model Bahasa yang Efisien dari UT Austin

    Tantangan Pelatihan Model Bahasa Besar (LLM) Pelatihan LLM menghadapi tantangan besar karena membutuhkan sumber daya komputasi yang sangat besar dan kumpulan data berkualitas tinggi. Proses prapelatihan biasanya melibatkan model dengan miliaran parameter dan pelatihan pada kumpulan data yang berisi triliunan token. Prosedur rumit ini menuntut daya komputasi yang besar dan akses ke data berkualitas tinggi untuk mencapai kinerja yang lebih baik dalam tugas pemahaman dan pembuatan bahasa. Inheritune: Warisan dan Pengurangan Data Peneliti dari UT Austin telah mengembangkan “Inheritune”, sebuah metode untuk membedakan LLM dasar yang lebih kecil dari yang lebih besar. Mereka mewarisi beberapa blok transformator dari LLM yang lebih besar dan kemudian melatih model yang lebih kecil pada sebagian kecil (0,1%) dari data prapelatihan asli. Pendekatan ini secara efisien membuat LLM dengan 1,5 miliar parameter menggunakan hanya 1 miliar token, memanfaatkan satu GPU dalam waktu kurang dari 12 jam. Meskipun menggunakan data

  • Model Interaksi Formal (FIM): Model Pembelajaran Mesin Berbasis Matematika yang Memformalisasi Bagaimana AI dan Pengguna Saling Membentuk

    Pendahuluan Pembelajaran mesin telah menjadi bidang penting yang berkontribusi pada pengembangan platform dan produk yang digerakkan oleh data, adaptif, dan cerdas. Sistem AI membantu membentuk pengguna, dan sebaliknya, pengguna membentuk sistem ini. Metode Populer: Sistem Rekomendasi Konten (CRS) CRS dapat berinteraksi dengan pemirsa dan kreator, memfasilitasi kurasi algoritmik dan personalisasi. Interaksi CRS dapat memengaruhi rekomendasi selanjutnya dengan membentuk preferensi pemirsa dan konten yang tersedia di platform. Kekurangan Sistem AI Meskipun sistem AI bermanfaat, desain dan evaluasinya tidak menyoroti bagaimana sistem dan pengguna ini saling membentuk. Masalah ini terlihat pada beberapa algoritme pembelajaran. Misalnya, ketika kumpulan data statis yang besar dilatih menggunakan pengaturan pembelajaran yang diawasi, sistem AI gagal membuktikan bagaimana ia mengubah lingkungan operasinya. Model Interaksi Formal (FIM) Peneliti dari Cornell University, University of California, Princeton University,

  • Memahami AI Kausal: Menjembatani Kesenjangan antara Korelasi dan Kausalitas

    Apa itu AI Kausal? AI Kausal mengintegrasikan inferensi kausal ke dalam algoritma AI untuk memodelkan dan bernalar tentang dunia dalam kaitannya dengan hubungan sebab-akibat. Tidak seperti AI tradisional yang bergantung pada korelasi yang ditemukan dalam data historis, AI kausal berusaha memahami mekanisme yang mendasari yang menghasilkan data ini. Perbedaan antara Korelasi dan Kausalitas Korelasi: Menunjukkan hubungan di mana dua variabel bergerak seiring, tetapi tidak membuktikan bahwa satu variabel memengaruhi atau menyebabkan terjadinya variabel lainnya. Kausalitas: Mengacu pada skenario di mana satu variabel secara langsung memengaruhi variabel lainnya. Inferensi Kausal dalam AI Inferensi kausal adalah metodologi AI untuk menyimpulkan hubungan mana dalam data yang diamati yang dapat digambarkan sebagai kausal. Hal ini penting dalam skenario di mana keputusan perlu didasarkan pada prediksi hasil dari tindakan tertentu. Aplikasi AI Kausal Kesehatan: Menentukan efek pengobatan baru pada hasil pasien. Ekonom

  • Benchmark Keamanan AI Terobosan v0.5 dari Kelompok Kerja Keamanan AI MLCommons

    Pendahuluan Kelompok Kerja Keamanan AI MLCommons, sebuah kolaborasi industri dan akademisi, berfokus pada peningkatan keamanan, efisiensi, dan akuntabilitas AI melalui standar pengukuran yang ketat seperti MLPerf. Kelompok ini bertujuan untuk mengembangkan tolok ukur untuk menilai keamanan AI, melacak kemajuannya dari waktu ke waktu, dan mendorong peningkatan keamanan. Benchmark Keamanan AI v0.5 MLCommons, bekerja sama dengan berbagai institusi dan organisasi, telah mengembangkan versi 0,5 dari Benchmark Keamanan AI. Benchmark ini mengevaluasi risiko keamanan yang terkait dengan sistem AI yang menggunakan model bahasa yang disesuaikan dengan obrolan. Benchmark ini menyediakan pendekatan terstruktur untuk konstruksi tolok ukur, termasuk mendefinisikan kasus penggunaan, jenis sistem, parameter bahasa dan konteks, persona, pengujian, dan kriteria penilaian. Kategori Bahaya dan Pengujian Benchmark ini mencakup taksonomi 13 kategori bahaya, dengan pengujian untuk tujuh kategori yang terdiri dari 43.090 item penguj

  • Sistem Dekoding Spekulatif Hierarkis TriForce untuk Pembangkitan Urutan Panjang

    Pengantar Model bahasa besar (LLM) banyak digunakan untuk pembangkitan konten panjang, sehingga diperlukan dukungan inferensi urutan panjang yang efisien. Namun, cache nilai-kunci (KV), yang penting untuk menghindari penghitungan ulang, telah menjadi hambatan kritis karena ukurannya meningkat linear dengan panjang urutan. Sifat autoregresif LLM mengharuskan pemuatan seluruh cache KV untuk setiap token yang dihasilkan, yang menyebabkan pemanfaatan inti komputasi yang rendah dan latensi tinggi. Meskipun metode kompresi telah diusulkan, metode tersebut sering kali mengorbankan kualitas pembangkitan. Tantangan LLM seperti GPT-4, Gemini, dan LWM menjadi populer dalam aplikasi seperti chatbot, pembangkitan visi, dan analisis keuangan. Namun, penyediaan LLM ini secara efisien tetap menjadi tantangan karena sifat autoregresif dan jejak memori cache KV yang semakin besar. Metodologi sebelumnya mengusulkan strategi pengusiran cache KV untuk mengurangi jejak memori cache KV, secara selektif membuang pasangan berdasarkan

  • Meta AI: Asistan Obrolan Bertenaga Llama-3 untuk Menandingi ChatGPT

    Pengenalan Llama-3 Meta Llama-3 adalah model bahasa besar (LLM) yang canggih yang melampaui versi sebelumnya, Llama 2, dalam hal kinerja. Dengan 8 hingga 70 miliar parameter, Llama 3 melampaui model lain di kelasnya. Proses pra-pelatihan dan pasca-pelatihan yang ditingkatkan secara signifikan meningkatkan berbagai tugas. Llama 3 mengurangi kesalahan, meningkatkan keragaman respons, dan memberikan keselarasan yang lebih baik. Asisten Obrolan Meta AI Meta AI, asisten AI canggih yang dibangun dengan Meta Llama-3, gratis digunakan di ponsel Anda melalui aplikasi seperti Facebook, Instagram, WhatsApp, dan Messenger. Anda dapat menggunakan Meta AI untuk menyelesaikan berbagai tugas dan tetap terhubung dengan hal-hal yang paling penting bagi Anda. Menggunakan Meta AI di Instagram Cari Meta AI di panel pencarian, dalam bentuk cincin biru. Obrolan langsung dengan Meta AI di pesan langsung (DM). Cari apa pun tanpa meninggalkan aplikasi Meta. Hasilkan gambar AI secara langsung dengan perintah “/Bayangkan”. Animasikan ga

  • Perkembangan Perangkat Keras Pembelajaran Mendalam: GPU, TPU, dan Selanjutnya

    Kebangkitan GPU Unit Pemrosesan Grafis (GPU) telah menjadi sangat penting dalam revolusi pembelajaran mendalam. Awalnya dirancang untuk menangani grafik komputer dan pemrosesan gambar, GPU sangat efisien dalam melakukan operasi matriks dan vektor yang menjadi inti pembelajaran mendalam. Kemampuan Pemrosesan Paralel: GPU dapat menjalankan ribuan utas secara bersamaan, menjadikannya ideal untuk komputasi skala besar dan paralel dalam pembelajaran mendalam. Penskalaan Ekonomis: Teknologi CUDA NVIDIA, yang digunakan dalam banyak produk, telah memudahkan pengembang untuk menskalakan model pembelajaran mendalam secara ekonomis. Serbaguna: Selain pembelajaran mendalam, GPU serbaguna, mendukung berbagai tugas komputasi. Pengenalan TPU Google mengembangkan Unit Pemrosesan Tensor (TPU), yang dirancang khusus untuk mempercepat operasi tensor dalam algoritma jaringan saraf yang penting untuk layanan AI Google. Dioptimalkan untuk Kinerja: TPU dirancang khusus untuk operasi pembelajaran mendalam, menawarkan waktu pemrosesa

  • Model Bahasa untuk Pemrograman Olimpiade

    Benchmark USACO untuk Evaluasi Ketat Model Bahasa Kode Pembuatan kode telah menjadi area penting untuk mengevaluasi dan menerapkan Model Bahasa Besar (LLM). Namun, banyak benchmark pengkodean saat ini, seperti HumanEval dan MBPP, telah mencapai tingkat solusi di atas 90% karena model bahasa semakin besar dan teknik inferensi baru telah dibuat. Kejenuhan ini menunjukkan perlunya benchmark yang lebih sulit yang dapat menyoroti keterbatasan model dan teknik inferensi yang ada sekaligus menawarkan saran untuk meningkatkan kapasitas model ini untuk penalaran algoritmik. Pemrograman kompetitif menawarkan jalan yang baik untuk ditempuh dalam hal ini. Ini dimaksudkan untuk mengevaluasi secara objektif baik pengembangan algoritma unik maupun penalaran manusia dalam situasi yang menantang. Belum ada cukup keragaman masalah, analisis masalah mendalam, atau rangkaian uji unit yang komprehensif dalam evaluasi pemrograman kompetitif untuk menilai kemampuan penalaran algoritmik dengan benar. Menanggapi kendala ini, USACO, b

  • Peningkatan Algoritmik SOAR pada Pencarian Vektor untuk ScaNN

    Pendahuluan Pencarian vektor adalah komponen penting dari banyak algoritma pembelajaran mesin. Untuk mengatasi kebutuhan akan pencarian kesamaan vektor yang efisien, peneliti Google AI memperkenalkan pustaka pencarian vektor ScaNN. Batasan Metode Pencarian Vektor Saat Ini Metode saat ini untuk menghitung kesamaan vektor berfungsi dengan baik untuk kumpulan data kecil. Namun, dengan pertumbuhan kumpulan data dan aplikasi baru, permintaan akan peningkatan skalabilitas dan kinerja terus meningkat. SOAR: Peningkatan Algoritmik SOAR (Spilling with Orthogonality-Amplified Residuals) adalah peningkatan algoritmik pada ScaNN yang dirancang untuk mempercepat pencarian vektor sekaligus mengurangi beban kerja. Redundansi yang Efektif dan Efisien Metode yang digunakan saat ini untuk ScaNN menggunakan pendekatan berbasis pengelompokan, di mana setiap vektor dalam kumpulan data ditetapkan ke satu kluster k-means. Namun, pendekatan ini menghadapi kesulitan ketika vektor kueri sangat paralel dengan residual, yaitu perbedaan

  • Briefer: Platform Analisis Data Berbasis AI untuk Ilmuwan Data

    Kemajuan teknologi yang pesat mengubah industri analisis data. Kecerdasan buatan (AI) dengan cepat mengubah alur kerja, berpotensi mengotomatiskan aktivitas dan menghasilkan wawasan yang lebih mendalam. Apa itu Briefer? Briefer adalah perusahaan rintisan AI yang menawarkan antarmuka seperti Notion yang menyederhanakan eksekusi kode SQL dan Python, kolaborasi melalui komentar dan pengeditan waktu nyata, dan koneksi langsung ke sumber data. Briefer juga meluas ke lingkungan komputasi sehingga pengguna dapat memilih yang terbaik untuk kebutuhan proyek mereka. Fitur Utama Eksplorasi, Analisis, dan Visualisasi Data yang Efisien: Klien dapat memfasilitasi eksplorasi, analisis, dan visualisasi data yang efisien, serta mengomunikasikan dan menyajikan wawasan dengan lebih baik. Pembuatan Aplikasi Data dan Visualisasi Interaktif: Analis dan ilmuwan data dapat membuat aplikasi data dan visualisasi interaktif menggunakan Briefer, platform analisis dan visualisasi data kolaboratif. Antarmuka yang Ramah Pengguna: Briefer b

  • ReffAKD: Metode Pembelajaran Mesin untuk Menghasilkan Label Lunak demi Memfasilitasi Distilasi Pengetahuan pada Model Murid

    Pengantar Jaringan saraf dalam seperti jaringan saraf konvolusional (CNN) telah merevolusi berbagai tugas visi komputer, dari klasifikasi gambar hingga deteksi dan segmentasi objek. Seiring model tumbuh lebih besar dan lebih kompleks, akurasinya pun meningkat. Namun, menyebarkan raksasa yang haus sumber daya ini pada perangkat dengan daya komputasi terbatas, seperti sistem tertanam atau platform tepi, menjadi semakin menantang. Distilasi Pengetahuan Distilasi pengetahuan (Gbr. 2) muncul sebagai solusi potensial, menawarkan cara untuk melatih model “murid” yang ringkas dipandu oleh model “guru” yang lebih besar. Ide utamanya adalah mentransfer pengetahuan guru ke murid selama pelatihan, menyaring keahlian guru. Tetapi proses ini memiliki serangkaian rintangannya sendiri – melatih model guru yang intensif sumber daya adalah salah satunya. Label Lunak Para peneliti sebelumnya telah mengeksplorasi berbagai teknik untuk memanfaatkan kekuatan label lunak – distribusi probabilitas antar kelas yang menangkap kesamaan

  • Optimalisasi Jaringan dengan AI: Menjelajahi Pemeliharaan Prediktif dan Manajemen Lalu Lintas

    Pemeliharaan Prediktif dalam Sistem Jaringan Pemeliharaan prediktif memprediksi kemungkinan kegagalan peralatan dan melakukan pemeliharaan untuk mencegahnya. Pendekatan ini memanfaatkan AI untuk memastikan waktu aktif yang tinggi dan mengurangi biaya operasional. Pengumpulan Data: Sensor dan perangkat IoT mengumpulkan data besar dari peralatan jaringan, termasuk metrik seperti suhu, tingkat getaran, dan jam operasional. Model Pembelajaran Mesin: Algoritma AI menganalisis data historis untuk mengidentifikasi pola dan anomali yang mendahului kegagalan peralatan. Penjadwalan Pemeliharaan: Berdasarkan prediksi AI, pemeliharaan dapat dijadwalkan secara proaktif selama jam-jam sepi untuk meminimalkan gangguan. Manfaat: Waktu Henti yang Berkurang: Dengan memprediksi kegagalan sebelum terjadi, pemeliharaan prediktif membantu meminimalkan waktu henti sistem secara signifikan. Efisiensi Biaya: Menurunkan biaya perbaikan darurat dan memperpanjang masa pakai peralatan. Keselamatan yang Ditingkatkan: Deteksi dini potensi

  • AgentKit: Kerangka Kerja Pembelajaran Mesin untuk Membangun Agen AI Menggunakan Bahasa Alami

    Sistem Berbasis Agen dalam Kecerdasan Buatan Sistem berbasis agen dalam Kecerdasan Buatan (AI) memungkinkan agen AI menjalankan tugas secara mandiri dalam lingkungan digital. Mengembangkan agen cerdas yang dapat memahami instruksi kompleks dan berinteraksi secara dinamis dengan lingkungannya merupakan tantangan teknologi yang signifikan. Tantangan dalam Desain Agen Masalah umum dalam desain agen adalah ketergantungan pada teknik pemrograman yang canggih. Secara tradisional, agen dibangun menggunakan metode intensif kode, yang memerlukan pemahaman mendalam tentang API tertentu dan sering kali membatasi fleksibilitas. Pendekatan semacam itu dapat menghambat inovasi dan aksesibilitas, membatasi potensi aplikasi agen AI di luar domain khusus. Penelitian yang Ada Penelitian yang ada mencakup integrasi Model Bahasa Besar (LLM) seperti GPT-4 dan prompt Rantai Pikiran dalam sistem agen untuk perencanaan dan interaksi yang ditingkatkan. Kerangka kerja seperti LangChain telah menyempurnakan operasi agen, memungkinkan m

  • Peningkatan Validasi AI dengan Ruang Kausal: Menjembatani Kesenjangan Data dalam Pembelajaran Mesin dan Statistik dengan Lingkungan Terkendali

    Tantangan Validasi AI Kecerdasan buatan (AI), pembelajaran mesin, dan statistik terus berkembang, mendorong batas kemampuan mesin untuk belajar dan memprediksi. Namun, validasi metode AI baru sering bergantung pada ketersediaan data dunia nyata berkualitas tinggi. Peneliti sering kali bergantung pada kumpulan data simulasi yang mungkin tidak sepenuhnya menangkap kompleksitas lingkungan alami, yang berpotensi mengacaukan efektivitas metode ini ketika diterapkan di luar pengaturan laboratorium. Solusi: Ruang Kausal Sebuah tim ahli statistik dari ETH Zurich mengembangkan solusi inovatif yang disebut ruang kausal. Perangkat ini adalah lingkungan terkendali yang dapat memanipulasi dan mengukur berbagai fenomena fisik, memungkinkan pembuatan berbagai jenis data, termasuk deret waktu dan data gambar. Ruang tersebut dirancang untuk memberikan dasar kebenaran untuk memvalidasi metodologi AI, terutama dalam bidang penelitian baru di mana kumpulan data yang sesuai tidak tersedia. Fitur Ruang Kausal Ruang kausal dilengka

  • VASA-1: Mengubah Realisme dalam Pembuatan Wajah Berbicara dengan Inovasi Audio

    Pendahuluan Wajah manusia adalah media dinamis yang mampu mengekspresikan emosi dan membangun koneksi dalam konteks multimedia dan komunikasi. Wajah berbicara yang dihasilkan AI merupakan kemajuan dengan implikasi potensial di berbagai bidang. Ini termasuk meningkatkan komunikasi digital, meningkatkan aksesibilitas bagi individu dengan gangguan komunikasi, merevolusi pendidikan melalui bimbingan AI, dan menawarkan dukungan terapeutik dan sosial dalam pengaturan perawatan kesehatan. Teknologi ini bertujuan untuk memperkaya interaksi manusia-AI dan membentuk kembali berbagai bidang. Tantangan dalam Pembuatan Wajah Berbicara Berbagai pendekatan telah muncul untuk membuat wajah berbicara dari audio, namun teknik saat ini masih belum mencapai keaslian ucapan alami. Meskipun akurasi sinkronisasi bibir telah meningkat, dinamika wajah yang ekspresif dan nuansa seperti aslinya tidak mendapat perhatian yang memadai, sehingga menghasilkan wajah yang dihasilkan menjadi kaku dan tidak meyakinkan. Meskipun beberapa penelit

  • Pendanaan Pemerintah untuk Startup AI: 25 Peluang

    Pendanaan Non-Dilutif Pendanaan non-dilutif mengacu pada modal yang diterima tanpa harus menjual saham perusahaan. Jenis pendanaan ini sangat penting bagi startup karena membantu mempertahankan kepemilikan dan kendali sambil tetap memfasilitasi pertumbuhan dan inovasi. Program pemerintah adalah sumber utama dana non-dilutif, memberikan bantuan keuangan melalui hibah, kredit pajak, dan subsidi yang dirancang khusus untuk mendukung penelitian dan pengembangan (R&D) di industri teknologi tinggi seperti AI. Mengidentifikasi Hibah dan Subsidi yang Tepat Langkah pertama bagi startup AI dalam mengakses pendanaan pemerintah adalah mengidentifikasi hibah dan subsidi yang tepat. Pemerintah di seluruh dunia telah menyadari potensi AI dan semakin menawarkan program dukungan yang disesuaikan untuk mendorong pengembangan di sektor ini. Program-program ini sering kali bertujuan untuk mempromosikan inovasi teknologi, penciptaan lapangan kerja, dan daya saing internasional. Proses Aplikasi: Strategi dan Tips Proses aplikasi u

  • Pusat Penerbangan Digital, Otonom, dan Berbasis AI yang Dipimpin Purdue

    Pendahuluan Pusat Penerbangan Digital, Otonom, dan Berbasis AI yang dipimpin Purdue diluncurkan dengan pengenalan Windracers ULTRA, pesawat sayap tetap jarak jauh. Pengujian pesawat AIDA3 akan membantu pusat tersebut membuat kendaraan udara tak berawak otonom lebih aman, lebih efisien, dan terukur. Pengujian Windracers Windracers akan menguji dua UAV model ULTRA sayap tetap jarak jauh di West Lafayette musim semi ini untuk mendukung penelitian dan pengembangan AIDA3. ULTRA berukuran 20×30 kaki dapat lepas landas, terbang, dan mendarat dengan aman tanpa pilot jarak jauh pada kecepatan 85 mph. Platform yang terjangkau, tahan lama, dan mumpuni ini dapat membawa lebih dari 200 pon kargo hingga 620 mil untuk pengiriman surat dan paket, bantuan kemanusiaan, pertahanan, dan perlindungan lingkungan. Pendekatan AIDA3 Yang unik dari AIDA3 adalah pendekatannya. Brunswicker, seorang profesor inovasi dan komunikasi digital Purdue, mengatakan model AI/ML saat ini tidak cukup dapat diandalkan untuk menyelesaikan putaran dat

  • Kecerdasan dan Kompresi: Bukti Empiris dari Penelitian AI Tiongkok

    Pendahuluan Hubungan antara kecerdasan dan kompresi telah menjadi topik perdebatan teoretis yang signifikan. Studi baru dari Tencent dan Universitas Sains dan Teknologi Hong Kong memberikan bukti empiris tentang hubungan ini. Metodologi Studi ini mengukur kecerdasan menggunakan tiga kemampuan: Pengetahuan dan akal sehat Pengodean Penalaran matematika Peneliti menguji kemampuan LLM dalam mengompresi korpus eksternal yang relevan dengan domain. Skor benchmark rata-rata digunakan untuk menentukan kecerdasan model dalam domain tertentu. Hasil Studi ini menemukan korelasi linier yang kuat antara kemampuan downstream LLM dan efisiensi kompresinya. Koefisien korelasi Pearson sekitar -0,95 untuk setiap domain kecerdasan yang dinilai. Implikasi Hasil ini mendukung teori bahwa kompresi berkualitas tinggi menunjukkan kecerdasan yang lebih tinggi. Efisiensi kompresi menjadi metrik yang dapat diandalkan untuk mengevaluasi LLM karena berkorelasi linier dengan kemampuannya. Keterbatasan Studi ini berfokus pada model dasar,

  • Platypus: Startup AI dengan Sistem Operasi Data Terdistribusi yang Memudahkan Revolusi Kecerdasan Buatan

    Tantangan Pengelolaan Data dalam Era Kecerdasan Buatan Perkembangan pesat di bidang kecerdasan buatan (AI) membuat teknologi manajemen data tradisional sulit untuk mengikuti. Kelompok data, alur kerja yang terputus-putus, dan prosedur manual menyebabkan lambatnya kinerja dan kesalahan. Mengelola data terdistribusi menjadi tantangan dan membutuhkan banyak sumber daya, memerlukan tim khusus, berbagai alat, dan biaya tinggi. Selain itu, tim bisnis memerlukan bantuan untuk memperoleh dan memanfaatkan data ini secara efektif. Solusi Inovatif dari Platypus Platypus, sebuah startup AI baru, hadir dengan platform rekayasa data yang membantu mengatasi masalah ini. Sistem operasi data terdistribusi dari Platypus memudahkan pengelolaan data untuk bisnis besar dan kecil. Desain platform yang unik dan fleksibel memungkinkan koneksi dan pengorganisasian data di semua opsi penyimpanan cloud. Akibatnya, silo data dihilangkan dan prosedur disederhanakan. Karena otomatisasi penemuan data, administrasi, dan pembuatan alur kerja

  • Mengeksplorasi Kemampuan Recall Model Bahasa Besar: Wawasan dari Pengujian Needle-in-a-Haystack

    Pendahuluan Model Bahasa Besar (LLM) telah merevolusi Pemrosesan Bahasa Alami (NLP), memungkinkan kemajuan signifikan dalam pembuatan teks dan terjemahan mesin. Aspek penting dari model ini adalah kemampuannya untuk mengambil dan memproses informasi dari input teks untuk memberikan respons yang relevan secara kontekstual. Evaluasi Recall dalam LLM “Recall” dalam evaluasi LLM menilai kemampuan model untuk mengambil fakta dari prompt di lokasi yang berbeda, diukur melalui metode needle-in-a-haystack. Tidak seperti metrik NLP tradisional untuk sistem Pengambilan Informasi, recall LLM mengevaluasi beberapa jarum untuk penilaian yang komprehensif. Pengujian Needle-in-a-Haystack Para peneliti dari VMware NLP Lab mengeksplorasi kinerja recall LLM yang berbeda menggunakan metode needle-in-a-haystack. Fakta (jarum) disembunyikan dalam teks pengisi (tumpukan jerami) untuk diambil. Kinerja recall dievaluasi berdasarkan panjang tumpukan jerami dan penempatan jarum untuk mengidentifikasi pola. Temuan Studi ini mengungkapk

  • Peningkatan Pengenalan Ucapan pada Kacamata Realitas Tertambah dengan Dataset Hibrida Menggunakan Pembelajaran Mendalam: Pendekatan Berbasis Simulasi

    Peneliti Google AI menunjukkan bagaimana model gabungan yang menggabungkan pemisahan suara dan ASR dapat memperoleh manfaat dari dataset hibrida, termasuk sejumlah besar audio simulasi dan sejumlah kecil rekaman nyata. Pendekatan ini mencapai pengenalan ucapan yang akurat pada kacamata realitas tertambah (AR), terutama di lingkungan yang bising dan bergema. Ini merupakan langkah penting untuk meningkatkan pengalaman komunikasi, terutama bagi individu dengan gangguan pendengaran atau mereka yang berkomunikasi dalam bahasa non-asli. Metode tradisional menghadapi kesulitan dalam memisahkan ucapan dari kebisingan latar belakang dan pembicara lain, sehingga diperlukan pendekatan inovatif untuk meningkatkan kinerja pengenalan ucapan pada kacamata AR. Metode tradisional bergantung pada respons impuls (IR) yang direkam dari lingkungan sebenarnya, yang memakan waktu dan sulit dikumpulkan dalam skala besar. Sebaliknya, penggunaan data simulasi memungkinkan pembuatan sejumlah besar data akustik yang beragam dengan cepat

  • AI Terjemahan Berkualitas Tinggi Penting untuk Masa Depan Industri Layanan Terjemahan

    Peran AI dalam Memenuhi Permintaan Dari 2012 hingga 2022, industri layanan terjemahan di Amerika Serikat meningkat sekitar $3,6 miliar. Lonjakan permintaan ini tidak hanya terjadi di AS saja; secara global, ukuran pasar untuk layanan bahasa diproyeksikan mencapai $116 miliar pada tahun 2030. Berbagai faktor mendorong pertumbuhan ini, termasuk globalisasi, perdagangan internasional, dan ekspansi perusahaan antar benua. Saat bisnis memperluas jangkauan mereka melintasi batas, kebutuhan akan layanan terjemahan yang efisien dan andal menjadi lebih besar dari sebelumnya. Namun, manusia hanya dapat mencapai banyak hal sendiri. Untuk memenuhi permintaan yang meningkat akan layanan terjemahan yang cepat dan andal, bisnis perlu memanfaatkan semua alat yang mereka miliki—termasuk, dan mungkin yang paling penting, AI. Globalisasi Mendorong Kebutuhan akan Terjemahan Saat bisnis bergulat dengan tantangan menavigasi pasar global dan menjangkau audiens yang beragam, terjemahan yang dapat diandalkan dan akurat menjadi suatu

  • Terobosan AI yang Menggemparkan Internet Pekan Lalu: Berita Utama

    Investasi Microsoft di Jepang Microsoft berinvestasi US$2,9 miliar untuk meningkatkan infrastruktur cloud dan AI di Jepang. Program peningkatan keterampilan digital untuk menyediakan kemampuan AI bagi lebih dari 3 juta orang. Pembukaan laboratorium Microsoft Research Asia pertama di Jepang. Peningkatan kolaborasi keamanan siber dengan Pemerintah Jepang. Google Hadirkan Alat Edit Foto Berbasis AI Google Photos menyediakan alat edit foto berbasis AI gratis untuk semua pengguna. Fitur Magic Eraser, Photo Unblur, dan Portrait Light. Tersedia untuk perangkat Pixel dan lainnya dengan spesifikasi tertentu. CEO Amazon: AI Kemajuan Teknologi Terbesar Sejak Internet Andy Jassy menyebut AI sebagai inovasi teknologi terbesar sejak internet. Dampak signifikan pada berbagai aspek kehidupan. Bakstage.AI Integrasikan IBM Watsonx.ai Membantu bisnis memaksimalkan potensi penjualan online. Memberdayakan spesialis penjualan dan layanan pelanggan dengan wawasan real-time. Menggabungkan AI dengan interaksi manusia. IBM Bantu Perus

  • Masa Depan Keuangan: Bagaimana AI Mengubah Perusahaan Kartu Kredit

    Pengalaman Pelanggan yang Ditingkatkan AI telah merevolusi pengalaman pelanggan untuk perusahaan kartu kredit. Chatbot dan asisten virtual berbasis AI sekarang banyak digunakan, memberikan layanan pelanggan 24/7 yang dapat menangani pertanyaan, menyelesaikan perselisihan, dan menawarkan saran yang dipersonalisasi lebih cepat daripada manusia. Misalnya, analitik prediktif memungkinkan sistem AI ini memberikan tips belanja yang disesuaikan dan saran manajemen keuangan berdasarkan kebiasaan belanja dan riwayat keuangan pengguna. Pemrosesan Kartu Kredit yang Efisien AI membuat aplikasi dan pemrosesan kartu kredit lebih cepat dari sebelumnya. Algoritma pembelajaran mesin dapat langsung menilai kelayakan kredit pelanggan, mempercepat proses persetujuan. Hal ini mempercepat proses aplikasi dan membuatnya lebih akurat, mengurangi risiko gagal bayar. Kemampuan AI untuk mengolah kumpulan data besar memungkinkan penilaian risiko kredit yang lebih bernuansa, dengan mempertimbangkan faktor-faktor di luar skor kredit tradi

  • Mesin Pencari dan Pembangkit Jawaban Lokal yang Gratis, Pribadi, dan Menggunakan Banyak LLM Tanpa GPU

    Pendahuluan Di era di mana privasi daring dan keamanan data menjadi perhatian utama, orang-orang sering mencari cara untuk mengakses informasi tanpa mengorbankan informasi pribadi mereka. Mesin pencari tradisional mengharuskan pengguna untuk mengorbankan privasi demi kenyamanan, karena mereka mengumpulkan data tentang kueri dan perilaku pengguna. Hal ini menimbulkan tantangan besar bagi mereka yang mengkhawatirkan privasi dan ingin menjaga interaksi daring mereka tetap pribadi. Solusi yang Ada dan Keterbatasannya Meskipun solusi yang ada, seperti VPN atau mesin pencari yang berfokus pada privasi, bertujuan untuk mengatasi masalah ini, solusi tersebut sering kali memiliki keterbatasan. VPN bisa mahal dan dapat memperlambat kecepatan internet, sementara mesin pencari yang berfokus pada privasi mungkin tidak selalu memberikan hasil pencarian yang komprehensif. Selain itu, solusi ini masih bergantung pada server eksternal, yang berpotensi membahayakan privasi pengguna. FreeAskInternet: Solusi AI Revolusioner Temu

  • Model Bahasa Terbuka 2B-Parameter RecurrentGemma dari Google DeepMind: Inferensi Cepat pada Urutan Panjang

    Pendahuluan Model bahasa merupakan tulang punggung sistem kecerdasan buatan modern, memungkinkan mesin memahami dan menghasilkan teks seperti manusia. Model ini, yang memproses dan memprediksi bahasa, sangat penting untuk berbagai aplikasi, mulai dari layanan terjemahan otomatis hingga chatbot interaktif. Namun, pengembangan model ini menghadapi tantangan signifikan, terutama karena sumber daya komputasi dan memori yang diperlukan untuk pengoperasian yang efektif. Kesenjangan antara Kompleksitas dan Efisiensi Salah satu kendala utama dalam pengembangan model bahasa adalah menyeimbangkan kompleksitas yang dibutuhkan untuk menangani tugas bahasa yang rumit dengan kebutuhan efisiensi komputasi. Seiring meningkatnya permintaan akan model yang lebih canggih, begitu pula kebutuhan akan solusi komputasi yang lebih kuat dan intensif sumber daya. Keseimbangan ini sulit dicapai ketika model diharapkan untuk memproses urutan teks yang panjang, yang dapat dengan cepat menghabiskan memori dan daya pemrosesan yang tersedia

  • Studi AI Mendalam tentang Model Ruang Keadaan: Keunggulan dan Karakteristiknya beserta Perbandingan Eksperimental

    Pendahuluan Kecerdasan Buatan (AI) dan Pembelajaran Mendalam telah mengalami pertumbuhan signifikan belakangan ini. Setelah dominasi pembelajaran mendalam, arsitektur Transformer telah menjadi kekuatan, menunjukkan kinerja luar biasa dalam berbagai tugas hilir serta model besar yang telah dilatih sebelumnya. Namun, bagi banyak peneliti dan praktisi, kebutuhan sumber daya pemrosesan Transformer yang tinggi telah terbukti menjadi kendala utama. Akibatnya, upaya telah difokuskan pada pengembangan teknik yang lebih efektif untuk menyederhanakan model perhatian. Di antaranya, Model Ruang Keadaan (SSM) telah menarik minat paling besar sebagai pengganti potensial untuk mekanisme perhatian sendiri Transformer. Studi Terbaru tentang SSM Sebuah studi baru-baru ini oleh IEEE telah memberikan analisis dan perbandingan menyeluruh pertama dari upaya ini, menyoroti manfaat dan karakteristik SSM melalui perbandingan dan analisis eksperimental. Tim peneliti telah memasukkan diskusi menyeluruh tentang prinsip-prinsip panduan d

  • Dasar Teori dan Penerapan Model Difusi dalam AI

    Model difusi adalah teknologi AI canggih yang menunjukkan keberhasilan signifikan di berbagai bidang seperti visi komputer, audio, pembelajaran penguatan, dan biologi komputasi. Model ini unggul dalam menghasilkan sampel baru dengan memodelkan data berdimensi tinggi secara fleksibel dan menyesuaikan properti untuk memenuhi tugas tertentu. Dasar Teori Model Difusi Model difusi menawarkan solusi alternatif dengan menyediakan solusi yang lebih kuat dan mudah beradaptasi. Namun, dasar teori model ini masih terbatas, yang dapat memperlambat kemajuan pengembangan metodologi. Penerapan Model Difusi Inovasi terbaru seperti DALL-E dan DiffWave telah menerapkan prinsip-prinsip ini untuk mencapai terobosan dalam sintesis audio dan visual, menunjukkan fleksibilitas dan perluasan penerapan model difusi dalam tugas generatif. Metodologi Penelitian Para peneliti dari Universitas Princeton dan UC Berkeley telah memberikan tinjauan umum tentang dasar teori model difusi untuk meningkatkan kinerja mereka, terutama dengan fokus

  • Aplikasi Seluler Adobe Express Baru dengan AI Firefly

    Pendahuluan Aplikasi seluler Adobe Express yang serba baru dengan AI generatif Firefly dan kekuatan alat kreatif Adobe kini tersedia secara umum di web dan seluler. Adobe Express menghadirkan fitur AI generatif Firefly yang populer seperti teks-ke-gambar, Pengisian Generatif, Efek Teks, dan Teks-ke-Templat ke perangkat seluler untuk pertama kalinya. Menanggapi permintaan yang meningkat untuk konten TikTok, Instagram, dan konten sosial lainnya, Adobe Express mempermudah pembuatan dan kolaborasi di seluruh web dan seluler, melepaskan kreativitas dan produktivitas. Fitur AI Generatif Adobe Express didukung oleh AI generatif Adobe Firefly, sehingga memudahkan siapa pun di tingkat keahlian apa pun untuk melakukan tugas kompleks, memberikan kecepatan dan kemudahan di ujung jari mereka. Fitur seperti Teks ke Gambar, Efek Teks, Pengisian Generatif, dan Teks ke Templat, memungkinkan kreator untuk langsung menghasilkan gambar dan desain yang memukau, menyisipkan, menghapus, dan mengganti orang atau objek, dan membuat t

  • Idefics2: Model Bahasa Visi-Teks 8B yang Canggih untuk Meningkatkan AI Multimodal

    Tantangan AI Multimodal Dengan semakin kompleksnya interaksi digital, permintaan akan alat analitik canggih untuk memahami dan memproses data yang beragam ini semakin meningkat. Tantangan utamanya adalah mengintegrasikan jenis data yang berbeda, terutama gambar dan teks, untuk membuat model yang dapat menafsirkan dan merespons input multimodal secara efektif. Tantangan ini sangat penting untuk aplikasi mulai dari pembuatan konten otomatis hingga sistem interaktif yang disempurnakan. Model Multimodal yang Ada Penelitian yang ada mencakup model seperti LLaVa-NeXT dan MM1, yang dikenal dengan kemampuan multimodalnya yang kuat. Seri LLaVa-NeXT, khususnya varian 34B, dan model MM1-Chat telah menetapkan tolok ukur dalam menjawab pertanyaan visual dan integrasi gambar-teks. Model Gemini seperti Gemini 1.0 Pro semakin meningkatkan kinerja dalam tugas AI yang kompleks. DeepSeek-VL berspesialisasi dalam menjawab pertanyaan visual, sementara Claude 3 Haiku unggul dalam menghasilkan konten naratif dari input visual, menu

  • Startup Penelitian AI Baru yang Menawarkan Teknik Baru untuk Membangun AI

    Model bahasa besar yang paling inovatif—termasuk ChatGPT, Claude, dan Gemini—dibangun dengan desain dasar yang sama. Oleh karena itu, kendalanya juga sama untuk semuanya. Model saat ini dikenal sangat halusinatif, sulit divalidasi, mahal untuk dilatih, dan rumit untuk diterapkan. Meskipun model ini telah menghasilkan hasil yang luar biasa, model ini juga memiliki kelemahan besar. Pelatihannya sangat intensif sumber daya dan data, yang menambah biaya dan konsumsi daya yang tinggi. Symbolica AI: Startup yang Membawa Teknik Baru Symbolica AI adalah startup keren yang memelopori teknik baru untuk membangun model AI. Mereka percaya bahwa model simbolik memegang rahasia potensi penuh AI. Model simbolik merepresentasikan pengetahuan melalui struktur dan aturan, berbeda dengan transformer yang bergantung pada asosiasi statistik. Karena itu, model ini dapat belajar dan berpikir lebih seperti manusia. Symbolica memikirkan ulang pembelajaran mesin dari awal. Mereka menggunakan bahasa teori kategori yang sangat ekspresif

  • Asisten AI Baru SAP: Joule

    Pengenalan SAP Labs France, anak perusahaan SAP, menciptakan Joule, asisten AI generatif untuk meningkatkan produktivitas perusahaan. Joule, kopilot bahasa alami, akan hadir di aplikasi rantai pasokan, pengadaan, pengalaman pelanggan, dan Platform Teknologi Bisnis SAP. Fokus Joule Joule berfokus pada saran yang disesuaikan dan relevan. Ia memahami bahasa normal dan memberikan dukungan secara real-time. Joule dengan cepat mengurutkan dan mengontekstualisasikan data dari berbagai sistem untuk mengungkap wawasan yang unggul. Pendekatan SAP terhadap AI Bisnis Pendekatan SAP terhadap AI Bisnis adalah memberikan pelanggan AI yang paling relevan, andal, dan bertanggung jawab. Melalui jalur interaktif, pengunjung akan memiliki kesempatan untuk mendalami beberapa aplikasi konkret AI di bidang seperti seni, keamanan siber, AI yang bertanggung jawab, atau transisi energi. Mereka juga akan dapat merasakan asisten AI baru SAP: Joule, yang memberikan wawasan proaktif dan kontekstual dari seluruh portofolio solusi SAP dan s

  • Arsitektur Transformer yang Baru: TransformerFAM

    Pendahuluan Transformer telah merevolusi pembelajaran mendalam, tetapi kompleksitas perhatian kuadratik membatasi kemampuan mereka untuk memproses masukan yang sangat panjang. Terlepas dari keefektifannya, mereka memiliki kelemahan seperti melupakan informasi di luar jendela perhatian dan kesulitan dalam pemrosesan konteks panjang. Upaya untuk mengatasi hal ini termasuk perhatian jendela geser dan aproksimasi jarang atau linier, tetapi sering kali harus mengejar ketinggalan dalam skala besar. TransformerFAM Terinspirasi oleh ilmu saraf, khususnya hubungan antara perhatian dan memori kerja, ada solusi yang diusulkan: menggabungkan perhatian ke representasi latennya melalui loop umpan balik dalam blok Transformer, yang berpotensi mengarah pada munculnya memori kerja di Transformer. Peneliti Google LLC telah mengembangkan TransformerFAM, arsitektur Transformer unik yang menggunakan loop umpan balik untuk mengaktifkan perhatian diri pada representasi laten jaringan, memfasilitasi munculnya memori kerja. Inovasi i

  • Pembelajaran Penguatan dari Umpan Balik Manusia: Menjelajahi Mekanisme dan Keterbatasannya

    Pendahuluan Model bahasa besar (LLM) banyak digunakan di berbagai industri, tidak hanya terbatas pada tugas bahasa dasar. Model ini digunakan di sektor-sektor seperti teknologi, kesehatan, keuangan, dan pendidikan, dan dapat mengubah alur kerja yang stabil di sektor-sektor penting ini. Metode yang disebut Pembelajaran Penguatan dari Umpan Balik Manusia (RLHF) digunakan untuk membuat LLM aman, dapat dipercaya, dan menunjukkan kualitas seperti manusia. RLHF menjadi populer karena kemampuannya untuk memecahkan masalah Pembelajaran Penguatan (RL) seperti simulasi gerak robotik dan bermain game Atari dengan memanfaatkan umpan balik manusia tentang preferensi pada perilaku yang ditunjukkan. Metode ini sering digunakan untuk menyempurnakan LLM menggunakan umpan balik manusia. Mekanisme RLHF LLM canggih merupakan alat penting untuk menyelesaikan tugas-tugas kompleks. Namun, melatih LLM untuk berfungsi sebagai asisten yang efektif bagi manusia memerlukan pertimbangan yang cermat. Pendekatan RLHF, yang memanfaatkan ump

  • Google Mengembangkan Berbagai Proyek untuk Platform Rumah Pintar

    Pendahuluan Beberapa inisiatif baru sedang dikembangkan untuk Google Home, platform rumah pintar milik perusahaan tersebut. Salah satu yang paling penting adalah penambahan mode offline. Implementasi Google Home saat ini, seperti yang dijelaskan oleh Android Authority, melibatkan perangkat yang terlebih dahulu mengirimkan perintah melalui server perusahaan sebelum memengaruhi jaringan Anda. Hal ini dapat membuat pemilik rumah frustrasi ketika internet mereka mati karena mereka tidak dapat mengirim permintaan apa pun. Mode offline akan menyelesaikan masalah ini secara langsung dengan memungkinkan kontrol di tingkat lokal. Mungkin akan lebih bijaksana bagi tim untuk meluangkan waktu memperbaiki celah, mengingat Wyze mengalami (sekali lagi) pelanggaran keamanan dan pemadaman layanan. Itu mungkin merupakan cakupan penuh dari apa yang sedang dilakukan oleh tim pengembangan Google Home saat ini. Selain dari jaminan tim, kami tidak menemukan sesuatu yang signifikan dalam hampir seribu komentar. Mengapa Berita Ini Pe

  • Zamba-7B: Model AI Inovatif Zyphra dengan Ukuran Ringkas dan Performa Luar Biasa

    Dalam perlombaan menciptakan model AI yang lebih efisien dan canggih, Zyphra telah mengungkap terobosan signifikan dengan model Zamba-7B yang baru. Model ringkas berparameter 7 miliar ini tidak hanya bersaing dengan model yang lebih besar dan intensif sumber daya, tetapi juga memperkenalkan pendekatan arsitektur baru yang meningkatkan kinerja dan efisiensi. Desain Inovatif Model Zamba-7B adalah pencapaian luar biasa dalam pembelajaran mesin. Model ini memanfaatkan struktur inovatif yang dikenal sebagai “Mamba/Attention Hybrid” yang dikembangkan oleh para ahli di Zyphra. Struktur unik ini menggabungkan efisiensi blok Mamba dengan lapisan perhatian bersama global, yang secara signifikan meningkatkan kemampuan model untuk belajar dari ketergantungan data jangka panjang. Selain itu, desain ini diterapkan setiap enam blok Mamba, yang mengoptimalkan proses pembelajaran tanpa perlu overhead komputasi yang ekstensif, menjadikannya solusi yang sangat efisien dan praktis. Efisiensi Pelatihan Salah satu pencapaian palin

  • Optimalisasi Kebijakan Reset Dataset (DR-PO): Algoritma Pembelajaran Mesin yang Memanfaatkan Kemampuan Model Generatif untuk Mereset dari Data Offline guna Meningkatkan RLHF dari Umpan Balik Berbasis Preferensi

    Pendahuluan Pembelajaran Penguatan (RL) terus berkembang seiring dengan eksplorasi para peneliti untuk menyempurnakan algoritma yang belajar dari umpan balik manusia. Domain algoritma pembelajaran ini menghadapi tantangan dalam mendefinisikan dan mengoptimalkan fungsi hadiah yang penting untuk melatih model guna melakukan berbagai tugas mulai dari bermain game hingga pemrosesan bahasa. Masalah yang Dihadapi Masalah yang lazim dalam bidang ini adalah penggunaan dataset preferensi manusia yang dikumpulkan sebelumnya secara tidak efisien, yang sering diabaikan dalam proses pelatihan RL. Secara tradisional, model-model ini dilatih dari awal, mengabaikan konten dataset yang kaya dan informatif. Kesenjangan ini menyebabkan inefisiensi dan kurangnya pemanfaatan pengetahuan yang berharga dan sudah ada sebelumnya. Solusi yang Diusulkan: DR-PO Kemajuan terbaru telah memperkenalkan metode inovatif yang secara efektif mengintegrasikan data offline ke dalam proses pelatihan RL untuk mengatasi inefisiensi ini. Peneliti dar

  • Reka Core: Model Bahasa Multimodal Generasi Terbaru yang Mampu Memahami Teks, Gambar, dan Video

    Pengantar Reka, perusahaan rintisan kecerdasan buatan yang berbasis di California, telah menetapkan standar baru dalam industri ini. Reka baru-baru ini meluncurkan produk tercanggihnya, Reka Core. Model canggih ini merupakan bukti komitmen Reka yang tak tergoyahkan terhadap inovasi dan keunggulan. Dengan kemampuan multifasetnya yang mencakup pemrosesan dan pemahaman teks, gambar, video, dan audio, Reka Core pasti akan meninggalkan kesan abadi di dunia AI. Model Bahasa Multimodal yang Mutakhir Reka Core adalah model bahasa canggih yang mengklaim sebagai model “kelas terdepan”, yang berarti memiliki kinerja dan keserbagunaan yang luar biasa. Core telah melampaui pendahulunya, Flash dan Edge, yang keduanya sudah dikenal dengan kemampuannya yang kuat, dengan parameter masing-masing 21 miliar dan 7 miliar. Core telah dibangun dari awal, menggunakan GPU H100 terbaru dari NVIDIA, dan memanfaatkan Pytorch untuk proses pembelajaran mesinnya. Secara keseluruhan, Reka Core mewakili kemajuan signifikan dalam pemodelan ba

  • CTRL-Adapter: Kerangka AI Efisien dan Serbaguna untuk Mengadaptasi Berbagai Kontrol ke Model Difusi

    Pengantar Dalam media digital, kebutuhan akan kontrol yang presisi atas pembuatan gambar dan video telah mengarah pada pengembangan teknologi seperti ControlNets. Sistem ini memungkinkan manipulasi detail konten visual menggunakan kondisi seperti peta kedalaman, tepi canny, dan pose manusia. Namun, mengintegrasikan teknologi ini dengan model baru sering kali memerlukan sumber daya komputasi yang signifikan dan penyesuaian yang rumit karena ketidakcocokan dalam ruang fitur antara model yang berbeda. Tantangan utamanya terletak pada mengadaptasi ControlNets, yang dirancang untuk gambar statis, ke aplikasi video dinamis. Adaptasi ini sangat penting karena pembuatan video menuntut konsistensi spasial dan temporal, yang ditangani oleh ControlNets yang ada secara tidak efisien. Penerapan langsung ControlNets yang berfokus pada gambar ke bingkai video menyebabkan inkonsistensi dari waktu ke waktu, sehingga mengurangi efektivitas media keluaran. CTRL-Adapter Para peneliti dari UNC-Chapel Hill telah mengembangkan CTRL

  • Amazon Bedrock Perluas Portofolio AI dengan Seri Claude 3 yang Inovatif dari Anthropic

    Integrasi Model Claude 3 Amazon Web Services (AWS) telah mengumumkan integrasi model Claude 3 Anthropic ke dalam layanan Amazon Bedrock-nya. Integrasi ini telah memperluas kemampuan AI secara signifikan dan kini menawarkan rangkaian lengkap model Claude 3 – Opus, Sonnet, dan Haiku – sebagai layanan terkelola bagi pelanggannya. Amazon Bedrock adalah layanan pertama dan satu-satunya yang menyediakan model ini kepada pelanggan secara umum. Kemajuan Seri Claude 3 Seri Claude 3 oleh Anthropic telah membuat kemajuan signifikan dalam teknologi AI. Model utamanya, Claude 3 Opus, dianggap sebagai model dasar berkinerja tertinggi di pasar, melampaui model terkenal lainnya seperti GPT-4 OpenAI dalam kemampuan penalaran, matematika, dan pengkodean. Menurut Anthropic, Claude 3 Sonnet dan Claude 3 Haiku juga membawa peningkatan yang signifikan. Sonnet dua kali lebih cepat dari pendahulunya, sementara Haiku adalah model tercepat dan paling ringkas yang tersedia, menawarkan solusi hemat biaya tanpa mengorbankan kinerja. Keun

  • Model Rho-1: Meningkatkan Efisiensi dan Efektivitas Pelatihan Model Bahasa

    Pengantar Kecerdasan buatan, khususnya dalam pemrosesan bahasa, telah menyaksikan kemajuan yang konsisten dengan meningkatkan parameter model dan ukuran kumpulan data. Kemajuan penting dalam pelatihan model bahasa secara tradisional bergantung pada penerapan tugas prediksi token berikutnya secara ekstensif di semua token pelatihan. Meskipun teknik ini banyak digunakan, asumsi bahwa setiap token dalam kumpulan data memberikan kontribusi yang sama terhadap proses pembelajaran semakin diteliti. Ketidakefisienan yang signifikan muncul ketika model dilatih secara seragam di semua token, banyak di antaranya mungkin perlu lebih penting untuk kinerja dan efisiensi pembelajaran model. Penelitian yang Ada Penelitian yang ada mencakup pengoptimalan pelatihan model bahasa melalui pemilihan data strategis dan pembelajaran kurikulum. Model tradisional seperti BERT menggunakan filter heuristik untuk meningkatkan kualitas data, yang berdampak pada generalisasi model. Inovasi seperti Masked Language Modeling (MLM) berfokus pa

  • Pendekatan AI AutoCodeRover: Otomatisasi Penyelesaian Masalah GitHub untuk Peningkatan Program Otomatis

    Representasi Program AutoCodeRover menekankan representasi program, khususnya pohon sintaks abstrak (AST). Pendekatan ini penting untuk otomatisasi teknik perangkat lunak, karena menyoroti sifat struktural kode. Pencarian Kode Pendekatan ini menggunakan teknik pencarian kode yang meniru pemikiran pemrogram. Dengan memanfaatkan struktur program seperti kelas, metode, dan cuplikan kode, LLM dapat menggunakan konteks secara lebih efektif. Efektivitas Otomatis Tim menekankan pentingnya memprioritaskan efektivitas perbaikan otomatis daripada efisiensi waktu, selama kriteria waktu yang realistis terpenuhi. AutoCodeRover mencapai efektivitas 22% dalam memperbaiki masalah GitHub dalam waktu kurang dari 10 menit, jauh lebih cepat dari rata-rata resolusi manual (2,77 hari). Integrasi Debugging Pencarian kode dalam AutoCodeRover dipandu oleh integrasi teknik debugging dan analisis, seperti lokalisasi kesalahan berbasis pengujian. Integrasi ini secara signifikan meningkatkan efektivitas, dengan peningkatan dari 16% menja

  • Neuroteknologi dan Penggabungannya dengan Kecerdasan Buatan

    Pendahuluan Perkembangan teknologi telah memunculkan neuroteknologi dan konvergensi kecerdasan buatan (AI) sebagai katalisator inovasi. Penggabungan ini memberikan wawasan mendalam tentang cara kerja otak manusia dan integrasinya dengan sistem cerdas. Perpaduan ini menjanjikan revolusi dalam perawatan kesehatan, komunikasi, dan augmentasi manusia, serta membuka jalan bagi kemajuan yang belum pernah terjadi sebelumnya dalam memahami dan meningkatkan kognisi dan kemampuan manusia. Neuroteknologi dan AI Neuroteknologi mencakup berbagai alat dan teknik untuk berinteraksi dengan sistem saraf. Dari metode pencitraan saraf seperti MRI fungsional (fMRI) dan elektroensefalografi (EEG) hingga antarmuka otak-komputer (BCI) dan neuroprostetik, teknologi ini memungkinkan kita untuk mengamati, memanipulasi, dan menambah aktivitas saraf dengan presisi dan cakupan yang belum pernah terjadi sebelumnya. Pada saat yang sama, AI, dengan kecakapannya dalam analisis data, pengenalan pola, dan pembelajaran adaptif, melengkapi neuro

  • Pembuatan Lintasan Sintetis yang Terkendali dalam Pembelajaran Penguatan Offline

    Tantangan dalam Pembelajaran Penguatan Pembelajaran penguatan (RL) menghadapi tantangan karena inefisiensi sampel, yang menghambat penerapan di dunia nyata. Metode RL standar mengalami kesulitan, terutama di lingkungan yang eksplorasinya berisiko. Pembelajaran Penguatan Offline Namun, RL offline memanfaatkan data yang dikumpulkan sebelumnya untuk mengoptimalkan kebijakan tanpa pengumpulan data online. Namun, pergeseran distribusi antara kebijakan target dan data yang dikumpulkan menimbulkan hambatan, yang mengarah ke masalah di luar sampel. Perbedaan ini menghasilkan bias perkiraan berlebihan, yang berpotensi menghasilkan kebijakan target yang terlalu optimis. Hal ini menyoroti perlunya mengatasi pergeseran distribusi untuk implementasi RL offline yang efektif. Penelitian Sebelumnya Penelitian sebelumnya mengatasi hal ini dengan secara eksplisit atau implisit mengatur kebijakan menuju distribusi perilaku. Pendekatan lain melibatkan pembelajaran model dunia satu langkah dari kumpulan data offline untuk menghas

  • WizardLM-2: Model AI Open-Source yang Diklaim Ungguli GPT-4 pada Benchmark MT-Bench

    Kemajuan dan Inovasi WizardLM-2 menandai tonggak sejarah penting dalam bidang AI, hasil dari penelitian dan pengembangan selama setahun oleh tim. Mereka telah meningkatkan kemampuan model untuk memahami instruksi yang kompleks, dan model baru menunjukkan kinerja luar biasa dalam obrolan, pemrosesan multibahasa, penalaran, dan bertindak sebagai agen. Model ini setara dengan model bahasa besar (LLM) eksklusif terbaik yang tersedia saat ini. Model unggulan, WizardLM-2 8x22B, telah dinilai oleh tim dan diidentifikasi sebagai LLM open-source paling canggih untuk menangani tugas-tugas kompleks. WizardLM-2 70B sangat mahir dalam penalaran, menjadikannya pilihan yang sangat baik untuk tugas yang membutuhkan proses kognitif yang mendalam. Sementara itu, WizardLM-2 7B yang lebih kecil sangat kompetitif, meskipun ukurannya, memberikan waktu respons yang cepat dan kinerja mengesankan yang menyaingi model sepuluh kali ukurannya. Ketiga model memiliki kekuatan unik yang menjadikannya ideal untuk aplikasi yang berbeda. Meto

  • Memilih Co-Founder yang Tepat untuk Startup AI Anda

    Memilih co-founder adalah salah satu keputusan terpenting yang akan Anda buat saat meluncurkan startup. Memiliki mitra yang tepat di sisi Anda dapat membuat perbedaan besar dalam kesuksesan usaha Anda. Berikut adalah beberapa faktor utama yang perlu dipertimbangkan saat memilih co-founder: Keterampilan dan Pengalaman yang Saling Melengkapi Carilah co-founder yang keterampilan dan pengalamannya melengkapi Anda. Jika Anda memiliki latar belakang teknis yang kuat, bermitra dengan seseorang yang memiliki keahlian dalam pengembangan bisnis, pemasaran, atau penggalangan dana dapat menciptakan tim pendiri yang lengkap. Memiliki co-founder dengan keahlian yang beragam namun saling melengkapi memungkinkan Anda untuk membagi dan menaklukkan banyak tanggung jawab dalam menjalankan startup. Visi dan Nilai yang Sama Sangat penting bagi co-founder untuk selaras dengan visi dan misi perusahaan secara keseluruhan. Anda harus memiliki pemahaman bersama tentang apa yang ingin Anda capai dan nilai serta prinsip yang akan memand

  • DataRobot, Platform AI Terdepan Didukung NVIDIA

    Pengantar DataRobot, didukung teknologi NVIDIA—platform AI terkemuka yang terdepan dalam inovasi AI berbasis nilai—mengumumkan akan menyediakan kinerja, keamanan, dan efisiensi kelas dunia di seluruh siklus hidup AI. Manfaatkan layanan mikro NVIDIA NIM, bagian dari NVIDIA AI Enterprise, untuk menerapkan model AI generatif yang telah dikonfigurasi sebelumnya dengan cepat ke cloud, pusat data, dan stasiun kerja. Gunakan layanan mikro penampung model yang telah dibuat sebelumnya di Platform AI DataRobot untuk mencapai kecepatan, keamanan, dan skalabilitas optimal. Layanan mikro ini telah disetel untuk dijalankan di atas perangkat NVIDIA. Gunakan infrastruktur bertenaga GPU di lingkungan apa pun untuk mempercepat penerapan, penggantian, dan pemantauan model pembelajaran mendalam dan LLM, baik di tempat maupun di cloud. Mengapa Berita Ini Penting? Gunakan NVIDIA Triton Inference Server untuk mengintegrasikan dan mengoperasikan LLM komersial dan sumber terbuka secara asli. Pastikan fleksibilitas penuh sekaligus men

  • NVIDIA dan Google Cloud Berkolaborasi untuk Mendukung Startup

    Pendahuluan Program Google for Startups Cloud dan program NVIDIA Inception berkolaborasi untuk meningkatkan akses startup terhadap kredit cloud, dukungan pemasaran, dan keahlian teknis, sehingga mempercepat penyampaian nilai kepada pelanggan. Pengumuman ini disampaikan hari ini di Google Cloud Next ’24 di Las Vegas. Kemitraan Baru untuk Pengembangan AI Generatif Kemitraan baru antara NVIDIA dan Google Cloud akan membantu startup di seluruh dunia dalam mengembangkan aplikasi dan layanan AI generatif dengan lebih cepat. Bergabung dengan NVIDIA Inception merupakan cara yang tepat bagi anggota Program Google for Startups Cloud untuk mengakses berbagai sumber daya, termasuk pengetahuan teknis, kredit pelatihan dari NVIDIA Deep Learning Institute, serta produk dan alat NVIDIA. Partisipasi dalam NVIDIA Inception Capital Connect, jaringan yang memperkenalkan pengusaha kepada perusahaan modal ventura yang tertarik di bidang ini, juga tersedia bagi peserta yang memenuhi syarat dari Program Google for Entrepreneurs Clou

  • KIVI: Algoritma Kuantifikasi Cache KV 2-bit yang Siap Pakai Tanpa Perlu Penyetelan

    Pengantar Model bahasa besar (LLM) sangat berguna untuk tugas-tugas seperti menghasilkan teks atau menjawab pertanyaan. Namun, mereka menghadapi masalah besar: mereka membutuhkan banyak memori untuk bekerja secara efisien. Memori ini menyimpan informasi tentang kata dan frasa yang pernah dilihat model sebelumnya. Ketika model perlu menghasilkan teks baru, ia mencari informasi yang tersimpan ini untuk membantunya mengambil keputusan. Namun, semakin banyak memori yang dibutuhkan model, semakin lambat ia berjalan, dan terkadang bahkan dapat kehabisan memori sama sekali. Kuantifikasi untuk Mengurangi Penggunaan Memori Salah satu cara untuk mengurangi jumlah memori yang dibutuhkan LLM adalah dengan menggunakan kuantifikasi. Kuantifikasi seperti mengompresi informasi sehingga membutuhkan lebih sedikit ruang. Beberapa solusi yang ada menggunakan kuantifikasi tetapi sering kali memerlukan banyak penyetelan agar berfungsi dengan baik. Proses penyetelan ini bisa memakan waktu dan rumit, sehingga menyulitkan peneliti da

  • Buku-Buku LangChain Terbaik untuk Dibaca di 2024

    LangChain adalah kerangka kerja sumber terbuka yang memungkinkan pengembang membangun aplikasi berbasis LLM dengan mudah. Kerangka kerja ini menyediakan koneksi yang mudah antara LLM dengan sumber data eksternal untuk meningkatkan kemampuan model-model ini dan mencapai hasil yang lebih baik. Kerangka kerja ini banyak digunakan dalam membangun chatbot, generasi yang ditingkatkan dengan pengambilan, dan aplikasi ringkasan dokumen. Artikel ini mencantumkan buku-buku LangChain terbaik yang harus dibaca pada tahun 2024 untuk memperdalam pemahaman tentang topik yang sedang tren ini. Panduan Memulai Cepat untuk Model Bahasa Besar Buku ini memandu cara bekerja dengan, mengintegrasikan, dan menerapkan LLM untuk memecahkan masalah dunia nyata. Buku ini membahas cara kerja internal LLM dan menyediakan contoh kode untuk bekerja dengan model seperti GPT-4, BERT, T5, LLaMA, dll. Pengantar AI Generatif “Pengantar AI Generatif” membahas dasar-dasar AI generatif dan cara menggunakannya dengan aman dan efektif. Buku ini juga m

  • Pengaruh Urutan Teks Strategis pada Hasil Pencarian Berbasis AI

    Model Bahasa Besar (LLM) dalam Pencarian Model bahasa besar (LLM) banyak digunakan dalam mesin pencari untuk memberikan respons bahasa alami berdasarkan kueri pengguna. Mesin pencari tradisional berfungsi dengan baik dalam mengambil halaman yang relevan tetapi tidak dapat menghitung informasi dan menyajikannya sebagai respons yang koheren. LLM dapat mengatasi ketidakmampuan ini dengan menyusun hasil pencarian ke dalam respons bahasa alami yang secara langsung menjawab kueri spesifik pengguna. Google Search dan Microsoft Bing telah mulai mengintegrasikan antarmuka obrolan yang digerakkan oleh LLM bersama kotak pencarian tradisional mereka. Keterbatasan LLM Namun, sulit untuk menjaga LLM tradisional diperbarui dengan informasi baru karena pengetahuan terbatas yang diperoleh selama pelatihan mereka. Selain itu, mereka rentan terhadap kesalahan faktual selama pembuatan teks dari bobot model yang dilatih. Keterbatasan ini dapat diatasi menggunakan pembangkitan yang ditambah dengan pengambilan (RAG) dengan menginte

  • Validasi LLM Pasca-Fakta untuk Pengerahan Agen LLM yang Lebih Aman

    Pendahuluan Large Language Model (LLM) semakin meluas dari peran tradisionalnya dalam sistem dialog untuk melakukan tugas secara aktif dalam aplikasi dunia nyata. Saat ini, bukan lagi fiksi ilmiah untuk membayangkan bahwa banyak interaksi di internet akan terjadi antara sistem yang didukung LLM. Tantangan dalam Pengerahan LLM Saat ini, manusia memverifikasi keluaran yang dihasilkan LLM untuk kebenaran sebelum implementasi karena kompleksitas pemahaman kode. Interaksi antara agen dan sistem perangkat lunak ini membuka jalan bagi aplikasi inovatif. Misalnya, asisten pribadi yang didukung LLM dapat secara tidak sengaja mengirim email sensitif, menyoroti perlunya mengatasi tantangan kritis dalam desain sistem untuk mencegah kesalahan tersebut. Tantangan dalam pengerahan LLM yang ada di mana-mana mencakup berbagai aspek, termasuk umpan balik yang tertunda, analisis sinyal agregat, dan gangguan metodologi pengujian tradisional. Sinyal yang tertunda dari tindakan LLM menghambat iterasi cepat dan identifikasi kesalah

  • Peran Pembelajaran Mesin dalam Prediksi dan Mitigasi Perubahan Iklim

    Perubahan iklim terus mengancam planet kita dan kehidupan di dalamnya. Integrasi pembelajaran mesin (ML) dan kecerdasan buatan (AI) ke dalam bidang ini menawarkan solusi yang menjanjikan untuk memprediksi dan memitigasi dampaknya secara efektif. Mari kita periksa bagaimana ML berkontribusi untuk memajukan respons kita terhadap tantangan iklim melalui analisis data yang lebih baik, peramalan, efisiensi sistem, dan pengembangan teknologi baru. Analisis Data dan Peramalan yang Ditingkatkan ML menangani sejumlah besar data yang jauh melebihi kapasitas manusia, memfasilitasi prediksi dan analisis yang lebih akurat. Misalnya, algoritma ML menggunakan citra satelit untuk memantau deforestasi atau perubahan pertanian, membantu adaptasi terhadap variabilitas iklim. Aplikasi AI dalam peramalan membantu memprediksi produksi tenaga surya dengan menganalisis tutupan awan dan data meteorologi lainnya, sehingga mengoptimalkan keseimbangan antara permintaan dan pasokan listrik. Meningkatkan Efisiensi Sistem ML memprediksi da

  • Model VAR: Melebihi Model Difusi dalam Kecepatan dan Efisiensi

    Model Bahasa Otoregresif (AR) Model bahasa besar otoregresif (LLM), seperti seri GPT, telah menjadi tonggak penting dalam kecerdasan buatan. Meskipun menghadapi tantangan seperti halusinasi, model-model ini dipuji sebagai kemajuan substansial menuju pencapaian kecerdasan buatan umum (AGI). Efektivitasnya terletak pada strategi pembelajaran mandiri, yang melibatkan prediksi token berikutnya dalam suatu urutan. Studi telah menggarisbawahi skalabilitas dan generalisasinya, yang memungkinkan mereka beradaptasi dengan beragam tugas yang tidak terlihat melalui pembelajaran tanpa tembakan dan sedikit tembakan. Karakteristik ini memposisikan model AR sebagai kandidat yang menjanjikan untuk belajar dari sejumlah besar data tidak berlabel, yang merangkum esensi AGI. Model AR dalam Penglihatan Komputer Secara bersamaan, bidang penglihatan komputer telah mengeksplorasi potensi model dunia atau otoregresif besar untuk mereplikasi skalabilitas dan generalisasi yang disaksikan dalam model bahasa. Upaya seperti VQGAN dan DAL

  • Menguasai Kreativitas Visual: Menciptakan Gambar Indah dengan ChatGPT Plus

    Memahami ChatGPT Plus ChatGPT Plus adalah model AI canggih yang dirancang untuk memahami dan menghasilkan teks seperti manusia. Dengan kemampuan pembelajaran mendalamnya, ChatGPT Plus juga dapat membuat gambar berdasarkan perintah teks, menjadikannya alat serbaguna untuk pembuatan konten visual. Memulai Sebelum membuat gambar dengan ChatGPT Plus, penting untuk memahami kemampuan dan keterbatasannya. Meskipun ChatGPT Plus dapat menghasilkan hasil yang mengesankan, itu bukanlah pengganti keterampilan artistik tradisional. Sebaliknya, anggaplah itu sebagai mitra kolaboratif yang dapat meningkatkan proses kreatif Anda. Membuat Perintah Kunci untuk menghasilkan gambar yang menarik dengan ChatGPT Plus terletak pada pembuatan perintah yang jelas dan deskriptif. Berikan instruksi terperinci dan gambar referensi untuk memandu AI dalam memahami visi Anda. Misalnya, jika Anda ingin menghasilkan lukisan pemandangan, gambarkan pemandangan, warna, dan suasana hati yang Anda bayangkan. Bereksperimen dengan Input Teks ChatGP

  • Prosesor Google Axion Kustom untuk Beban Kerja Inferensi AI

    Pendahuluan Dengan Axion, Google Cloud membuat lompatan besar dalam mempersiapkan pusat datanya untuk era AI dengan mengadopsi personalisasi yang lebih besar untuk meningkatkan efisiensi kinerja dan memperluas kemampuan armada komputasi serba guna. Axion dibangun di atas Armv9 Neoverse V2. Melanjutkan inisiatif silikon khusus Google Cloud, CPU Axion dirancang untuk memberikan klien peningkatan kinerja beban kerja sekaligus meminimalkan konsumsi energi. Inovasi Silikon Kustom Untuk beban kerja modern yang menuntut dan infrastruktur pusat data yang terus meningkat, silikon kustom adalah pilihan yang tepat. Arm bekerja sama dengan mitra untuk menyesuaikan desain arsitektur dan CPU dengan beban kerja penting mitra. Dibandingkan dengan menggunakan prosesor lama yang sudah jadi, CPU Axion baru dari Google yang berbasis pada Arm Neoverse memiliki kinerja yang lebih baik, konsumsi daya yang lebih rendah, dan skalabilitas yang lebih tinggi. Ini menjadikannya pendorong inovasi silikon khusus. Prosesor Google Axion Kust

  • Transformasi Digital: Aliansi Strategis Cognizant dengan Shopify dan Google Cloud

    Pendahuluan Shopify, Google Cloud, dan Cognizant telah bekerja sama untuk membantu memodernisasi platform dan mendorong transformasi digital bagi perusahaan dan pedagang di seluruh dunia. Kerjasama ini berfokus pada penyampaian klien profesional penasihat dan implementasi teknologi industri ritel Cognizant, infrastruktur cloud inti Google Cloud, dan platform perdagangan terkemuka Shopify. Kebutuhan mendesak pengecer untuk memperbarui dan mengadopsi teknologi baru untuk memberikan saran real-time, bantuan belanja, dan penawaran yang dipersonalisasi kepada konsumen menjadi pendorong kemitraan ini. Dengan menggabungkan kedua layanan ini, kami berharap dapat memacu transformasi ritel dan membantu bisnis mewujudkan potensi AI dan teknologi mutakhir lainnya. Mengapa Berita Ini Penting? Kolaborasi antara Shopify, Google Cloud, dan Cognizant memungkinkan akses ke rangkaian layanan komprehensif yang bertujuan untuk memodernisasi platform dan mempromosikan transformasi digital. Penawaran bersama ini akan menjadi bantua

  • Adaptasi Model Bahasa Besar Pra-latih ke Bahasa Baru

    Pendahuluan Model bahasa besar (LLM) telah merevolusi kemampuan pemrosesan bahasa alami. Namun, sebagian besar model ini dilatih pada bahasa yang umum digunakan, sehingga mengabaikan keragaman bahasa yang luas. Hal ini membatasi aksesibilitas teknologi bahasa canggih dan menciptakan kesenjangan teknologi antar komunitas linguistik. Metode SambaLingo Studi ini mengusulkan metode AI baru yang disebut SambaLingo untuk mengatasi tantangan ini. SambaLingo mengadaptasi model bahasa yang sudah ada dan berkinerja tinggi ke bahasa baru, memanfaatkan kekuatan model pra-latih sambil menyesuaikannya dengan karakteristik unik bahasa target. Proses Adaptasi Pemilihan Model Dasar: Pilih model dasar yang menunjukkan kinerja luar biasa dalam bahasa aslinya. Ekspansi Kosakata: Tambahkan token yang tidak tumpang tindih dari bahasa target ke kosakata model dan inisialisasi dengan sub-kata dari tokenizer asli. Pra-pelatihan Berkelanjutan: Latih model pada campuran data web bahasa Inggris dan bahasa target dengan rasio 1:3, yang l

  • Jemma: AI yang Mengubah Ide Anda Menjadi Kode

    Tantangan dalam Pengembangan Perangkat Lunak Pengembang, manajer proyek, dan pemilik bisnis sering menghadapi tantangan dalam mengubah ide konseptual menjadi prototipe yang nyata dan interaktif. Proses ini biasanya membutuhkan pengetahuan pemrograman yang luas dan memakan waktu, sehingga sulit bagi pemangku kepentingan non-teknis untuk berpartisipasi aktif dalam tahap awal pengembangan perangkat lunak. Kesenjangan ini dapat menyebabkan kesalahpahaman dan ekspektasi yang tidak selaras tentang produk akhir, sehingga diperlukan pendekatan yang lebih efisien dan mudah diakses. Solusi Tradisional Secara tradisional, solusi untuk masalah ini melibatkan pengumpulan persyaratan secara detail, diikuti dengan pengodean manual oleh pengembang berpengalaman. Alat seperti lingkungan pengembangan terintegrasi (IDE) dan berbagai perangkat pengembangan perangkat lunak (SDK) telah membantu pengembang dalam tugas ini. Namun, alat-alat tersebut memerlukan keahlian pengodean yang signifikan dan terkadang hanya mempercepat tahap

  • Kecerdasan Buatan Andesite: Startup Analisis Keamanan AI Canggih yang Memberdayakan Pakar Siber Sektor Publik dan Swasta

    Pendahuluan Kecerdasan buatan (AI) berpotensi mengubah pertahanan siber. Salah satu tantangan terbesar di bidang ini adalah meningkatnya kecanggihan ancaman siber. Volume data yang harus diproses oleh analis keamanan sangat banyak sehingga sulit bagi mereka untuk mengidentifikasi bahaya yang paling mendesak. Selain itu, penjahat siber terus mengembangkan strategi baru, menggunakan metode mutakhir untuk menghindari deteksi. Tantangan Kesenjangan Keahlian Kekurangan pakar keamanan siber yang berkualifikasi adalah tantangan signifikan lainnya. Tidak ada cukup analis terlatih untuk memenuhi permintaan, sehingga perusahaan berisiko. Selain itu, ancaman siber terus berubah, yang berarti bahwa personel keamanan perlu terus dilatih dan ditingkatkan keterampilannya. Kelangkaan pakar keamanan siber yang berkualifikasi menjadi semakin parah dan membutuhkan perhatian segera. Andesite: Revolusi Keamanan Siber Bertenaga AI Andesite adalah perusahaan rintisan inovatif yang mengkhususkan diri dalam solusi keamanan siber bert

  • Metode Pembelajaran Mesin Efisien dari Google AI untuk Meningkatkan Model Bahasa Besar (LBM) Berbasis Transformer untuk Input Tak Terhingga

    Memori dan Model Bahasa Besar Memori sangat penting untuk kecerdasan karena membantu mengingat pengalaman masa lalu dan menerapkannya pada situasi saat ini. Namun, karena cara kerja mekanisme perhatiannya, model Transformer konvensional dan Model Bahasa Besar (LBM) berbasis Transformer memiliki keterbatasan dalam hal memori yang bergantung pada konteks. Konsumsi memori dan waktu komputasi mekanisme perhatian ini keduanya bersifat kompleksitas kuadrat. Sistem Memori Kompresif Sistem memori kompresif menyajikan pengganti yang layak, dengan tujuan menjadi lebih efisien dan terukur untuk mengelola urutan yang sangat panjang. Sistem memori kompresif menjaga biaya penyimpanan dan komputasi tetap terkendali dengan mempertahankan jumlah parameter yang konstan untuk menyimpan dan mengambil informasi, berbeda dengan mekanisme perhatian klasik yang membutuhkan memori untuk berkembang seiring dengan durasi urutan input. Proses penyesuaian parameter sistem ini bertujuan untuk mengasimilasi informasi baru ke dalam memori s

  • Benchmark Pertanyaan Terwujud Berkosakata Terbuka (OpenEQA) dari Meta AI

    Kemajuan dalam Model Bahasa Skala Besar (LLM) LLM telah menunjukkan kemajuan signifikan dalam pemahaman linguistik mendasar. Namun, mereka masih memiliki kekurangan dalam pemahaman waktu nyata. Tantangan EQA EQA (Embodied Question Answering) menguji pemahaman agen AI tentang lingkungannya. Hal ini penting untuk interaksi manusia-AI yang efektif. OpenEQA: Benchmark Inovatif Meta AI memperkenalkan OpenEQA, metrik inovatif yang menilai pemahaman agen AI melalui pertanyaan berkosakata terbuka. Ini mirip dengan menguji pemahaman manusia melalui pertanyaan dan jawaban. Komponen OpenEQA EQA Memori Episodik: Agen AI mengingat pengalaman sebelumnya untuk menjawab pertanyaan. EQA Aktif: Agen AI secara aktif mencari informasi dari lingkungannya untuk menjawab pertanyaan. Evaluasi OpenEQA OpenEQA mencakup: 180+ film dan pemindaian lingkungan fisik 1.600+ pasangan pertanyaan-jawaban non-templated LLM-Match: kriteria evaluasi otomatis untuk jawaban kosakata terbuka Kesenjangan Kinerja Benchmark OpenEQA menunjukkan kesenjan

  • Model Evaluasi Umum Domain Mandiri Tingkatkan Performa Agen Digital: Terobosan dalam Teknologi AI Adaptif

    Pengantar Agen digital, entitas perangkat lunak yang dirancang untuk memfasilitasi dan mengotomatiskan interaksi antara manusia dan platform digital, semakin menonjol sebagai alat untuk mengurangi upaya yang diperlukan dalam tugas digital rutin. Agen tersebut dapat menavigasi antarmuka web atau mengelola kontrol perangkat secara mandiri, berpotensi mengubah cara pengguna berinteraksi dengan teknologi. Bidang ini siap untuk kemajuan yang meningkatkan keandalan dan efisiensi agen ini di berbagai tugas dan lingkungan. Tantangan Meskipun berpotensi, agen digital sering kali salah menafsirkan perintah pengguna atau gagal beradaptasi dengan lingkungan baru atau kompleks, yang menyebabkan inefisiensi dan kesalahan. Tantangannya adalah mengembangkan agen yang dapat secara konsisten memahami dan menjalankan tugas secara akurat, bahkan ketika dihadapkan dengan instruksi atau antarmuka yang tidak biasa. Metode Evaluasi Tradisional Metode saat ini untuk menilai kinerja agen digital biasanya melibatkan tolok ukur statis.

  • Buku-Buku Analisis Data Terbaik untuk Dibaca pada 2024

    Buku Pemula Data Analytics for Absolute Beginners: Panduan pengantar untuk data, visualisasi data, kecerdasan bisnis, dan statistik. Everything Data Analytics: Panduan untuk melek data bagi pemula yang membantu memahami proses mengubah data menjadi wawasan. Buku Menengah Fundamentals of Data Analytics: Panduan untuk proses analisis data dengan kerangka kerja lima langkah. Python for Data Analysis: Panduan komprehensif untuk memanipulasi, memproses, dan membersihkan kumpulan data di Python. SQL for Data Analysis: Buku untuk meningkatkan keterampilan SQL dan memaksimalkan SQL sebagai bagian dari alur kerja. Buku Lanjutan Advancing into Analytics: Panduan praktis untuk pengguna Excel untuk memahami analitik dan tumpukan data. Modern Data Analytics in Excel: Mencakup fitur Excel modern dan alat canggih untuk analitik. Data Visualization with Excel Dashboards and Reports: Mengajarkan cara menganalisis data dalam jumlah besar di Excel dan melaporkannya secara bermakna. Data Analysis for Business, Economics, and Pol

  • Kompresi Embeddings yang Inovatif: Binary MRL dari MixedBread AI

    Pendahuluan Embeddings memainkan peran penting dalam berbagai tugas pemrosesan bahasa alami (NLP), seperti sistem rekomendasi, pencarian, dan pencarian kesamaan. Namun, kebutuhan memori yang besar untuk embeddings menjadi tantangan, terutama saat menangani kumpulan data yang sangat besar. Metode Kompresi Mixedbread.ai telah memperkenalkan Binary MRL, metode kompresi embeddings baru yang menggabungkan dua pendekatan: Matryoshka Representation Learning (MRL): Mengurangi jumlah dimensi keluaran model embeddings. Vector Quantization: Merepresentasikan setiap dimensi sebagai nilai biner. Binary MRL Binary MRL menggabungkan MRL dan Vector Quantization untuk mencapai pengurangan dimensi dan kompresi embeddings secara bersamaan. Metode ini melatih model untuk mempertahankan informasi penting dalam lebih sedikit dimensi, memungkinkan pemotongan dimensi yang kurang relevan. Selanjutnya, Vector Quantization digunakan untuk merepresentasikan setiap dimensi dari embeddings berdimensi rendah sebagai nilai biner, secara sig

  • Revideo: Startup AI dengan Kerangka Kerja Sumber Terbuka Berbasis Web yang Memungkinkan Anda Membuat Video dengan Kode

    Pengenalan Kecerdasan buatan (AI) akan segera memungkinkan pembuatan video dalam jumlah besar secara otomatis, yang akan mengubah cara orang membuat video secara signifikan. Meskipun terdapat banyak alat pengeditan video, para pengembang sering kali merasa dibatasi oleh alat-alat tersebut. Diperlukan lebih banyak kemampuan otomatisasi; alat-alat tersebut mungkin sulit digunakan dan membatasi kebebasan kreatif Anda. Solusi Inovatif Revideo Temui Revideo, kerangka kerja sumber terbuka yang dibuat dalam TypeScript, yang dirancang untuk membebaskan pengembang dari tugas pengeditan video yang membosankan. Solusi inovatif ini mengatasi tantangan yang dihadapi pengembang dalam lanskap pengeditan video saat ini. Di antara fitur-fiturnya adalah kemampuan untuk membuat video secara terprogram dengan input dinamis, dukungan untuk audio, dan mempercepat rendering video secara signifikan. Fitur Utama Anda dapat membuat video menggunakan kerangka kerja sumber terbuka Revideo dengan pustaka animasi Motion Canvas. Ini mengun

arrow_drop_down

ブログリーダー」を活用して、hiromiさんをフォローしませんか?

ハンドル名
hiromiさん
ブログタイトル
セラミドコスメのオススメ
フォロー
セラミドコスメのオススメ

にほんブログ村 カテゴリー一覧

商用