chevron_left

メインカテゴリーを選択しなおす

cancel
hiromi
フォロー
住所
未設定
出身
未設定
ブログ村参加

2018/12/09

arrow_drop_down
  • Scaleflex Bergabung dengan Program Mitra Komputasi Berkualitas Akamai

    Akamai Technologies, perusahaan cloud yang mendukung dan melindungi kehidupan daring, mengumumkan kemitraan dengan Scaleflex, platform pengalaman visual pertama yang bergabung dengan Program Mitra Komputasi Berkualitas Akamai. Solusi Manajemen Aset Digital Scaleflex dan Akamai bekerja sama untuk menyediakan merek daring dengan solusi manajemen aset digital menyeluruh yang berjalan pada Akamai Connected Cloud, platform tepi dan cloud yang sangat terdistribusi yang mendekatkan aplikasi dan pengalaman ke pengguna dan menjauhkan ancaman. Kemitraan ini bertujuan untuk membantu pelanggan mengubah miliaran aset visual menjadi pengalaman pengguna yang tak terhitung jumlahnya. Platform Pengalaman Visual Dengan memanfaatkan kemampuan Akamai Connected Cloud, termasuk layanan komputasi awan dan pengiriman konten Akamai, Scaleflex berfokus pada penyediaan platform pengalaman visual yang menggabungkan kekuatan manajemen aset digital berbasis AI dan pengoptimalan media dinamis untuk memberikan gambar dan video berperforma t

  • Sonata Software Tingkatkan Harmoni.AI dengan Microsoft Azure AI untuk Adopsi AI yang Bertanggung Jawab

    Integrasi dengan Microsoft Azure AI Sonata Harmoni.AI, yang mengintegrasikan layanan Microsoft Azure AI, akan membantu pelanggan menata ulang bisnis dengan Generative AI, membedakan diri mereka di pasar. Keunggulan Utama Keamanan data yang kuat Fitur privasi Pemanfaatan Generative AI yang diatur Dampak pada Pelanggan Dengan mengintegrasikan Sonata Harmoni.AI dengan Microsoft Azure AI, pelanggan dapat: Mendapatkan solusi yang mengutamakan tanggung jawab Membedakan diri di pasar Meningkatkan pengalaman pelanggan Meningkatkan efisiensi operasional Kutipan dari Pemimpin “Integrasi layanan Microsoft Azure AI dengan Harmoni.AI merupakan kemajuan penting, meningkatkan kemampuan kami untuk memberikan solusi AI yang mempercepat adopsi pelanggan, memungkinkan kasus penggunaan yang berbeda, meningkatkan produktivitas, dan mendorong inovasi yang aman.” – Samir Dhir, Managing Director dan Chief Executive Officer di Sonata Software “Dengan mengintegrasikan layanan Microsoft Azure AI, Harmoni.AI Sonata memberdayakan individ

  • EasyQuant: Revolusi Kuantifikasi Model Bahasa Besar dengan Algoritma Bebas Data dari Tencent

    Pengantar Kemajuan pesat dalam pemrosesan bahasa alami (NLP) telah mengantarkan era model bahasa besar (LLM) yang mampu melakukan berbagai tugas kompleks dengan akurasi yang belum pernah terjadi sebelumnya. Namun, model-model ini membutuhkan sumber daya komputasi dan memori yang besar, sehingga membatasi penerapannya di lingkungan dengan sumber daya terbatas. Kuantifikasi Model Solusi yang menjanjikan untuk mengatasi keterbatasan ini adalah kuantifikasi model, yang bertujuan untuk mengurangi ukuran dan kebutuhan komputasi model tanpa mempengaruhi performanya secara signifikan. Kuantifikasi, meskipun bukan konsep baru, menghadapi tantangan tersendiri, terutama saat diterapkan pada LLM. Metode tradisional sering kali bergantung pada sebagian kecil data pelatihan untuk kalibrasi, yang menyebabkan potensi pemasangan berlebih dan hilangnya kemampuan model untuk menggeneralisasi ke tugas-tugas baru yang tidak terlihat. EasyQuant Di sinilah pengembangan EasyQuant oleh tim peneliti Tencent memperkenalkan pendekatan t

  • Zapier Akuisisi Vowel, Luncurkan Zapier Central untuk Memimpin Evolusi Otomatisasi AI

    Produk Baru Zapier Produk terbaru Zapier memungkinkan pelanggan membuat bot AI yang bekerja sama untuk mengotomatiskan tugas dengan mulus di seluruh aplikasi. Akuisisi Vowel Zapier, platform otomatisasi alur kerja untuk usaha kecil dan menengah, mengumumkan telah mengakuisisi tim di balik Vowel, alat konferensi video bertenaga AI, dengan jumlah yang tidak diungkapkan. CEO Vowel, Andrew Berman, akan menjadi Direktur AI baru di Zapier. Melalui akuisisi ini, tim Vowel akan fokus pada peningkatan kemampuan otomatisasi AI Zapier. Zapier Central Keahlian berharga tim Vowel dalam AI telah berperan penting dalam pengembangan produk terbaru Zapier, Zapier Central. Tersedia hari ini dalam pratinjau publik, Zapier Central adalah ruang kerja AI baru tempat pelanggan dapat membangun, mengajar, dan bekerja sama dengan bot AI—yang disesuaikan dengan data mereka—untuk menangani tugas di lebih dari 6.000 aplikasi dan membantu mereka mempercepat bisnis mereka. Lebih dari 388.000 pelanggan Zapier menggunakan berbagai produk dan

  • Teknologi Baru untuk Visualisasi Situasi Lalu Lintas

    Fujitsu Limited dan Carnegie Mellon University mengumumkan pengembangan teknologi baru untuk memvisualisasikan situasi lalu lintas, termasuk orang dan kendaraan, sebagai bagian dari penelitian bersama tentang Social Digital Twin yang dimulai pada tahun 2022. Teknologi ini mengubah gambar pemandangan 2D yang diambil oleh kamera RGB monokuler menjadi format 3D digital menggunakan AI, yang memperkirakan bentuk dan posisi 3D orang dan objek, sehingga memungkinkan visualisasi pemandangan 3D dinamis dengan presisi tinggi. Mulai 22 Februari 2024, Fujitsu dan Carnegie Mellon University akan melakukan uji coba lapangan dengan memanfaatkan data dari persimpangan di Pittsburgh, AS, untuk memverifikasi penerapan teknologi ini. Teknologi Inti Teknologi ini bergantung pada AI yang telah dilatih untuk mendeteksi bentuk orang dan objek melalui pembelajaran mendalam. Sistem ini terdiri dari dua teknologi inti: Teknologi Estimasi Penghunian 3D: Memperkirakan penghunian 3D setiap objek hanya dari kamera RGB monokuler. Teknologi

  • Keunggulan Teknologi Rackspace dalam Kompetensi AI Generatif AWS

    Pencapaian ini menunjukkan kemahiran teknis AWS dan keberhasilan pelanggan yang terbukti dari Rackspace. Rackspace Technology, perusahaan solusi AI, teknologi hybrid, dan multicloud terkemuka, mengumumkan telah meraih Kompetensi AI Generatif Amazon Web Services (AWS) dalam kategori Layanan Konsultasi, Aplikasi AI Generatif, serta Infrastruktur dan Data. Spesialisasi ini mengakui Rackspace Technology sebagai Mitra AWS yang membantu pelanggan dan Jaringan Mitra AWS (APN) mendorong kemajuan layanan, alat, dan infrastruktur yang penting untuk menerapkan teknologi AI generatif. Kemahiran Teknis dan Keberhasilan Pelanggan yang Terbukti Meraih Kompetensi AI Generatif AWS dalam kategori Layanan Konsultasi, Aplikasi AI Generatif, serta Infrastruktur dan Data membedakan Rackspace Technology sebagai Mitra AWS yang telah menunjukkan kemahiran teknis dan keberhasilan pelanggan yang terbukti dalam mendukung kasus penggunaan utama untuk manajemen pengetahuan, pencarian semantik, serta pembuatan dan peringkasan konten untuk

  • Efisiensi Sampel yang Maju dalam Pembelajaran Penguatan di Berbagai Domain dengan Kerangka Pembelajaran Mesin yang Disebut ‘EfficientZero V2’

    Pengantar Pembelajaran Penguatan (RL) telah menjadi landasan untuk memungkinkan mesin menangani tugas-tugas mulai dari permainan strategi hingga mengemudi otonom. Dalam bidang yang luas ini, tantangan dalam mengembangkan algoritme yang belajar secara efektif dan efisien dari interaksi terbatas dengan lingkungan mereka tetap menjadi yang utama. Tantangan Efisiensi Sampel Tantangan yang terus-menerus dalam RL adalah mencapai tingkat efisiensi sampel yang tinggi, terutama ketika data terbatas. Efisiensi sampel mengacu pada kemampuan algoritme untuk mempelajari perilaku yang efektif dari jumlah interaksi minimal dengan lingkungan. Ini sangat penting dalam aplikasi dunia nyata di mana pengumpulan data memakan waktu, mahal, atau berpotensi berbahaya. Algoritme EfficientZero V2 (EZ-V2) Peneliti dari Universitas Tsinghua, Institut Qi Zhi Shanghai, dan Laboratorium Kecerdasan Buatan Shanghai telah memperkenalkan EfficientZero V2 (EZ-V2), sebuah kerangka kerja yang membedakan dirinya dengan unggul dalam tugas kontrol d

  • Model Gambar-ke-3D TripoSR dari Stability AI: Cepat dan Akurat

    Pengantar Stability AI, bekerja sama dengan Tripo AI, telah merilis TripoSR, model gambar-ke-3D baru yang mengatasi tantangan rekonstruksi 3D cepat dari gambar tunggal. Metode Tradisional vs. TripoSR Metode rekonstruksi 3D tradisional sering kali bergantung pada proses yang rumit dan intensif secara komputasi, yang menyebabkan waktu rekonstruksi yang lambat dan akurasi terbatas, terutama untuk pemandangan dengan banyak objek atau sudut pandang yang tidak biasa. Oleh karena itu, diperlukan pendekatan yang lebih cepat dan efisien untuk menghasilkan model 3D berkualitas tinggi dari gambar tunggal. TripoSR memperkenalkan arsitektur berbasis transformator yang dirancang khusus untuk rekonstruksi 3D yang cepat dan efisien dari satu gambar. Dengan memanfaatkan struktur penyandi-dekoder, dengan penyandi mengekstrak fitur dari gambar masukan dan dekoder menghasilkan representasi 3D menggunakan arsitektur transformator, TripoSR mengatasi keterbatasan metode tradisional. Arsitektur TripoSR Arsitektur TripoSR memanfaatka

  • Dataset API-BLEND: Sumber Pelatihan dan Pengujian Sistematis LLM Berbasis Alat

    Pengantar Integrasi API ke dalam Model Bahasa Besar (LLM) merupakan lompatan signifikan dalam pengembangan sistem AI yang sangat fungsional, yang mampu melakukan tugas kompleks seperti pemesanan hotel atau lamaran pekerjaan melalui antarmuka percakapan. Namun, kemajuan ini bergantung pada kemampuan LLM untuk mendeteksi API secara akurat, mengisi parameter yang diperlukan, dan mengurutkan panggilan API berdasarkan ucapan pengguna. Dataset API-BLEND Hambatan dalam mencapai kemampuan ini adalah kurangnya data pelatihan dan pembandingan dunia nyata yang beragam, yang sangat penting bagi model untuk menggeneralisasi dengan baik di luar domain pelatihannya. Untuk mengatasi hal ini, penelitian ini memperkenalkan kumpulan data baru bernama API-BLEND (Gambar 2), yang menandai perbedaan signifikan dari ketergantungan pada data yang dihasilkan secara sintetis, yang sering mengalami masalah seperti bias dan kurangnya keragaman. API-BLEND adalah kumpulan data hibrida yang diperkaya oleh data anotasi manusia dan generasi y

  • ArCHer: Kerangka Kerja Pembelajaran Mesin untuk Pengambilan Keputusan Multi-Giliran dalam Model Bahasa Besar

    Pendahuluan Pengambilan keputusan adalah kemampuan penting bagi mesin, dan pembelajaran penguatan (RL) telah menjadi teknik penting untuk meningkatkan kemampuan ini. RL memungkinkan algoritma membuat pilihan optimal melalui proses coba-coba yang cermat. Namun, model bahasa besar (LLM) memerlukan pendekatan yang lebih canggih untuk menguasai pengambilan keputusan multi-giliran. Metodologi RL konvensional berfokus pada hadiah langsung, bukan urutan tindakan yang koheren yang diperlukan untuk interaksi yang rumit. ArCHer: Kerangka Kerja Hierarkis ArCHer adalah kerangka kerja inovatif yang dikembangkan oleh peneliti dari University of California Berkeley dan Google DeepMind. ArCHer menggunakan strategi pembelajaran penguatan dua tingkat untuk mengoptimalkan strategi makro dan keputusan mikro. ArCHer memisahkan pengambilan keputusan menjadi lapisan hierarkis, memastikan bahwa setiap tindakan yang diambil oleh LLM optimal secara lokal dan sejalan dengan tujuan keseluruhan. Arsitektur ArCHer ArCHer menggunakan algor

  • Membuka “Kebijaksanaan Kerumunan Silikon”: Bagaimana Ansambel LLM Mendefinisikan Ulang Akurasi Perkiraan untuk Menyamai Keahlian Manusia

    Model Bahasa Besar (LLM) dan Tantangannya Model bahasa besar (LLM) yang dilatih pada sejumlah besar data teks menunjukkan kemampuan luar biasa dalam berbagai tugas melalui prediksi token berikutnya dan penyempurnaan. Tugas-tugas ini mencakup pemasaran, pemahaman bacaan, dan analisis medis. Sementara tolok ukur tradisional menjadi usang karena kemajuan LLM, membedakan antara pemahaman mendalam dan hafalan dangkal merupakan tantangan. Menilai kemampuan penalaran sejati LLM memerlukan pengujian yang mengevaluasi kemampuan mereka untuk menggeneralisasi di luar data pelatihan, yang sangat penting untuk penilaian yang akurat. Ansambel LLM dan Kinerja Prediktif Seringkali, ini berada pada tingkat koherensi yang sebelumnya dianggap hanya dapat dicapai oleh kognisi manusia (Tim Gemini, OpenAI). Mereka menunjukkan penerapan yang signifikan di seluruh antarmuka obrolan dan berbagai konteks lainnya. Saat mengevaluasi kemampuan sistem AI tertentu, metode tradisional yang dominan adalah mengukur seberapa baik sistem AI ter

  • Koin Kripto AI: Mengapa Anda Harus Memperhatikannya

    Koneksi AI + Kripto AI (kecerdasan buatan) membutuhkan data dalam jumlah besar untuk belajar dan berkembang. Blockchain, sebagai buku besar yang transparan dan tidak dapat diubah, dapat menjadi sumber data yang andal dan berkualitas tinggi untuk melatih model AI. Proyek kripto AI bertujuan untuk menciptakan jaringan AI terdesentralisasi, sehingga siapa pun dapat berkontribusi dalam membangun dan menggunakan kekuatan AI tanpa otoritas pusat. AI juga mengubah kripto dengan cara yang menakjubkan, seperti deteksi penipuan dan perdagangan algoritmik. Pendorong Hype Potensi yang Belum Tergali: Kombinasi AI dan blockchain masih dalam tahap awal. Memecahkan Masalah Nyata: Proyek kripto AI mengatasi masalah nyata, seperti meningkatkan layanan keuangan, layanan kesehatan, dan rantai pasokan. Bertaruh pada Masa Depan: Investor melihat AI sebagai gelombang teknologi besar berikutnya. Haruskah Anda Bergabung dengan Tren Kripto AI? Hari-hari Awal, Pergerakan Liar: Kripto AI sangat fluktuatif. Lakukan Riset: Jangan terbawa

  • Peningkatan Program HP untuk Mitra, Termasuk Pelatihan dan Sertifikasi MasterClass AI Baru

    Manfaat Mitra Baru MasterClass AI Future Ready: Pelatihan dan sertifikasi mitra berbasis peran pertama di industri untuk kecerdasan buatan (AI). Growth Play untuk Ilmu Data AI: Peluang baru yang disesuaikan untuk mitra yang berfokus pada Ilmu Data AI. Jalur Keanggotaan yang Disederhanakan: Arsitektur dua jalur yang jelas untuk mitra Synergy dan Power. Inisiatif Keberlanjutan yang Diperluas: Amplify Impact diperluas ke Mitra Distribusi dan hampir 50 negara. MasterClass AI Future Ready Diluncurkan pada 1 Mei 2024, MasterClass AI Future Ready akan memberikan mitra pengetahuan komprehensif tentang AI, memberdayakan mereka untuk: Mendidik dan memberi saran kepada pelanggan tentang produk dan solusi AI yang tepat. Memanfaatkan portofolio solusi AI HP yang luas (lebih dari 100 solusi). Beradaptasi dengan lanskap AI yang terus berubah. Growth Play Amplify Mulai Mei 2024, Mitra Komersial Amplify HP akan memiliki akses ke Growth Play Amplify, yang berfokus pada kategori pertumbuhan HP. Program ini menawarkan: Alat unik

  • UVeye Berkolaborasi dengan Acadia Insurance untuk Mengubah Klaim Asuransi Mobil dengan AI

    Kolaborasi untuk Meningkatkan Efisiensi dan Akurasi UVeye, pengembang platform inspeksi kendaraan otomatis berbasis AI, mengumumkan kolaborasi strategis dengan Acadia Insurance, pemimpin di industri asuransi. Perusahaan-perusahaan ini akan membentuk kembali lanskap klaim asuransi otomotif dengan meningkatkan efisiensi dan akurasi dalam proses penilaian Acadia, memanfaatkan sistem inspeksi visi komputer bertenaga AI UVeye untuk merampingkan klaim untuk kendaraan yang terlibat dalam kecelakaan. Sistem drive-thru UVeye memungkinkan penilai untuk melakukan penilaian kerusakan kendaraan yang komprehensif dan instan dengan tingkat presisi dan detail yang belum pernah ada sebelumnya, mengubah proses inspeksi manual tradisional dan merampingkan manajemen klaim. Sistem berbasis AI meningkatkan pengalaman pelanggan secara keseluruhan dengan memangkas waktu tunggu dan memastikan transparansi total selama proses penilaian. Kolaborasi ini merupakan tonggak penting dalam integrasi AI di industri asuransi, yang mengantarkan

  • Model Bahasa Terbuka Sailor: Menjembatani Hambatan Bahasa di Asia Tenggara

    Pendahuluan Dalam lanskap linguistik komputasi yang terus berkembang, menjembatani hambatan bahasa telah menghasilkan inovasi yang luar biasa, terutama di wilayah yang ditandai dengan keragaman bahasa yang kaya. Asia Tenggara, dengan keragaman linguistiknya, menghadirkan tantangan unik bagi teknologi bahasa. Model tradisional sering kali kesulitan memahami perbedaan dan kesamaan yang bernuansa di berbagai bahasa seperti Indonesia, Thailand, Vietnam, Melayu, dan Laos, yang secara signifikan menghambat penerapannya dalam skenario dunia nyata. Sailor: Suite Model Bahasa yang Disesuaikan Sebuah tim peneliti dari Sea AI Lab dan Singapore University of Technology and Design telah memperkenalkan “Sailor”, sebuah rangkaian model bahasa ambisius yang disesuaikan dengan kerumitan linguistik wilayah Asia Tenggara. Tidak seperti pendekatan konvensional yang mungkin bergantung pada model generik dan cocok untuk semua, Sailor membedakan dirinya melalui proses penanganan data yang cermat yang mencakup kurasi yang hati-hati,

  • SimPlan: Memadukan Perencanaan AI dengan Teknologi Model Bahasa Besar Hibrida

    Pendahuluan Merancang urutan tindakan untuk mencapai tujuan dalam lingkungan tertentu merupakan ujian penting bagi kemampuan dan kemampuan perencanaan AI. Secara tradisional, domain ini dinavigasi dengan algoritme yang memetakan urutan tindakan potensial menuju solusi optimal, yang penting untuk aplikasi mulai dari robotika hingga sistem pengambilan keputusan otomatis. Namun, kendala yang signifikan adalah keterbatasan model bahasa besar (LLM) dalam tugas perencanaan ini. Terlepas dari kemampuan luar biasa LLM untuk mengurai dan memahami banyak bahasa alami, mereka sering kali membutuhkan bantuan dalam perencanaan, kesulitan memodelkan efek tindakan dalam suatu lingkungan secara akurat atau menjelajahi ruang keadaan secara efektif. SimPlan: Model Perencanaan Hibrida Peneliti dari IBM Research telah mengatasi masalah ini secara langsung dengan mengembangkan “SimPlan”, metode hibrida yang bertujuan untuk memperkuat kemampuan perencanaan LLM dengan menggabungkannya dengan strategi perencanaan klasik. SimPlan mew

  • Model Bahasa: Menyeimbangkan Efisiensi dan Ingatan

    Efisiensi dan Ingatan dalam Model Bahasa Efisiensi dan kemampuan mengingat model bahasa merupakan aspek penting yang menentukan kegunaan dan efektivitasnya. Seiring dengan pendalaman kecerdasan buatan dalam bahasa manusia, kebutuhan akan model yang dapat memproses informasi dalam jumlah besar dengan presisi tinggi dan konsumsi sumber daya minimal menjadi sangat penting. Introducing BASED: Menjembatani Efisiensi dan Ingatan Para peneliti dari Universitas Stanford, Universitas Buffalo, dan Universitas Purdue memperkenalkan BASED, sebuah arsitektur yang sangat berbeda dari pendekatan tradisional, yang bertujuan untuk menjembatani kesenjangan antara tujuan ganda untuk meningkatkan ingatan sekaligus memastikan efisiensi. Arsitektur Hibrida: Menyesuaikan Efisiensi dan Ingatan Berbeda dengan model sebelumnya yang seringkali berada dalam pertukaran antara penggunaan memori dan kemampuan mengingat informasi secara akurat, BASED muncul sebagai simbol keseimbangan dan keserbagunaan. Dengan mengintegrasikan perhatian lin

  • AI di Perangkat

    Pengertian AI di perangkat, juga dikenal sebagai AI tepi atau pembelajaran mesin di perangkat, mengacu pada praktik menjalankan algoritma kecerdasan buatan langsung pada perangkat, seperti ponsel cerdas, peralatan rumah pintar, atau perangkat IoT (Internet of Things), alih-alih mengandalkan server berbasis cloud untuk pemrosesan. Aspek Penting Pemrosesan lokal: Model AI digunakan dan dijalankan pada perangkat itu sendiri, menghilangkan kebutuhan akan konektivitas internet yang konstan dan mengurangi latensi. Privasi dan keamanan: Dengan memproses data secara lokal, informasi sensitif tidak perlu dikirim ke cloud, meningkatkan privasi pengguna dan keamanan data. Efisiensi: AI di perangkat bisa lebih efisien dalam hal konsumsi daya dan kecepatan pemrosesan, karena tidak memerlukan data untuk dikirim bolak-balik antara perangkat dan cloud. Kinerja waktu nyata: Dengan pemrosesan lokal, AI di perangkat memungkinkan respons dan pengambilan keputusan waktu nyata, yang sangat penting untuk aplikasi seperti kendaraan

  • Bagaimana Kecerdasan Buatan (AI) Akan Mengubah Pekerjaan dan Masyarakat?

    Dampak pada Pekerjaan Otomatisasi Pekerjaan: AI berpotensi mengotomatiskan banyak pekerjaan yang melibatkan tugas-tugas rutin dan berulang, seperti manufaktur, entri data, layanan pelanggan, dan transportasi. Transformasi Pekerjaan: AI juga akan melengkapi dan mengubah banyak pekerjaan, mengubah sifat pekerjaan. Profesional seperti dokter, pengacara, desainer, dan analis keuangan akan semakin menggunakan alat AI untuk meningkatkan pekerjaan mereka. Pekerjaan Baru: Revolusi AI juga akan menciptakan kategori pekerjaan yang sama sekali baru, seperti ahli etika AI, supervisor AI, dan manajer tim manusia-mesin. Gangguan Ekonomi Gangguan Ekonomi: Transformasi pekerjaan yang didorong oleh AI dapat menyebabkan gangguan ekonomi yang signifikan dan kesenjangan, karena beberapa pekerja kehilangan pekerjaan sementara yang lain berkembang di ekonomi baru. Kebijakan seperti pendapatan dasar universal, pelatihan ulang pekerjaan, dan perlindungan pekerja mungkin diperlukan untuk memperlancar transisi. Pengambilan Keputusan P

  • InterVision Luncurkan ConnectIV CX untuk Merevolusi Pengalaman Pelanggan dan Agen

    Mengoptimalkan CX Generasi Berikutnya dengan AI dan Pembelajaran Mesin InterVision, pemimpin dalam layanan cloud terkelola, mengumumkan peluncuran ConnectIV CX, solusi pusat kontak sebagai layanan (CCaaS) baru yang revolusioner yang dirancang untuk meningkatkan pengalaman pelanggan dan karyawan. Dengan mengorkestrasikan penggabungan operasi pusat kontak, ConnectIV CX membuka efisiensi operasional dan mengatasi tantangan kompleks dengan mulus sekaligus meningkatkan kepuasan pelanggan, efisiensi, dan meningkatkan kesuksesan agen. Melalui rangkaian layanan terkelola InterVision, ConnectIV CX menyediakan perutean omnichannel yang cerdas, opsi layanan mandiri yang fleksibel, wawasan yang dapat ditindaklanjuti, dan pengalaman agen yang lebih intuitif. Solusi Warisan yang Ketinggalan Zaman Solusi lama terhambat oleh biaya tinggi, ketidakmampuan untuk memanfaatkan teknologi kecerdasan buatan (AI) karena ketidakmatangan sistem, gangguan yang sering menyebabkan gangguan layanan, hilangnya pendapatan, pemborosan upaya a

  • Ambow Education Menunjuk Norm Allgood untuk Memimpin Bisnis Teknologi Pendidikan AI HybriU

    Pengalaman Allgood Norm Allgood memiliki lebih dari dua dekade pengalaman dalam memperluas akses pendidikan ke program berkualitas, meluncurkan platform teknologi untuk industri pendidikan, berkolaborasi dengan mitra pendidikan tinggi, perencanaan strategis, dan optimalisasi operasional. HybriU: Solusi Pembelajaran Hibrid Berbasis AI HybriU adalah solusi pembelajaran hibrid canggih yang digerakkan oleh AI untuk pendidikan dan pelatihan tenaga kerja. Teknologi AI-nya menawarkan solusi pembelajaran hibrid yang disesuaikan, melengkapi platform pendidikan yang ada. Peran Allgood di HybriU Sebagai Kepala HybriU, Allgood akan memimpin penyebaran dan implementasi HybriU. Dia akan bekerja sama dengan mitra pendidikan tinggi untuk menjadikan HybriU sebagai pemimpin pasar dalam pembelajaran hibrid. Kutipan Jin Huang, Presiden, CEO, dan CFO Ambow: “Pengalaman Norm dalam mengembangkan program pendidikan berkualitas tinggi dan hubungan dengan mitra pendidikan tinggi menjadikannya sosok yang tepat saat kami berupaya menjad

  • CyCognito Bermitra dengan Eviden untuk Memperkuat Manajemen Eksposur di Perusahaan

    Platform EASM Komprehensif CyCognito Kini Memungkinkan Pelanggan Eviden Mengidentifikasi, Memprioritaskan, dan Memulihkan Kerentanan Secara Efisien CyCognito mengumumkan kemitraan strategis dengan Eviden, bisnis Atos Group yang memimpin di bidang digital, cloud, big data, dan keamanan. Kemitraan ini bertujuan untuk menawarkan platform Manajemen Permukaan Serangan Eksternal (EASM) terkemuka kepada daftar pelanggan Eviden yang luas di seluruh dunia sebagai dasar solusi Manajemen Eksposur yang lebih luas. Permukaan Serangan Eksternal yang Luas dan Berkembang Permukaan serangan eksternal organisasi sangat luas dan terus berkembang, berisi sejumlah besar aset yang tidak diketahui dan terekspos yang menghadap internet—mulai dari server dan aplikasi hingga sumber daya cloud dan domain. Masing-masing aset ini dapat menjadi rentan, meninggalkan pintu belakang terbuka bagi pelaku jahat. Solusi pemantauan dan penilaian risiko saat ini tidak dapat mengatasi tantangan tersebut. Solusi Manajemen Eksposur End-to-End Kemitra

  • Deteksi Konten Berhak Cipta yang Dihasilkan LLM: Patronus AI Meluncurkan Solusi Pertama di Industri

    Evaluasi Model LLM Menunjukkan Tingkat Konten Berhak Cipta yang Mengkhawatirkan Patronus AI meluncurkan “CopyrightCatcher”, solusi pertama di industri untuk mendeteksi ketika Model Bahasa Besar (LLM) menghasilkan konten berhak cipta. CopyrightCatcher dapat mengungkap contoh-contoh di mana LLM menghasilkan reproduksi konten yang sama persis dari sumber teks seperti buku. Alat ini dapat menilai keluaran LLM apakah mengandung konten berhak cipta, dan menyoroti bagian spesifik dari keluaran LLM yang mengandung konten berhak cipta. Penelitian Patronus AI Menunjukkan Tingkat Konten Berhak Cipta yang Mengkhawatirkan Penelitian awal oleh Patronus AI menunjukkan bahwa LLM canggih menghasilkan konten berhak cipta pada tingkat yang mengkhawatirkan. Peneliti AI di Patronus AI mengembangkan set uji adversarial 100-pertanyaan untuk mempelajari seberapa sering model menghasilkan reproduksi yang sama persis. Setiap pertanyaan berisi kutipan teks atau meminta bagian pertama dari sebuah teks. Secara khusus: GPT-4 OpenAI: mengh

  • Appian Satukan AI Generatif, Data Perusahaan, dan Otomatisasi Proses End-to-End

    AI Generatif dalam Otomatisasi Proses Versi terbaru dari Appian AI Process Platform menggabungkan AI Generatif dan otomatisasi proses, mendukung kasus yang kompleks, dan memberdayakan pengguna bisnis dengan wawasan data. Case Management Studio Appian Case Management Studio adalah desainer manajemen kasus bertenaga AI dengan modul siap pakai untuk meluncurkan aplikasi dengan cepat untuk kasus yang kompleks. Data Fabric Analytics Appian meningkatkan Data Fabric Analytics di seluruh data fabric Appian, memberdayakan setiap pengguna Appian dengan kemampuan intelijen bisnis yang didukung AI yang canggih. Fitur Tambahan Pembuat Prompt AI Generatif: Memanfaatkan AI generatif pribadi Appian dalam otomatisasi proses. RPA yang Disederhanakan: Tugas robotik sekarang dapat dieksekusi langsung dari model proses Appian. Plugin di Portal Appian: Fitur seperti editor teks kaya, Google Maps, dan ESRI ArcGIS Maps dapat diintegrasikan ke dalam portal. Sertifikasi FedRAMP untuk Portal Appian: Menjadikan Portal Appian pilihan tep

  • Tim Merah AI Microsoft dan PyRIT

    Tim Merah AI Microsoft Di Microsoft, kami yakin penting bagi semua orang untuk berkontribusi dalam langkah-langkah keamanan dan tugas AI generatif. Misi perusahaan mereka adalah menyediakan pengetahuan dan sumber daya yang dibutuhkan bisnis dunia untuk berinovasi secara etis dengan AI. Dedikasi berkelanjutan mereka untuk mendemokratisasi keamanan AI bagi pelanggan, mitra, dan rekan tercermin dalam alat ini dan upaya sebelumnya yang telah kami lakukan dalam tim merah AI sejak 2019. Tim Merah AI Microsoft telah menguji PyRIT dalam pertempuran Tim Merah AI Microsoft telah menguji PyRIT dalam pertempuran. Pada tahun 2022, ketika kami pertama kali memulai tim merah sistem AI generatif, itu hanyalah kumpulan skrip mandiri. Fitur ditambahkan berdasarkan temuan kami selama tim merah dari berbagai sistem AI generatif dan penilaian risiko. Saat ini, Tim Merah AI Microsoft mengandalkan PyRIT. Memeriksa keamanan dan risiko AI yang bertanggung jawab secara bersamaan Kami menemukan bahwa sistem AI generatif tim merah melib

  • Mengoptimalkan Anggaran TI di Era Ledakan AI: Pakar Mengincar Teknologi Otomatisasi

    Investasi Strategis di Tengah Ledakan AI Lonjakan belanja teknologi, yang diperkirakan mencapai $5 triliun pada tahun 2024, merupakan respons langsung terhadap transformasi digital yang terjadi di berbagai industri. Menurut Giedrius Gustas, Data and Power Platform Offering Lead di Reiz Tech, teknologi otomatisasi seperti RPA dan rangkaian pembuatan aplikasi yang ditingkatkan AI menunjukkan potensi sebagai peluang investasi bagi perusahaan. “RPA menyederhanakan proses bisnis dengan mengotomatiskan tugas rutin yang biasanya memakan waktu dan rawan kesalahan, sehingga meningkatkan produktivitas dan akurasi. Teknologi otomatisasi penting lainnya termasuk rangkaian cerdas yang dapat membantu Anda memprogram aplikasi Anda sendiri. Ini memungkinkan organisasi untuk mengembangkan solusi khusus, menyesuaikannya dengan kebutuhan spesifik mereka. Ini membuat pengembangan aplikasi menjadi sangat sederhana dan memberi perusahaan banyak peluang untuk berinovasi,” jelas Gustas. Di tengah gelombang teknologi, bisnis disarank

  • AYA dan Blockpass Berkolaborasi untuk Memastikan Kepatuhan dan Keamanan dalam Masa Depan Teknologi Hijau

    Pendahuluan Blockpass dengan bangga mengumumkan kemitraan dengan AYA, platform penggalangan dana berbasis UEA yang diatur dan berfokus pada persimpangan antara blockchain dan keberlanjutan. Tertarik memfasilitasi solusi inovatif yang mendorong masa depan yang lebih hijau, AYA membimbing dan mengolah proyek yang menggabungkan sifat blockchain yang tanpa batas dan transparan untuk memajukan tujuan keberlanjutan dan mencapai SDGs. Kolaborasi untuk Kepatuhan dan Keamanan Kemitraan ini akan membuat Blockpass memperkuat prosedur kepatuhan AYA dan menyediakan: Penilaian risiko dan klasifikasi risiko pelanggan yang masuk Formulir khusus berdasarkan persyaratan pelanggan dan regulator Pemeriksaan kepatuhan dompet yang ketat dan teratur untuk melindungi transaksi pengguna Evaluasi risiko yang terkait dengan dompet untuk memastikan tidak adanya transaksi penipuan dan mencurigakan Ini akan melibatkan keseluruhan produk Blockpass, termasuk solusi KYC, KYB, dan AML, Bot KYC Lanjutan yang baru, pemantauan berkelanjutan, dan

  • Ben Brownlee Bergabung dengan SOCi dari Gong untuk Mendorong Pertumbuhan Pelanggan dengan CoMarketing Cloud

    Profil Profesional Mantan CCO Gong dan VP Blackbaud untuk Keberhasilan Pelanggan Global membawa 25 tahun keahlian ke tim SOCi, mendorong visi untuk keunggulan pemasaran digital. Pengangkatan SOCi Inc., CoMarketing Cloud terkemuka untuk perusahaan multi-lokasi, mengumumkan Ben Brownlee sebagai Chief Customer Officer. Penunjukan Brownlee hadir pada saat penting bagi SOCi karena terus memperkuat tim kepemimpinannya dan membangun momentum di pasar sebagai pemimpin dalam pemasaran digital dan keberhasilan pelanggan. Pengalaman Brownlee membawa 25 tahun pengalaman bekerja dalam fungsi pasca-penjualan, dengan fokus besar pada dukungan dan layanan penghasil pendapatan, perluasan akun, dan disiplin retensi pelanggan. Sebelumnya, ia menjabat sebagai Chief Customer Officer di Gong, mengawasi perjalanan pelanggan dari titik penjualan, termasuk monetisasi layanan, pembaruan, dan akuntabilitas perluasan. Sebelum Gong, Ben bekerja hampir dua dekade di Blackbaud—memegang berbagai peran kepemimpinan, termasuk Vice President o

  • Kerangka Kerja ResLoRA Baru yang Ditingkatkan untuk Adaptasi Peringkat Rendah (LoRA) dari Peneliti AI Microsoft

    Pendahuluan Model bahasa besar (LLM) dengan ratusan miliar parameter telah meningkatkan kinerja secara signifikan pada berbagai tugas. Penyetelan halus LLM pada kumpulan data tertentu meningkatkan kinerja dibandingkan dengan prompting selama inferensi, tetapi menimbulkan biaya tinggi karena volume parameter. Adaptasi peringkat rendah (LoRA) adalah metode penyetelan halus yang efisien parameter untuk LLM, namun memperbarui bobot blok LoRA secara efisien merupakan tantangan karena jalur kalkulasi model yang panjang. Metode Penyetelan Halus yang Efisien Parameter (PEFT) Berbagai metode penyetelan halus yang efisien parameter (PEFT) telah diusulkan untuk mengatasi masalah ini. Metode PEFT membekukan semua parameter dalam model asli dan hanya menyetel beberapa parameter dalam modul yang baru ditambahkan. Di antara metode tersebut, salah satu metode PEFT yang paling populer adalah LoRA. LoRA LoRA membekukan sebagian besar parameter dalam model asli dan hanya memperbarui beberapa parameter dalam modul yang ditambahk

  • Gen4Gen: Alur Pembuatan Set Data Semi-Otomatis Menggunakan Model Generatif

    Pengantar Model difusi teks-ke-gambar merupakan salah satu kemajuan terbaik di bidang Kecerdasan Buatan (AI). Namun, terdapat kendala terkait personalisasi model difusi teks-ke-gambar yang ada dengan berbagai konsep. Metode personalisasi saat ini tidak dapat diperluas ke banyak ide secara konsisten, dan masalah ini dikaitkan dengan kemungkinan ketidaksesuaian antara deskripsi teks sederhana yang terdapat dalam set data pra-pelatihan dan skenario yang kompleks. Terdapat kekurangan statistik komprehensif untuk menilai efektivitas personalisasi multi-konsep karena metrik yang ada sebagian besar berfokus pada kesamaan ide yang dipersonalisasi daripada akurasi keseluruhannya. Gen4Gen: Alur Pembuatan Set Data Semi-Otomatis Untuk mengatasi masalah ini, tim peneliti telah menghadirkan Gen4Gen, metode semi-otomatis untuk membuat set data. Alur ini menggabungkan konsep yang disesuaikan dengan penjelasan bahasa yang menyertainya untuk membuat komposisi yang rumit menggunakan model generatif. Produk akhirnya adalah set d

  • Membantu Pengambilan Keputusan dalam Lingkungan yang Tidak Pasti: DeLLMa

    Di era di mana ketidakpastian membayangi banyak aspek pengambilan keputusan, terutama di bidang berisiko tinggi seperti bisnis, keuangan, dan pertanian, pencarian alat untuk menavigasi kabut ketidakpastian ini menjadi lebih mendesak dari sebelumnya. Metode pengambilan keputusan sering kali perlu direvisi ketika dihadapkan dengan masalah yang kompleks dan multifaset, meninggalkan kesenjangan yang tidak dapat dijembatani secara efektif oleh keahlian manusia maupun strategi komputasi konvensional. Kesenjangan ini semakin melebar oleh bias yang melekat dan informasi yang tidak lengkap yang dibawa oleh pengambil keputusan manusia, di samping keterbatasan alat komputasi saat ini yang, meskipun kuat, sering kali tidak memiliki pemahaman bernuansa yang diperlukan untuk menangani keputusan dalam ketidakpastian dengan baik. DeLLMa: Asisten Pengambilan Keputusan yang Didukung Bahasa Para peneliti dari University of Southern California telah mengembangkan DeLLMa, yang merupakan singkatan dari Decision-making Large Langua

  • DiLightNet: Metode Kecerdasan Buatan Baru untuk Pengendalian Pencahayaan Rinci dalam Pembuatan Gambar Berbasis Difusi yang Dipicu Teks

    Pengantar Pembuatan gambar berbasis difusi yang dipicu teks telah menjadi topik penelitian yang menarik. Namun, model yang ada masih kesulitan mengendalikan pencahayaan secara rinci, yang mengarah pada konten gambar dan pencahayaan yang berkorelasi. Metode DiLightNet Untuk mengatasi tantangan ini, para peneliti telah mengusulkan DiLightNet, sebuah metode baru yang terdiri dari tiga tahap: Pembuatan Gambar Sementara: Gambar sementara dihasilkan dengan pencahayaan yang tidak terkontrol. Resintesis Objek Latar Depan: Model difusi halus DiLightNet digunakan untuk mensintesis ulang objek latar depan dengan pengendalian pencahayaan yang tepat menggunakan petunjuk pancaran. Pelukisan Latar Belakang: Latar belakang dicat untuk mencocokkan pencahayaan target, menghasilkan gambar yang konsisten dengan teks dan kondisi pencahayaan yang ditentukan. Pelatihan dan Evaluasi DiLightNet dilatih pada kumpulan data sintetis yang beragam yang berisi objek dengan berbagai bentuk, material, dan kondisi pencahayaan. Eksperimen menu

  • Analisis Komprehensif DeepMind dan UCL tentang Penalaran Multi-Hop Laten dalam Model Bahasa Besar

    Pendahuluan Peneliti dari Google DeepMind dan University College London telah meneliti kemampuan Model Bahasa Besar (LLM) dalam melakukan penalaran multi-hop laten. Studi ini mengeksplorasi apakah LLM dapat menavigasi pengetahuan implisit mereka untuk menghasilkan respons yang koheren saat dihadapkan dengan perintah kompleks yang memerlukan koneksi informasi yang berbeda. Penalaran Multi-Hop Penalaran multi-hop mengharuskan entitas untuk mengambil informasi yang relevan dan menghubungkannya secara berurutan untuk memecahkan masalah atau menjawab pertanyaan. Studi ini mengevaluasi proses ini dengan memeriksa respons LLM terhadap perintah yang dirancang dengan rumit yang membutuhkan penjembatan dua fakta terpisah untuk menghasilkan jawaban yang benar. Metodologi Penelitian ini mengukur kemampuan LLM untuk mengingat dan menerapkan informasi spesifik (entitas jembatan) saat menghadapi perintah tidak langsung. Metodologi ini memberikan cara baru untuk mengukur kemampuan penalaran lanjutan ini. Eksperimen dan Hasil

  • Inovasi Terbaru Discuss Membuka Era Baru Kemanusiaan dalam Skala Global

    Pengantar Discuss, platform terdepan yang dirancang khusus untuk inovasi yang mendorong wawasan generasi berikutnya, mengumumkan peluncuran produk Musim Semi 2024. Peluncuran ini menandai lompatan besar lainnya dalam mengatasi tantangan utama yang dihadapi peneliti dengan memungkinkan kemanusiaan dalam skala global. Fitur Utama GenAI, Genie, dan Ringkasan yang Diperluas untuk Penelitian Global: Ringkasan bahasa Inggris pada penelitian multibahasa yang dilakukan di berbagai negara, memungkinkan peneliti mengakses wawasan dengan mudah. Ringkasan proyek instan, analisis tematik, dan wawasan yang dapat ditindaklanjuti dari tim di seluruh dunia, mendorong penemuan dan empati di setiap sudut dunia dan semua target audiens. Tingkat Solusi Jangkauan Konsumen Baru: Dirancang untuk merek global yang mencari solusi satu atap untuk meningkatkan riset pasar mendalam. Akses tak terbatas ke platform Discuss yang kuat untuk IDI, kelompok fokus, aktivitas asinkron, Genie, dan lainnya. Akses tak terbatas ke layanan penting sep

  • Integrasi Manajemen Perangkat yang Mulus, Alianza dan Phonism Mengubah Komunikasi Cloud

    Integrasi Strategis Phonism, pelopor industri dalam Manajemen Perangkat Universal, dengan bangga mengumumkan integrasi strategisnya dengan Alianza, platform komunikasi cloud terkemuka untuk penyedia layanan. Kolaborasi ini menetapkan standar baru yang memberikan pengalaman manajemen multi-perangkat terbaik di kelasnya bagi penyedia layanan dan pengguna akhir dalam lanskap komunikasi cloud. Pengalaman Manajemen Perangkat yang Ditingkatkan Integrasi inovatif ini memberdayakan pelanggan Alianza dengan kemudahan penyebaran dan konfigurasi yang tak tertandingi untuk perangkat bersertifikasi Alianza yang didukung secara asli pada platform mereka yang telah memenangkan penghargaan. Memanfaatkan integrasi Phonism memperlancar migrasi, proses penyediaan, dan waktu ke pasar. Template Phonism mendukung penyebaran tanpa sentuhan, manajemen massal jarak jauh, dan pengelolaan terpusat untuk kepatuhan firmware dan konfigurasi. Strategi BYOD yang Diperkuat Selain itu, Phonism memungkinkan penyedia layanan untuk lebih merangk

  • Pembuatan Petunjuk Bermusuhan yang Beragam untuk LLM Menggunakan LLM: Perkenalkan Rainbow Teaming

    Pengantar Model Bahasa Besar (LLM) telah mengalami perkembangan signifikan baru-baru ini. Kemampuan mereka digunakan dalam berbagai bidang, termasuk keuangan, kesehatan, hiburan, dll. Evaluasi ketahanan LLM terhadap berbagai masukan menjadi penting ketika mereka digunakan dalam konteks kritis keselamatan dan menjadi lebih rumit. Salah satu kesulitan utama adalah bahwa LLM rentan terhadap petunjuk bermusuhan dan masukan pengguna yang dirancang untuk mengelabui atau menyalahgunakan model. Menemukan titik lemah dan mengurangi bahaya sangat penting untuk memastikan bahwa LLM beroperasi dengan aman dan andal dalam situasi praktis. Kekurangan Teknik Identifikasi Petunjuk Bermusuhan Beberapa kelemahan teknik identifikasi petunjuk bermusuhan saat ini adalah: Membutuhkan intervensi manusia yang signifikan Model penyerang yang perlu disesuaikan Akses kotak putih ke model target Teknik kotak hitam saat ini sering kali kurang variasi dan terbatas pada rencana serangan yang telah ditentukan sebelumnya. Keterbatasan ini me

  • Model Bahasa Multilingual untuk Kedokteran dari Tiongkok

    Pendahuluan Kemajuan terbaru dalam perawatan kesehatan memanfaatkan LLM seperti GPT-4, MedPalm-2, dan alternatif sumber terbuka seperti Llama 2. Meskipun model-model ini, termasuk PMC-LLaMA, MedAlpaca, dan ChatDoctors, unggul dalam aplikasi bahasa Inggris dan bahkan terkadang melampaui rekan sumber tertutup, efektivitasnya dalam kueri medis non-Inggris masih perlu ditingkatkan. Meskipun dilatih pada kumpulan data yang beragam, LLM multilingual seperti BLOOM dan InternLM 2 membutuhkan bantuan untuk pertanyaan medis dalam bahasa non-Inggris karena data pelatihan mereka kekurangan konten medis. Perbedaan ini menghambat potensi dampaknya pada komunitas yang beragam secara linguistik. Penelitian Peneliti dari Universitas Jiao Tong Shanghai dan Laboratorium AI Shanghai telah mengembangkan model bahasa multilingual dan sumber terbuka untuk kedokteran yang bermanfaat bagi audiens yang lebih luas dan beragam secara linguistik dari berbagai wilayah. Ini menyajikan kontribusi dalam tiga aspek: Membangun korpus medis mul

  • Dampak Faktor Penskalaan pada Penalaan Halus LLM: Wawasan dari Terjemahan dan Ringkasan Bilingual

    Menyingkap potensi laten Model Bahasa Besar (LLM) untuk tugas tertentu tetap menjadi tantangan kompleks bahkan setelah semua pencapaian canggih yang ditunjukkan model ini sepanjang pengembangannya. Alasan utamanya adalah karena luasnya model dan seluk-beluk yang terkait dengan proses pelatihan dan penalaan halusnya. Metode Penalaan Halus Secara tradisional, dua pendekatan utama digunakan untuk penalaan halus LLM: Penalaan Model Penuh (FMT): Menyesuaikan semua parameter model. Penalaan Efisien Parameter (PET): Hanya menyesuaikan sebagian kecil subset. Setiap metode memiliki kelebihannya, dengan FMT menawarkan kemampuan beradaptasi yang komprehensif dengan mengorbankan efisiensi dan PET memberikan alternatif yang lebih efisien, meskipun kurang fleksibel. Studi Google DeepMind dan Google Research Sebuah studi yang dilakukan oleh tim peneliti dari Google DeepMind dan Google Research mengeksplorasi strategi penalaan halus yang dominan ini: FMT dan PET, yang terakhir mencakup teknik seperti penalaan cepat dan LoRA.

  • Proses Pembuatan Data Umum untuk Peramalan Deret Waktu Non-Stasioner

    Pendahuluan Peramalan deret waktu merupakan salah satu tantangan utama dalam pembelajaran mesin, yang telah memberikan kontribusi terobosan di beberapa domain. Namun, model peramalan tidak dapat menggeneralisasi pergeseran distribusi yang berubah seiring waktu karena data deret waktu secara inheren non-stasioner. Jenis Teknik Peramalan Berdasarkan asumsi tentang pergeseran distribusi temporal antar-instans dan intra-instans, dua jenis teknik utama telah disarankan untuk mengatasi masalah ini: Teknik Stasioner: Memisahkan ketergantungan stasioner dan non-stasioner. Teknik Non-Stasioner: Mengasumsikan non-stasioneritas dalam pengamatan. Model IDEA Peneliti dari Mohamed bin Zayed University of Artificial Intelligence, Guangdong University, Carnegie Mellon University, dan Shantou University mengusulkan model IDEA untuk peramalan deret waktu non-stasioner. Model ini didasarkan pada temuan teoretis yang mengidentifikasi lingkungan laten dan variabel stasioner/non-stasioner. Kerangka Kerja IDEA Inferensi Variasional

  • Masa Depan AI di PC dan TV: Lompatan Besar Apple Berikutnya

    AI dalam Teknologi: Mengintip Masa Depan Teknologi terus berkembang pesat, dan salah satu penggeraknya adalah kecerdasan buatan (AI). AI memungkinkan mesin belajar dan memprediksi, seperti halnya manusia. Transformasi PC: AI sebagai Co-Pilot Dengan AI, PC bukan hanya sekadar alat, tetapi juga asisten. AI dapat: Memeriksa tata bahasa dan nada email Membantu mendesain presentasi Memberikan bimbingan belajar yang disesuaikan Pertempuran untuk Talenta AI Selain perlombaan perangkat keras dan perangkat lunak, ada persaingan sengit lainnya: talenta AI. Perusahaan berlomba-lomba mendapatkan ahli untuk mengembangkan model AI canggih dan insinyur untuk mengoptimalkan model tersebut untuk kinerja perangkat. Dampak pada Industri Tertentu AI berpotensi besar dalam berbagai industri: Kesehatan: Diagnosis medis, penemuan obat, dan rencana perawatan yang dipersonalisasi Keuangan: Deteksi penipuan, penilaian risiko, dan perdagangan algoritmik Ritel: Optimalisasi inventaris dan rekomendasi yang dipersonalisasi Manufaktur: Pem

  • Peningkatan Model Bahasa Besar: Memecah Masalah untuk Pemikiran AI yang Lebih Baik

    Pengantar Model bahasa besar (LLM) telah merevolusi kecerdasan buatan (AI), memungkinkan pemrosesan dan analisis data yang luar biasa. Namun, penggunaan LLM menghadapi tantangan dalam menyeimbangkan efisiensi komputasi dan kinerja tinggi. Distilasi untuk Efisiensi LLM Peneliti dari University of Michigan dan Apple telah mengembangkan pendekatan inovatif menggunakan distilasi untuk meningkatkan efisiensi LLM. Distilasi memecah operasi model menjadi dua fase: dekomposisi masalah dan pemecahan masalah. Dekomposisi Masalah Penelitian menunjukkan bahwa dekomposisi masalah, yaitu memecah tugas kompleks menjadi subtugas yang lebih sederhana, dapat didistilasi ke dalam model yang lebih kecil dengan lebih mudah dibandingkan dengan fase pemecahan masalah. Eksperimen dan Hasil Eksperimen menunjukkan bahwa model dekomposisi yang didistilasi mempertahankan kinerja tinggi pada berbagai tugas dan kumpulan data, sambil secara signifikan mengurangi tuntutan komputasi. Generalisasi dan Pengurangan Biaya Model yang didistilasi

  • Jaringan Saraf Graf Berbasis Geometri Ekuivarian untuk Memprediksi Sifat Molekul dan Mensimulasikan Dinamika Molekul

    Pendahuluan Prediksi sifat molekul dan simulasi dinamika molekul sangat penting dalam penemuan obat, bioteknologi, dan ilmu material. Namun, metode yang ada masih menghadapi tantangan dalam akurasi. ViSNet: Jaringan Saraf Graf Berbasis Geometri Ekuivarian Para peneliti dari Microsoft mengusulkan ViSNet, sebuah jaringan saraf graf yang ditingkatkan dengan geometri ekuivarian. ViSNet memperkenalkan kerangka kerja jaringan saraf graf interaktif vektor-skalar yang dirancang untuk meningkatkan pemodelan geometri molekul. Fitur Inovatif Modul perhitungan geometri waktu proses Mekanisme pelewatan pesan interaktif vektor-skalar Unit arah untuk mewakili node sebagai vektor Perhitungan interaksi dua-tubuh, tiga-tubuh, dan empat-tubuh Evaluasi dan Aplikasi Evaluasi pada berbagai kumpulan data menunjukkan kinerja ViSNet yang unggul dalam memprediksi sifat molekul dan mensimulasikan dinamika molekul. ViSNet juga menunjukkan hasil yang menjanjikan dalam aplikasi dunia nyata, seperti: Memprediksi penghambat terhadap proteas

  • Pemrosesan Konteks Luas Secara Efisien dalam Model Bahasa Besar: Dual Chunk Attention untuk Dukungan Konteks Panjang Tanpa Pelatihan

    Pendahuluan Model Bahasa Besar (LLM) telah memainkan peran penting dalam mencapai kinerja terbaik dalam berbagai aplikasi Pemrosesan Bahasa Alami (NLP), mulai dari menghasilkan tulisan yang menyerupai manusia hingga memahami seluk-beluk bahasa. Namun, efektivitasnya berkurang saat memproses teks yang melebihi panjang pelatihannya, membatasi kegunaannya untuk analisis dokumen komprehensif atau dialog yang diperpanjang. DCA: Kerangka Kerja Baru untuk Konteks Luas Penelitian sebelumnya berfokus pada perluasan frekuensi dasar RoPE atau PI untuk meningkatkan panjang konteks yang didukung oleh LLM. Industri ini sebagian besar bergantung pada pengembangan frekuensi dasar RoPE atau PI karena biaya pelatihan yang tinggi dan ketidakcocokan dengan teknologi seperti Flash Attention. Sebuah tim peneliti dari Universitas Hong Kong, Alibaba Group, dan Universitas Fudan telah merancang kerangka kerja baru yang dikenal sebagai Dual Chunk Attention (DCA), yang secara cerdik memperluas kapasitas operasional LLM untuk memproses

  • Kerja Sama Multifaset FPT dan Siemens Dipercepat Secara Global

    Pendahuluan Perusahaan IT global FPT baru-baru ini menandatangani Nota Kesepahaman (MoU) dengan konglomerat teknologi industri multinasional Siemens, yang mendorong kolaborasi dan peluang bisnis yang saling menguntungkan dalam memajukan sektor manufaktur dan produksi chip semikonduktor sekaligus mempercepat transformasi digital secara global. Bidang Kolaborasi FPT dan Siemens akan bekerja sama dalam bidang-bidang seperti infrastruktur pintar, pusat data hijau dan cerdas, solusi industri digital, pengembangan perangkat lunak otomotif, dan transformasi digital. Penguatan Kemitraan Berdasarkan kemitraan yang sukses pada Sistem Operasi IoT MindSphere sejak 2017, perjanjian baru ini berfokus pada penguatan keterlibatan dan kompetensi dalam layanan transformasi digital bagi kedua belah pihak dan klien mereka di seluruh dunia, serta membuka peluang bisnis baru. Keahlian FPT Memanfaatkan keahlian yang kuat dan tenaga kerja berkualitas tinggi, FPT bercita-cita menjadi Mitra SI Global untuk platform kode rendah Siemens

  • Autogon Mendapat Dukungan untuk Mengembangkan Solusi AI Tanpa Kode yang Disampaikan dalam Hitungan Menit

    Pendahuluan Autogon AI, sebuah platform orkestrasi AI tanpa kode, mengumumkan telah menerima dukungan dari Fast Forward Venture Studio. Model Autogon memungkinkan bisnis dan pemerintah apa pun, terlepas dari ukurannya, memanfaatkan kekuatan AI dengan mudah. Platform AI Tanpa Kode Platform Autogon menawarkan antarmuka seret dan lepas yang memungkinkan pengguna membangun model AI dalam hitungan menit, tanpa pengetahuan atau keterampilan teknis sebelumnya. Antarmuka ini juga menampilkan pasar dengan model AI yang siap pakai. Autogon mencapai hal ini melalui infrastruktur sebagai kerangka layanan yang membuat dan mengumpulkan alat dan API tanpa kode yang dapat diakses, dimodifikasi, dan digunakan oleh pelanggan dengan mudah. Fokus pada Aksesibilitas Autogon AI didirikan oleh Obi Ebuka David pada tahun 2023, berkantor pusat di Houston, Texas, dan melayani pasar global. Misi David adalah menyederhanakan akses ke manfaat AI. Autogon melayani lebih dari 20 industri, termasuk keuangan, kesehatan, pemasaran, dan ritel,

  • Solusi Benchmarking untuk Mempercepat Penyebaran Infrastruktur AI dari Keysight

    Emulasi Akselerator Kecerdasan BuatanKeysight AI Data Center Test Platform memungkinkan emulasi ratusan akselerator kecerdasan buatan (AI). Solusi ini memberikan wawasan yang lebih mendalam tentang kinerja jaringan, meningkatkan skalabilitas, dan mempercepat waktu ke pasar dengan biaya yang lebih rendah dibandingkan solusi siap pakai. Reproduksi Perilaku Jaringan RealistisPlatform ini mereproduksi perilaku jaringan realistis dari beban kerja AI dan pembelajaran mesin (ML) dengan fidelitas yang terukur. Hal ini memungkinkan pengujian dan optimalisasi infrastruktur AI/ML baru dengan skala dan efisiensi yang belum pernah ada sebelumnya. Pemrosesan Beban Kerja AI/MLBeban kerja AI/ML memproses sejumlah besar data yang membutuhkan bandwidth jaringan dan kinerja komputasi yang tinggi untuk mengurangi waktu pelatihan. Keysight AI Data Center Test Platform memberikan emulasi beban kerja AI yang sangat dapat disesuaikan, aplikasi pembanding yang telah dikemas sebelumnya, dan alat analisis kumpulan data untuk meningkatk

  • Partisipasi Docebo pada Konferensi Investor Mendatang di Bulan Maret

    Docebo, penyedia platform pembelajaran terkemuka yang berlandaskan kecerdasan buatan (AI) dan inovasi, mengumumkan bahwa tim manajemennya akan hadir pada konferensi investor dan industri perangkat lunak berikut pada bulan Maret 2024: Morgan Stanley – Konferensi Teknologi, Media & Telekomunikasi – 4 Maret – San Francisco Konferensi Scotiabank TMT – 6 Maret – Toronto Konferensi yang memiliki presentasi publik akan disiarkan dan tersedia di bagian “Acara & Presentasi” di situs web hubungan investor Perusahaan. Tentang Docebo Docebo mendefinisikan ulang cara perusahaan memanfaatkan teknologi untuk membuat dan mengelola konten, memberikan pelatihan, dan mengukur dampak bisnis dari program pembelajaran mereka. Dengan platform pembelajaran menyeluruh Docebo, organisasi di seluruh dunia dilengkapi untuk memberikan pembelajaran yang dipersonalisasi dan berskala untuk semua audiens dan kasus penggunaan mereka, mendorong pertumbuhan dan memberdayakan bisnis mereka. Di Docebo, kami menciptakan perangkat lunak, solusi, da

  • CalypsoAI Tunjuk Donnchadh Casey sebagai Chief Operating Officer

    Pendahuluan CalypsoAI, pemimpin dalam Keamanan dan Pemberdayaan AI, mengumumkan penunjukan Donnchadh Casey sebagai Chief Operating Officer. Casey akan bekerja sama dengan CEO dan Pendiri Neil Serebryany untuk mengawasi strategi go-to-market perusahaan dan mengelola kesuksesan pelanggan. Pengalaman Casey Casey sebelumnya menjabat sebagai Chief Customer Officer di Qualtrics, sebuah perusahaan teknologi terkemuka yang memberdayakan organisasi untuk memberikan pengalaman pelanggan dan karyawan yang luar biasa. Dia menghabiskan sembilan tahun di Qualtrics, di mana dia menjadi anggota tim kepemimpinan eksekutif yang bertanggung jawab untuk memastikan kesuksesan bagi 20.000 pelanggan global perusahaan sambil mempertahankan dan mengembangkan bisnis perusahaan senilai $1,8 miliar. Qualtrics dikenal karena menciptakan kategori Pengelolaan Pengalaman (XM) dan merupakan Perusahaan SaaS Global Top 20. Peran di CalypsoAI Casey akan menerapkan lebih dari 18 tahun pengalamannya dalam mendorong strategi penjualan dan konsulta

  • Optimalisasi Pembelajaran Model Bahasa: Jalan Menuju Efisiensi Pembelajaran Optimal

    Dengan berkembangnya model bahasa, terdapat fokus besar pada peningkatan pembelajaran model bahasa (LM) untuk mempercepat laju pembelajaran dan mencapai kinerja model tertentu dengan langkah pelatihan sesedikit mungkin. Penekanan ini membantu manusia memahami batasan LM di tengah meningkatnya kebutuhan komputasi. Hal ini juga memajukan demokratisasi model bahasa besar (LLM), yang menguntungkan komunitas penelitian dan industri. Penelitian sebelumnya seperti “Model Pra-Terlatih: Masa Lalu, Sekarang, dan Masa Depan” berfokus pada perancangan arsitektur yang efektif, pemanfaatan konteks yang kaya, dan peningkatan efisiensi komputasi. Dalam “h2oGPT: Mendemokratisasi Model Bahasa Besar”, para peneliti telah mencoba membuat alternatif sumber terbuka untuk pendekatan sumber tertutup. Dalam “Optimasi Batch Besar untuk Pembelajaran Mendalam: Pelatihan BERT dalam 76 Menit”, mereka mencoba mengatasi tantangan komputasi LLM. Penelitian sebelumnya ini mengeksplorasi metode akselerasi praktis pada tingkat model, pengoptima

  • Evaluasi yang Didefinisikan Ulang: Menuju Metrik Berbasis Generasi untuk Menilai Model Bahasa Besar

    Evaluasi Berbasis Probabilitas Evaluasi model bahasa besar (LLM) secara dominan bergantung pada metode yang mengukur kemungkinan respons yang benar melalui probabilitas keluaran. Meskipun efisien secara komputasi, pendekatan konvensional ini sering kali gagal mencerminkan kompleksitas tugas dunia nyata di mana model diharapkan menghasilkan respons lengkap untuk pertanyaan terbuka. Keterbatasan Evaluasi Berbasis Probabilitas Metode sebelumnya seperti prediksi berbasis label dan berbasis urutan menilai kinerja LLM dengan menghitung probabilitas token berikutnya atau urutan token yang benar. Pendekatan ini, meskipun banyak digunakan, gagal menangkap esensi kemampuan LLM secara akurat, terutama dalam skenario yang menuntut pembuatan teks yang kreatif dan sesuai konteks. Evaluasi Berbasis Generasi Peneliti dari Mohamed bin Zayed University of Artificial Intelligence dan Monash University telah mengusulkan metodologi baru yang berfokus pada prediksi berbasis generasi. Tidak seperti pendahulunya, metode ini mengeval

  • BABILong: Tolok Ukur Generatif untuk Menguji Model Pemrosesan Bahasa Alami (NLP) dalam Memproses Dokumen Panjang

    Pendahuluan Kemajuan di bidang Pembelajaran Mesin akhir-akhir ini telah menghasilkan ukuran input yang lebih besar untuk model. Namun, penskalaan kuadrat komputasi yang diperlukan untuk perhatian sendiri transformator menimbulkan batasan tertentu. Teknik Memori Berulang Penelitian terbaru telah menyajikan metode yang layak untuk memperluas jendela konteks dalam transformator dengan menggunakan memori berulang. Ini termasuk menambahkan memori berulang internal ke model bahasa yang sudah terlatih dan mengoptimalkannya untuk tugas-tugas tertentu yang melibatkan konteks panjang yang dibagi menjadi potongan-potongan yang lebih kecil. Kerangka BABILong Penelitian ini telah memajukan teknik memori berulang dengan menambahkan pengambilan dalam konteks berdasarkan penyematan memori berulang dari segmen input. Tim telah menyajikan kerangka BABILong, yang merupakan tolok ukur generatif untuk menguji model Pemrosesan Bahasa Alami (NLP) dalam memproses dokumen yang sangat panjang yang berisi fakta-fakta yang tersebar untu

  • Memaksimalkan Potensi Model Visi-Bahasa: Memperkenalkan VISION-FLAN untuk Penyetelan Instruksi Visual Unggul dan Penguasaan Tugas Beragam

    Tantangan Model Visi-Bahasa Model visi-bahasa (VLM) yang canggih telah menghasilkan asisten AI yang mengesankan yang mampu memahami dan merespons teks dan gambar. Namun, model ini masih memiliki keterbatasan yang sedang diatasi oleh para peneliti. Dua tantangan utama adalah: Keragaman Tugas Terbatas: Banyak VLM yang ada dilatih pada tugas yang sempit dan disetel pada kumpulan data instruksi yang disintesis oleh model bahasa besar. Hal ini dapat menyebabkan generalisasi yang buruk dan keluaran yang tidak terduga atau salah. Bias Data Sintetis: Kumpulan data yang dibuat oleh model bahasa besar dapat menimbulkan kesalahan dan bias, menyebabkan respons VLM menyimpang dari preferensi manusia. VISION-FLAN: Dataset Penyetelan yang Komprehensif Untuk mengatasi tantangan ini, para peneliti telah mengembangkan VISION-FLAN, sebuah kumpulan data baru yang inovatif yang dirancang untuk menyempurnakan VLM pada berbagai tugas. Yang membuat VISION-FLAN unik adalah keragamannya. Kumpulan data ini berisi pilihan 187 tugas yang

  • Platform Investasi AI Baru dari Starck dengan Listing PancakeSwap yang Akan Datang

    Tim Starck sedang mengembangkan Platform Investasi AI Starck untuk memantau, menganalisis, dan mengirimkan berita tentang naik turunnya tren aset tertentu, seperti: komoditas, ekuitas, valas, dan mata uang kripto. Listing di PancakeSwap Token asli proyek (STK) akan segera ditayangkan di PancakeSwap untuk meningkatkan aksesibilitas bagi investor dan pedagang. Platform Investasi AI Starck (ASIP) Proyek ini menyediakan cara baru bagi investor untuk membuat keputusan berdasarkan data real-time dan teknologi AI. Berbagai Tingkatan untuk Investor Berbeda Platform Perdagangan Starck menawarkan berbagai tingkatan untuk investor yang berbeda. Setiap tingkatan memberikan fitur dan alat unik untuk memenuhi kebutuhan investor tertentu. Staking Staking, fitur penting bagi investor, akan dimulai pada 1 Maret 2024. Fitur ini akan tersedia untuk pengguna Tingkat 1 dan diperluas ke tingkatan lain pada kuartal berikutnya.

  • Gemma: Model Bahasa Terbuka Ringan dari Google

    Pengantar Gemma Google telah memperkenalkan Gemma, serangkaian model bahasa terbuka yang dibangun berdasarkan model Gemini. Tersedia dalam dua ukuran, Gemma 2B dan 7B, model-model ini dilengkapi dengan opsi pra-latih dan penyetelan instruksi. Kinerja Gemma Di seluruh tolok ukur, Gemma mengungguli LLM Meta, Llama 2. Misalnya, model Gemma dengan 7 miliar parameter mengungguli Llama 2 dalam penalaran, matematika, dan kategori lainnya, dengan akurasi umum 64,3%. Aksesibilitas Gemma Pengguna dapat mulai bekerja dengan Gemma sekarang melalui notebook Colab dan akses gratis di Kaggle. Selain itu, pengguna pertama kali Google Cloud berhak mendapatkan kredit senilai $300. Kredit Google Cloud, yang dapat diminta oleh peneliti hingga $500.000, juga dapat digunakan untuk mempercepat penelitian. Fitur Gemma Dua varian: Gemma 2B (2 miliar parameter) dan Gemma 7B (7 miliar parameter) Varian pra-latih dan penyetelan instruksi untuk setiap ukuran Toolkit AI Generatif yang Bertanggung Jawab untuk pengembangan aplikasi AI yang

  • Emma Up: Solusi Tidur Revolusioner Berbasis Bimbingan AI Berorientasi Aksi

    Pendahuluan Aplikasi seluler ini mengatasi akar penyebab kurang tidur dan memberikan wawasan gaya hidup yang dipersonalisasi bagi pengguna. Kebutuhan akan Solusi Tidur yang Lebih Baik Dalam studi global baru-baru ini, lebih dari 73% responden menyatakan keinginan kuat untuk meningkatkan kualitas tidur, dengan tujuan utama bangun dengan perasaan segar dan beristirahat. Masalah tidur utama meliputi sering terbangun di malam hari (sekitar 53%) dan tingkat keparahan sedang yang memengaruhi aktivitas dan produktivitas sehari-hari (sekitar 47%). Emma Up: Aplikasi Bimbingan Tidur AI yang Revolusioner Emma Up, aplikasi bimbingan tidur AI, meluncurkan fungsi pelacakan tidur berbasis suara baru yang memberikan wawasan gaya hidup yang dipersonalisasi dan langkah selanjutnya yang dapat ditindaklanjuti untuk meningkatkan kualitas tidur. Fitur Pelacakan Tidur Berbasis Suara Penambahan inovatif ini memanfaatkan teknologi AI untuk menawarkan wawasan komprehensif kepada pengguna tentang pola tidur dan kebiasaan gaya hidup mer

  • PyRIT: Alat Identifikasi Risiko Python untuk AI Generatif

    Pendahuluan Di era kecerdasan buatan yang berkembang pesat saat ini, terdapat kekhawatiran seputar potensi risiko yang terkait dengan model generatif. Model-model ini, yang dikenal sebagai Large Language Models (LLM), terkadang dapat menghasilkan konten yang menyesatkan, bias, atau berbahaya. Tantangan Para profesional keamanan dan insinyur pembelajaran mesin menghadapi tantangan dalam menilai ketahanan model-model ini dan aplikasinya. Solusi yang ada seringkali membutuhkan upaya manual dan tidak memiliki kerangka kerja yang komprehensif. Hal ini menciptakan kesenjangan dalam kemampuan mengevaluasi dan meningkatkan keamanan titik akhir LLM secara efisien. PyRIT: Solusi PyRIT, Alat Identifikasi Risiko Python untuk AI generatif, bertujuan untuk mengisi kekosongan ini dan menyediakan kerangka kerja otomatisasi akses terbuka. PyRIT mengambil pendekatan proaktif dengan mengotomatiskan tugas-tugas AI Red Teaming. Komponen Utama PyRIT Target: LLM yang diuji Dataset: Berbagai prompt untuk pengujian Mesin Penilaian: M

  • Kemampuan AI dalam Percakapan Panjang: LoCoMo, Ujian Terakhir untuk Sistem Dialog

    Pengantar Kemajuan terbaru dalam AI telah berdampak signifikan pada bidang AI percakapan, terutama dalam pengembangan chatbot dan asisten digital. Sistem ini bertujuan untuk meniru percakapan seperti manusia, memberikan pengguna interaksi yang lebih alami dan menarik. Seiring berkembangnya teknologi ini, salah satu bidang yang semakin diminati adalah meningkatkan kemampuan mereka untuk mempertahankan memori percakapan jangka panjang, yang sangat penting untuk mempertahankan dialog yang koheren dan relevan secara kontekstual dalam jangka waktu yang lama. Tantangan Memori Percakapan Jangka Panjang Salah satu tantangan utama yang dihadapi AI percakapan adalah kebutuhan akan sistem yang lebih mutakhir untuk terlibat dalam dialog jangka panjang. Pendekatan sebelumnya umumnya berfokus pada interaksi jangka pendek hingga menengah, biasanya paling banyak beberapa sesi obrolan. Pembatasan ini secara signifikan menghambat kemampuan AI untuk berpartisipasi dalam percakapan yang berlangsung lebih lama. Keterbatasan ini m

  • Meningkatkan Efisiensi Dekoding Autoregresif: Pendekatan Pembelajaran Mesin oleh Qualcomm AI Research Menggunakan Model Bahasa Besar dan Kecil Hibrid

    Pengantar Model bahasa besar (LLM) sangat penting untuk kemajuan Pemrosesan Bahasa Alami (NLP), menetapkan tolok ukur baru untuk apa yang dapat dicapai mesin dalam memahami dan menghasilkan bahasa manusia. Salah satu tantangan utama dalam NLP adalah permintaan komputasi untuk dekoding autoregresif dalam LLM. Proses ini, yang penting untuk tugas-tugas seperti terjemahan mesin dan peringkasan konten, membutuhkan sumber daya komputasi yang besar, sehingga kurang layak untuk aplikasi waktu nyata atau pada perangkat dengan kemampuan pemrosesan terbatas. Tantangan Dekoding Autoregresif Metodologi saat ini untuk mengatasi intensitas komputasi LLM melibatkan berbagai teknik kompresi model seperti pemangkasan kuantisasi dan strategi dekoding paralel. Distilasi pengetahuan adalah pendekatan lain di mana model yang lebih kecil belajar dari keluaran model yang lebih besar. Dekoding paralel bertujuan untuk menghasilkan beberapa token secara bersamaan, tetapi menimbulkan tantangan seperti inkonsistensi keluaran dan memperk

  • Revolusi Anotasi Data: Peran Penting Model Bahasa Besar

    Model Bahasa Besar (LLM) seperti GPT-4, Gemini, dan Llama-2 menjadi yang terdepan dalam pergeseran signifikan dalam proses anotasi data, menawarkan perpaduan antara otomatisasi, presisi, dan kemampuan beradaptasi yang sebelumnya tidak dapat dicapai dengan metode manual. Ancaman Anotasi Data Tradisional Pendekatan tradisional terhadap anotasi data, proses pelabelan data yang cermat untuk melatih model, sangat memakan waktu dan sumber daya. Dengan kemampuan canggihnya, LLM siap merevolusi tugas penting namun rumit ini. Masalah inti dengan anotasi data konvensional adalah tuntutannya akan upaya manusia yang ekstensif dan pengetahuan khusus domain, sehingga menjadikannya proses yang mahal dan lambat. Munculnya LLM menyajikan solusi dengan mengotomatiskan pembuatan anotasi, yang tidak hanya mempercepat proses tetapi juga meningkatkan konsistensi dan kualitas data yang diberi label. LLM: Mengubah Proses Anotasi Data Pergeseran ini bukan hanya tentang efisiensi; ini adalah perubahan mendasar dalam cara data dapat di

  • Peningkatan Interpretasi dan Fungsionalitas dalam Model Aditif Umum melalui Model Bahasa Besar

    Dalam bidang sains data dan Kecerdasan Buatan (AI) yang terus berkembang, kombinasi model Pembelajaran Mesin (ML) yang dapat diinterpretasikan dengan Model Bahasa Besar (LLM) telah menjadi terobosan besar. Dengan menggabungkan fitur terbaik dari kedua strategi, strategi ini meningkatkan kegunaan dan aksesibilitas alat analisis data yang canggih. Persimpangan Model yang Dapat Diinterpretasikan dan Model Bahasa Besar Untuk meningkatkan tugas sains data, tim peneliti telah menunjukkan persimpangan antara model yang dapat diinterpretasikan dan Model Bahasa Besar dalam penelitian terbaru. Metode ini merupakan langkah besar untuk membantu pakar domain dan ilmuwan data untuk lebih memahami dan berinteraksi dengan model ML yang canggih. Tim telah mempelajari bagaimana LLM dapat digunakan untuk memberikan berbagai kemampuan seperti ringkasan himpunan data, menjawab pertanyaan, kritik model, dan pembuatan hipotesis mengenai pola yang mendasari dalam data dengan bekerja sama dengan baik dengan Model Aditif Umum (GAM), y

  • Peter M. Carlson Diangkat Sebagai CEO Spectral AI

    Pengangkatan Membuka Jalan bagi Babak Berikutnya dalam Komersialisasi Perangkat DeepView Berbasis AI untuk Perawatan Luka Prediktif Carlson Memiliki Rekam Jejak Kepemimpinan Operasional dan Keuangan yang Terbukti, Termasuk di Perusahaan Manajemen Perawatan Luka Terkemuka Wensheng Fan Beralih ke Kepala Strategi Inovasi dan Penasihat Senior untuk CEO Perusahaan Mengumumkan Pendapatan R&D Awal 2023; Menegaskan Panduan Pendapatan Sepanjang Tahun untuk 2024 dan Menyoroti Momentum Kuartal Pertama Spectral AI, sebuah perusahaan kecerdasan buatan (AI) yang berfokus pada diagnostik medis untuk keputusan perawatan yang lebih cepat dan akurat dalam perawatan luka, mengumumkan bahwa Dewan Direksi (Dewan) telah menunjuk Peter M. Carlson, Chief Financial Officer Spectral AI saat ini, sebagai Chief Executive Officer dan anggota Dewan. Dia menggantikan Wensheng Fan, yang, setelah 14 tahun bersama Spectral AI, termasuk hampir empat tahun sebagai CEO, beralih ke Kepala Strategi Inovasi dan Penasihat Senior untuk CEO. Vincent S

  • Memperbaiki Konsistensi Model Terpadu dengan CocoCon

    Model Visi-Bahasa Terpadu Model visi-bahasa terpadu telah menjadi garda terdepan, menggabungkan visual dengan verbal untuk membuat model yang dapat menafsirkan gambar dan merespons dalam bahasa manusia. Namun, kendala dalam pengembangannya adalah memastikan bahwa model ini berperilaku konsisten di berbagai tugas. Masalah Konsistensi Inti masalahnya terletak pada kemampuan model untuk menghasilkan keluaran yang koheren dan andal, baik dalam mengidentifikasi objek dalam gambar, menjawab pertanyaan berdasarkan gambar tersebut, atau menghasilkan deskripsi tekstual dari input visual. Benchmark CocoCon Para peneliti dari University of North Carolina, University of California Los Angeles, dan Allen Institute for AI telah mengembangkan kumpulan data tolok ukur, CocoCon, yang dirancang untuk mengevaluasi dan meningkatkan konsistensi model ini di berbagai tugas. Dengan membuat set kontras dan memodifikasi contoh uji dengan cara yang kecil namun bermakna, para peneliti dapat menilai apakah respons model tetap konsisten

  • L3GO: Agen Bahasa dengan Chain-of-3D-Thoughts untuk Presisi Pembuatan Objek

    Pendahuluan Aplikasi AI yang menerjemahkan instruksi tekstual menjadi gambar 2D atau model 3D telah memperluas kemungkinan kreatif, namun tantangan tetap ada dalam memperoleh hasil yang presisi. Alat yang ada sering kali menghasilkan hasil yang tidak terduga atau “halusinasi”, yang kurang sesuai dengan perintah masukan. Model Stable Diffusion menghadapi masalah dalam menggabungkan beberapa konsep atau membedakan atribut yang berbeda. Meskipun upaya telah meningkatkan keterikatan objek-atribut, objek yang hilang, dll., pembuatan objek yang membutuhkan pemahaman spasial 3D yang presisi tetap menjadi tantangan. Bahkan model difusi canggih seperti DALLE 3 kesulitan dengan tugas seperti membuat kursi dengan lima kaki seperti yang ditunjukkan pada Gambar 1. L3GO: Agen Bahasa untuk Pembuatan Objek 3D yang Presisi Mengatasi tantangan ini, L3GO yang diusulkan memanfaatkan kemampuan penalaran berbasis teks yang canggih dari Agen Model Bahasa (LLM) untuk meningkatkan pemahaman spasial 3D dalam pembuatan objek. L3GO memp

  • Model Bahasa Besar Efisien Inferensi dengan Tandem Transformers dari Google DeepMind

    Pengantar Model bahasa besar (LLM) masih menghadapi hambatan biaya komputasi yang signifikan, sehingga menghambat penyebarannya secara luas, bahkan dengan pendekatan optimalisasi inferensi yang telah berkembang pesat. Pembuatan token secara berurutan selama proses pembuatan autoregresif merupakan penyebab utama latensi inferensi yang tinggi. Karena akselerator ML (GPU/TPU) dirancang untuk perkalian matriks-matriks dan bukan operasi matriks-vektor yang umum di LLM, keterbatasan ini mencegah pemanfaatannya secara penuh. Akibatnya, pembuatan jawaban autoregresif jauh kurang efisien dibandingkan pemrosesan perintah, yang melibatkan penanganan semua token secara bersamaan. Namun, kepentingan relatif dari kemampuan untuk memahami kueri atau prefiks (pemahaman bahasa alami, atau NLU) dan kemampuan untuk menghasilkan jawaban (pembuatan bahasa alami, atau NLG) masih belum jelas. Desain LLM modern yang hanya mengandalkan dekoder menggabungkan kedua aktivitas ini. Tandem Transformers Sebuah studi baru oleh Google Resear

  • Mengapa Hutan Acak Mendominasi: Wawasan dari Riset Pembelajaran Mesin Terobosan Universitas Cambridge

    Efektivitas Hutan Acak Dalam pembelajaran mesin, efektivitas himpunan pohon, seperti hutan acak, telah lama diakui. Himpunan ini, yang menggabungkan kekuatan prediktif dari beberapa pohon keputusan, menonjol karena akurasinya yang luar biasa di berbagai aplikasi. Hutan Acak sebagai Penghalus Adaptif Penelitian dari Universitas Cambridge ini menjelaskan mekanisme di balik kesuksesan ini, menawarkan perspektif bernuansa yang melampaui penjelasan tradisional yang berfokus pada pengurangan varians. Himpunan pohon disamakan dengan penghalus adaptif dalam penelitian ini, sebuah konseptualisasi yang menerangi kemampuan mereka untuk mengatur diri sendiri dan menyesuaikan prediksi sesuai dengan kompleksitas data. Kemampuan beradaptasi ini sangat penting untuk kinerja mereka, memungkinkan mereka mengatasi kerumitan data dengan cara yang tidak dapat dilakukan oleh pohon tunggal. Akurasi prediktif himpunan ditingkatkan dengan memoderasi penghalusan berdasarkan kesamaan antara input pengujian dan data pelatihan. Penggunaa

  • Searchformer: Meningkatkan Efisiensi Perencanaan dengan Model Transformer

    Pendahuluan Kecerdasan Buatan (AI) berkembang pesat, dengan Transformer memimpin inovasi. Namun, perencana simbolik tradisional tetap unggul dalam tugas pengambilan keputusan dan perencanaan yang kompleks karena pendekatan berbasis aturan yang terstruktur. Tantangan dalam Perencanaan AI Model Transformer saat ini memiliki keterbatasan dalam menyelesaikan tugas perencanaan dan penalaran yang kompleks. Meskipun tidak memiliki pemahaman bahasa alami yang bernuansa seperti Transformer, metode tradisional unggul dalam tugas perencanaan karena strategi pencarian sistematis dan sering kali memberikan jaminan optimalitas. Searchformer: Mengatasi Kesenjangan Meta AI telah memperkenalkan Searchformer, model Transformer baru yang secara signifikan meningkatkan efisiensi perencanaan dalam tugas kompleks seperti teka-teki Sokoban. Tidak seperti pendekatan tradisional, Searchformer menggabungkan kekuatan Transformer dengan dinamika pencarian terstruktur dari perencana simbolik, menghasilkan proses perencanaan yang lebih ef

  • Terobosan Baru Pembelajaran Mesin dari Google dan Duke University Mengungkap Optimalisasi Canggih oleh Transformer Linear

    Pendahuluan Arsitektur transformer telah menandai tonggak penting, terutama dalam penerapannya pada pembelajaran dalam konteks. Model-model ini dapat membuat prediksi hanya berdasarkan informasi yang disajikan dalam urutan input tanpa pembaruan parameter eksplisit. Kemampuan untuk beradaptasi dan belajar dari konteks input ini sangat penting dalam mendorong batas-batas yang dapat dicapai di berbagai domain, dari pemrosesan bahasa alami hingga pengenalan gambar. Tantangan dalam Mengatasi Data Berisik Salah satu tantangan paling mendesak di bidang ini adalah berurusan dengan data yang secara inheren berisik atau kompleks. Pendekatan sebelumnya sering kali membutuhkan bantuan untuk menjaga akurasi ketika dihadapkan dengan variabilitas tersebut, yang menggarisbawahi perlunya metodologi yang lebih kuat dan mudah beradaptasi. Transformer Linear: Model Baru untuk Optimalisasi Adaptif Peneliti dari Google Research dan Duke University mengusulkan ranah transformer linear, kelas model baru yang telah menunjukkan kemamp

  • Hadiah yang Dipersonalisasi dengan AI

    Masa Depan Pemberian Hadiah dengan Kemudahan Berbasis AI Jelajahi prediksi kami tentang masa depan pemberian hadiah dan beberapa perkembangan fantastis yang akan semakin menyederhanakan otomatisasi titik interaksi yang sangat dipersonalisasi di seluruh pengalaman pelanggan Anda, dalam skala besar. Perusahaan dan individu menggunakan AI untuk menyederhanakan proses pemberian hadiah. Perusahaan di industri teknologi menggunakan AI untuk menyederhanakan personalisasi dan pengiriman hadiah. Sistem ini secara bertahap meningkatkan pengalaman, baik yang digunakan untuk membantu pemilihan hadiah atau sebagai alat untuk memantau ROI. Ada kebutuhan yang meningkat akan layanan dan pengalaman yang dapat mengurangi stres sekaligus membawa kegembiraan bagi penerima, karena semakin banyak perusahaan yang memasukkan AI ke dalam proses pemberian hadiah. Platform pemberian hadiah bertenaga AI telah membuka jalan baru untuk pemberian hadiah bisnis dan pribadi dengan memungkinkan perusahaan menyaring data media sosial dan membe

  • UiPath dan Google Cloud Perkuat Kemitraan untuk Gen AI dan Otomatisasi Cloud

    Integrasi dengan Google AI UiPath baru-baru ini mengumumkan konektornya untuk Google Cloud Vertex AI, platform AI terpadu Google Cloud, yang memungkinkan para profesional otomatisasi untuk memasukkan output Gen AI ke dalam otomatisasi mereka dengan mengirimkan perintah yang mengembalikan ringkasan, jawaban pertanyaan, dan klasifikasi. Dengan konektor ini, pengguna dapat: Mengakses aktivitas yang dikurasi untuk model bahasa besar (LLM) PaLM 2, termasuk pembuatan teks Membangun, menyebarkan, dan mengelola model pembelajaran mesin (ML) dengan mudah dan membuat prediksi yang cepat dan hemat biaya Mengaktifkan aktivitas Google Vertex di UiPath Studio untuk membangun otomatisasi yang berinteraksi dengan data Google Vertex Selain itu, pelanggan UiPath dapat dengan mudah mengintegrasikan: Google Vision: Menggunakan konektor UiPath yang telah dibuat sebelumnya untuk menggabungkan wawasan bisnis yang diperoleh dari gambar dan video. Konektor Google Vision merangkum model ML yang kuat melalui API REST yang mudah digunak

  • Revolusi Moderasi Konten dalam Periklanan Digital: Pendekatan LLM yang Dapat Diskalakan

    Tantangan Moderasi Konten Maraknya iklan di platform daring menghadirkan tantangan besar dalam menjaga integritas konten dan mematuhi kebijakan periklanan. Mekanisme moderasi konten tradisional yang mendasar bergulat dengan tantangan ganda, yaitu skala dan efisiensi, yang sering menjadi hambatan dalam lingkungan platform yang dinamis dan bervolume besar seperti Google Ads. Skenario ini membutuhkan pendekatan inovatif untuk moderasi konten yang dapat memproses banjir data secara efisien tanpa mengorbankan akurasi atau menghabiskan sumber daya komputasi yang mahal. Pendekatan LLM Peneliti di Google Ads Safety, Google Research, dan University of Washington telah mengembangkan metodologi terobosan yang memanfaatkan kekuatan model bahasa besar (LLM) untuk meningkatkan proses moderasi konten untuk Google Ads. Inti dari strategi mereka terletak pada sistem multi-tingkat yang secara cermat memilih iklan untuk ditinjau, secara signifikan memadatkan kumpulan data ke ukuran yang dapat dikelola tanpa mengurangi efektivit

  • OmniPred: Kerangka Kerja Pembelajaran Mesin untuk Mengubah Desain Eksperimen dengan Model Regresi Universal

    Pendahuluan Kemampuan untuk memprediksi hasil dari berbagai parameter secara tradisional ditopang oleh metode regresi yang spesifik dan berfokus sempit. Meskipun efektif dalam domainnya, pendekatan khusus ini sering kali perlu direvisi ketika dihadapkan dengan kompleksitas dan keberagaman yang melekat dalam eksperimen dunia nyata. Oleh karena itu, tantangannya tidak hanya terletak pada prediksi, tetapi juga dalam menyusun alat yang cukup serbaguna untuk menavigasi seluruh spektrum tugas, masing-masing dengan parameter dan hasil yang berbeda, tanpa memerlukan penyesuaian khusus tugas. Metode Regresi yang Ada Alat regresi telah dikembangkan untuk mengatasi tugas prediktif ini, memanfaatkan teknik statistik dan jaringan saraf untuk memperkirakan hasil berdasarkan parameter masukan. Alat-alat ini, termasuk Proses Gaussian, metode berbasis pohon, dan jaringan saraf, telah menunjukkan harapan di bidangnya masing-masing. Mereka menghadapi keterbatasan ketika menggeneralisasi di berbagai eksperimen atau beradaptasi d

  • Sequoia: Algoritma Dekoding Spekulatif yang Dapat Diskalakan, Andal, dan Sadar Perangkat Keras

    Pendahuluan Meningkatnya penggunaan model bahasa besar (LLM) membuat dukungan yang efisien menjadi semakin penting. Mempercepat inferensi LLM merupakan tantangan karena setiap token baru memerlukan akses ke semua parameter LLM. Batasan I/O ini menyebabkan pemanfaatan perangkat keras yang kurang optimal selama pembuatan. Masalah ini diperburuk dalam pengaturan inferensi berbasis offloading dan batch kecil, karena menghasilkan satu token membutuhkan waktu yang sama dengan memproses prompt yang berisi ratusan atau ribuan token pada GPU saat ini. Dekoding Spekulatif Penelitian terbaru telah memperkenalkan dekoding spekulatif untuk mempercepat inferensi LLM sambil mempertahankan distribusi keluaran LLM. Pendekatan ini menggunakan satu atau lebih model draf untuk memprediksi keluaran LLM. Prediksi disusun dalam pohon token, dengan setiap node mewakili urutan token yang dispekulasikan. Selanjutnya, satu forward pass LLM digunakan untuk memverifikasi kebenaran token yang dispekulasikan ini secara bersamaan. Pohon tok

  • PROG Holdings dan Infosys Bermitra untuk Pengalaman Pelanggan Bertenaga AI dan Otomatisasi Operasional

    Kerja Sama Strategis PROG Holdings, perusahaan induk fintech untuk Progressive Leasing, Vive Financial, Four Technologies, dan Build, serta Infosys, pemimpin global dalam layanan dan konsultasi digital generasi mendatang, mengumumkan perjanjian yang diharapkan dapat mengembangkan dan meningkatkan operasi teknologi PROG Holdings sebagai bagian integral dari upaya modernisasi dan inovasi teknologi yang berfokus pada cloud dan AI yang sedang berlangsung di Perusahaan. Manfaat Kolaborasi Kolaborasi ini akan memungkinkan PROG Holdings untuk memanfaatkan layanan digital Infosys, termasuk teknologi mutakhir, yang diyakini PROG Holdings akan membantu mewujudkan efisiensi operasional, mempercepat peningkatan teknologi, dan meningkatkan kecepatan ke pasar. Hubungan ini juga diharapkan dapat meningkatkan dan berinovasi pada teknologi dan sistem utama PROG Holdings yang berhadapan dengan pelanggan dan mitra, membantu memperluas kesenjangan kepemimpinan dalam pasar sewa-untuk-memiliki virtual. Alasan Pemilihan Infosys PRO

  • Asia Innovations Group dan AI3 Labs Berkolaborasi untuk NFT Streaming Langsung Bertenaga AI Generatif

    Pengantar Dalam langkah terobosan di persimpangan kecerdasan buatan dan blockchain, Asia Innovations Group Limited (ASIG) dan AI3 Labs dengan bangga mengumumkan kemitraan baru, membangun NFT interaktif streaming langsung pertama di dunia yang didukung oleh AI Generatif. Integrasi Ekosistem ASIG akan mengintegrasikan produk AI NFT dari AI3 Labs langsung ke dalam ekosistem aplikasi hiburan sosialnya yang memiliki lebih dari 700 juta pengguna terdaftar di 150 wilayah. Platform Berbasis Rollup Platform baru, yang dipelopori oleh teknologi rollup mutakhir, dikembangkan dalam kemitraan dengan Caliber Venture Builder dan memperkenalkan serangkaian fitur inovatif yang akan mengubah domain aplikasi Web3. Pengalaman Web2 yang Intuitif AI3 akan menggunakan teknologi milik Caliber untuk memberikan pengalaman seperti Web2 yang intuitif, memfasilitasi transaksi tanpa gas dan menggabungkan teknologi dompet tertanam, yang dimungkinkan melalui Abstraksi Akun dan biaya transaksi yang sangat berkurang. Teknologi Rollup yang Dap

  • Intel Luncurkan Altera, Perusahaan FPGA Mandiri Barunya

    Prioritas Pelanggan Altera memprioritaskan pelanggan dengan FPGA ujung ke ujung, AI yang mudah diakses, perangkat lunak, dan ketahanan pasokan. Apa yang Baru Intel mengumumkan peluncuran resmi Altera, perusahaan FPGA mandiri barunya. Selama Webcast Visi FPGA, Chief Executive Officer Sandra Rivera dan Chief Operating Officer Shannon Poulin mengungkap strategi mereka untuk mengamankan kepemimpinan di pasar bernilai lebih dari $55 miliar; untuk memperluas portofolio perusahaan, termasuk satu-satunya FPGA dengan AI yang dibangun ke dalam struktur; dan untuk membantu memecahkan tantangan pelanggan yang meningkat. Mereka juga mengumumkan Altera sebagai merek perusahaan baru. Mengapa Penting Portofolio dan peta jalan Altera yang diperluas lebih baik mengatasi pertumbuhan di pasar FPGA target di seluruh cloud, jaringan, dan tepi, sekaligus meningkatkan perangkat lunak Quartus Prime terbaik di kelasnya dan kemampuan AI yang mudah digabungkan untuk memanfaatkan segmen aplikasi yang tumbuh cepat ini. Munculnya kecerdasa

  • Swin3D++: Arsitektur AI yang Ditingkatkan Berbasis Swin3D untuk Pretraining Efisien pada Titik Awan 3D Multisumber

    Pendahuluan Titik awan merupakan representasi umum data 3D, dengan ekstraksi fitur titik demi titik menjadi sangat penting untuk berbagai tugas yang berkaitan dengan pemahaman 3D. Meskipun metode pembelajaran mendalam telah membuat kemajuan signifikan dalam domain ini, metode tersebut sering kali bergantung pada kumpulan data yang besar dan beragam untuk meningkatkan pembelajaran fitur, sebuah strategi yang umumnya digunakan dalam pemrosesan bahasa alami dan visi 2D. Namun, kelangkaan dan anotasi data 3D yang terbatas menimbulkan tantangan signifikan bagi pengembangan dan dampak pretraining 3D. Analisis Perbedaan Domain Salah satu solusi langsung untuk mengatasi masalah kelangkaan data adalah dengan menggabungkan beberapa kumpulan data 3D yang ada dan menggunakan data gabungan tersebut untuk pretraining tulang punggung 3D universal. Namun, pendekatan ini mengabaikan perbedaan domain di antara titik awan 3D yang berbeda, seperti variasi dalam kepadatan titik, sinyal, dan karakteristik kebisingan. Perbedaan ini

  • Dataset MMCSG dari Meta AI: 25+ Jam Percakapan Dua Arah yang Direkam Menggunakan Project Aria

    Pengantar Dataset MMCSG (Multi-Modal Conversational Speech Group) CHiME-8 berfokus pada tantangan transkripsi percakapan yang direkam menggunakan kacamata pintar yang dilengkapi dengan berbagai sensor, termasuk mikrofon, kamera, dan unit pengukuran inersia (IMU). Dataset ini bertujuan untuk membantu peneliti memecahkan masalah seperti deteksi aktivitas dan diarization pembicara. Metode yang Diusulkan Model yang diusulkan bertujuan untuk mentranskripsi kedua sisi percakapan alami secara akurat secara real-time, dengan mempertimbangkan faktor-faktor seperti identifikasi pembicara, pengenalan ucapan, diarization, dan integrasi sinyal multi-modal. Metode saat ini untuk mentranskripsi percakapan biasanya hanya mengandalkan input audio, yang mungkin hanya menangkap beberapa informasi yang relevan, terutama dalam lingkungan yang dinamis seperti percakapan yang direkam dengan kacamata pintar. Model yang diusulkan menggunakan dataset multi-modal, dataset MSCSG, termasuk sinyal audio, video, dan IMU, untuk meningkatkan

  • Model AlphaMonarch-7B: Performa Unggul dalam Pemrosesan Bahasa Alami

    Pendahuluan Menciptakan model yang mampu memahami, bercakap-cakap, dan memecahkan masalah kompleks selalu menjadi tantangan dalam kecerdasan buatan. Tujuannya adalah mengembangkan sistem yang dapat mengobrol seperti manusia dan berpikir serta bernalar melalui pertanyaan yang sulit. Keseimbangan ini sangat penting karena, dalam banyak kasus, model yang menjadi pembicara yang baik mungkin memerlukan bantuan untuk tugas penalaran yang kompleks, dan sebaliknya. Model AlphaMonarch-7B Untuk mengatasi hal ini, telah ada upaya seperti OmniBeagle, sebuah model yang dirancang untuk berkinerja sangat baik pada tolok ukur yang menguji kemampuan model untuk menangani pertanyaan multi-giliran, aspek penting dalam menjaga percakapan. Namun, OmniBeagle lebih condong ke arah unggul dalam percakapan, yang berarti kemampuan penalarannya perlu lebih kuat. Ketidakseimbangan ini menyoroti perlunya model yang dapat mencapai keseimbangan yang lebih baik antara kelancaran percakapan dan kecakapan penalaran. AlphaMonarch-7B adalah kel

  • Men questioning nilai teknik pembelajaran mesin: Apakah pembelajaran penguatan dengan umpan balik AI sebagus yang digembar-gemborkan? Wawasan dari makalah AI Institut Penelitian Stanford dan Toyota

    Pendahuluan Eksplorasi untuk menyempurnakan model bahasa besar (LLM) guna meningkatkan kecakapan mereka dalam mengikuti instruksi telah melonjak, dengan Pembelajaran Penguatan dengan Umpan Balik AI (RLAIF) menjadi teknik yang menjanjikan. Metode ini secara tradisional melibatkan fase awal Penyetelan Halus yang Diawasi (SFT) menggunakan demonstrasi model guru, diikuti oleh fase pembelajaran penguatan (RL), di mana umpan balik model kritikus menyempurnakan LLM lebih lanjut. Studi yang Menantang Studi yang dilakukan oleh para peneliti dari Universitas Stanford dan Institut Penelitian Toyota memulai pemeriksaan kritis terhadap paradigma RLAIF, terutama menantang keharusan dan kemanjuran langkah RL dalam konteks peningkatan LLM dalam mengikuti instruksi. Metodologi yang Diusulkan Mendalami metodologi tersebut, para peneliti mengusulkan pendekatan yang mudah namun efektif: menggunakan satu model guru yang kuat, seperti GPT-4, untuk menghasilkan data SFT dan memberikan umpan balik AI. Kemanjuran metode ini diuji ter

  • Membuka Kecepatan dan Efisiensi dalam Model Bahasa Besar dengan Ouroboros: Pendekatan Kecerdasan Buatan Baru untuk Mengatasi Tantangan Dekoding Spekulatif

    Pengantar Model Bahasa Besar (LLM) seperti GPT dan BERT telah menjadi pengubah permainan, mendorong kemajuan dalam pemahaman mesin dan pembuatan teks seperti manusia. Model-model ini telah menguasai seluk-beluk bahasa, memungkinkan mereka untuk menangani tugas-tugas dengan akurasi yang luar biasa. Namun, penerapannya dalam skenario waktu nyata terhambat oleh keterbatasan kritis: kecepatan inferensi. Proses dekoding autoregresif konvensional, yang secara berurutan menghasilkan satu token pada satu waktu, menimbulkan hambatan yang signifikan, menjadikan pencarian inferensi kecepatan tinggi sebagai tantangan kritis di lapangan. Ouroboros: Dekoding Spekulatif untuk Inferensi LLM yang Lebih Cepat Para peneliti dari Grup NLP, Departemen Ilmu Komputer dan Teknologi, Institut Kecerdasan Buatan, Pusat Penelitian Nasional Ilmu Pengetahuan dan Teknologi Informasi Beijing, Universitas Tsinghua memperkenalkan kerangka kerja baru bernama Ouroboros, yang muncul sebagai mercusuar inovasi. Ouroboros menyimpang dari pendekatan

  • Eksperimen FlipFlop: Kerangka Pembelajaran Mesin untuk Mengevaluasi Perilaku LLM dalam Percakapan Multi-Putaran

    Pendahuluan Large Language Models (LLM) modern secara teoritis dapat merefleksikan dan menyempurnakan jawaban mereka ketika terjadi kesalahan atau kesalahpahaman, karena mereka adalah sistem interaktif yang mampu melakukan interaksi multi-putaran dengan pengguna. Penelitian sebelumnya telah menunjukkan bahwa LLM dapat meningkatkan respons mereka menggunakan konteks percakapan tambahan, seperti penalaran Rantai Pemikiran. Namun, LLM yang dirancang untuk memaksimalkan preferensi manusia dapat menunjukkan perilaku menjilat, artinya mereka akan memberikan jawaban yang sesuai dengan apa yang menurut pengguna benar, meskipun perspektif itu tidak benar. Eksperimen FlipFlop Penelitian baru dari Salesforce AI Research menyajikan interaksi multi-putaran antara pengguna simulasi dan LLM yang berfokus pada tugas klasifikasi sebagai eksperimen FlipFlop. LLM melakukan tugas klasifikasi sebagai respons terhadap perintah pengguna pada putaran awal diskusi. LLM kemudian memutuskan apakah akan menegaskan atau membalikkan respo

  • Harmoni Penglihatan dan Bahasa: Munculnya Penyelarasan Perilaku Bi-Modal (BBA) dalam Meningkatkan Penalaran Multimodal

    Integrasi Bahasa Spesifik Domain (DSL) ke dalam Model Visi-Bahasa Besar (LVLMs) Integrasi DSL ke dalam LVLMs menandai lompatan transformatif dalam menyempurnakan kemampuan penalaran multimodal. Meskipun mengagumkan karena kecerdikannya, pendekatan tradisional sering kali bergulat dengan kompleksitas bernuansa yang melekat dalam domain profesional dan rumit. Esensi Penalaran Multimodal Inti dari penalaran multimodal terletak pada kemampuannya untuk menggabungkan intuisi visual dengan ketepatan representasi tekstual, sehingga memungkinkan pemahaman dan interaksi yang lebih bernuansa dengan dunia digital. Metode Penyelarasan Perilaku Bi-Modal (BBA) Penelitian ini berporos pada masalah yang bernuansa: integrasi harmonis dari mekanisme penalaran yang berbeda yang berasal dari representasi visual dan DSL. Integrasi ini bukan hanya upaya teknis tetapi juga langkah penting menuju membuka ranah kemungkinan baru untuk tugas penalaran yang kompleks. Kekurangan Metode Rantai Pemikiran (CoT) Meskipun memiliki kelebihan, m

  • Strategi Penyempurnaan Lanjutan dalam Model AI: Mengungkap Kekuatan Model Imbalan Berbasis Hasil dan Proses

    Pendahuluan Penyempurnaan penalaran model bahasa besar (LLM) menjadi langkah penting dalam penelitian kecerdasan buatan. Tim dari FAIR di Meta, bersama kolaborator dari Georgia Institute of Technology dan StabilityAI, telah memulai perjalanan untuk meningkatkan kemampuan LLM dalam menyempurnakan proses penalaran mereka pada tugas-tugas menantang seperti matematika, sains, dan pengkodean tanpa bergantung pada input eksternal. Model Imbalan Berbasis Hasil (ORM) LLM, meskipun canggih, sering kali perlu ditingkatkan dalam mengidentifikasi secara tepat kapan dan bagaimana penalaran mereka perlu disempurnakan. Kesenjangan ini mengarah pada pengembangan ORM, alat yang dirancang untuk memprediksi akurasi jawaban akhir model, yang mengisyaratkan kapan penyesuaian diperlukan. Kelemahan ORM Namun, tim menemukan keterbatasan ORM: mereka terlalu berhati-hati, mendorong penyempurnaan yang tidak perlu bahkan ketika langkah-langkah penalaran model berada di jalur yang benar. Ketidak efisienan ini mendorong penyelidikan lebih

  • GraphRAG: Peningkatan Performa RAG dengan Grafik Pengetahuan yang Dihasilkan LLM

    Pengantar Model Bahasa Besar (LLM) telah memperluas kemampuannya ke berbagai bidang, termasuk kesehatan, keuangan, pendidikan, hiburan, dll. Model ini memanfaatkan kekuatan Pemrosesan Bahasa Alami (NLP), Pembuatan Bahasa Alami (NLG), dan Visi Komputer untuk masuk ke hampir setiap industri. Namun, memperluas kekuatan LLM di luar data yang dilatih terbukti menjadi salah satu masalah terbesar dalam penelitian Model Bahasa. GraphRAG: Solusi dari Microsoft Research Untuk mengatasi hal ini, Microsoft Research telah menemukan solusi dengan memperkenalkan metode inovatif yang disebut GraphRAG. Pendekatan ini meningkatkan kinerja Pembuatan yang Diperkuat Pengambilan (RAG) dengan menggunakan grafik pengetahuan yang dihasilkan LLM. GraphRAG menawarkan langkah maju yang besar dalam situasi di mana metodologi RAG biasa tidak cukup untuk memecahkan masalah kompleks pada kumpulan data pribadi. Performa yang Ditingkatkan Pembuatan yang diperkuat pengambilan adalah teknik pengambilan informasi yang populer dalam sistem berbas

  • CoLLaVO: Terobosan AI KAIST dalam Model Bahasa Visi yang Meningkatkan Pemahaman Gambar Tingkat Objek

    Pengantar Model Bahasa Visi (VLM) berevolusi menuju model serba guna yang mengandalkan kemampuannya untuk memahami gambar dan menjalankan tugas melalui instruksi bahasa alami. Namun, perlu diperjelas apakah VLM saat ini benar-benar memahami informasi objek mendetail dalam gambar. Analisis menunjukkan bahwa pemahaman gambar mereka sangat berkorelasi dengan kinerja tanpa pengambilan sampel (zero-shot) pada tugas bahasa visi. Ini menunjukkan bahwa memprioritaskan pemahaman gambar dasar adalah kunci agar VLM unggul. CoLLaVO: Meningkatkan Pemahaman Tingkat Objek Terlepas dari kemajuan terbaru, VLM terkemuka masih kesulitan memahami objek secara mendetail, yang memengaruhi kinerja mereka pada tugas terkait. Meningkatkan pemahaman tingkat objek VLM sangat penting untuk meningkatkan kinerja tugas mereka secara keseluruhan. Para peneliti dari KAIST telah mengembangkan CoLLaVO, sebuah model yang menggabungkan kemampuan bahasa dan visi untuk meningkatkan pemahaman gambar tingkat objek. Dengan memperkenalkan Crayon Promp

  • Pemanfaatan Persuasi dalam AI: Langkah Menuju Model Bahasa yang Dapat Dipercaya

    Pengantar Penyelarasan model bahasa besar (LLM) dengan nilai dan pengetahuan manusia telah mengambil langkah maju yang signifikan dengan pendekatan inovatif yang menantang metode penyelarasan tradisional. Metode Penyelarasan Tradisional Teknik penyelarasan tradisional, yang sangat bergantung pada data berlabel, menghadapi hambatan karena perlunya keahlian domain dan semakin luasnya pertanyaan yang dapat ditangani oleh model ini. Seiring berkembangnya model, bahkan melampaui pengetahuan ahli, ketergantungan pada data berlabel menjadi semakin tidak praktis, menyoroti perlunya mekanisme pengawasan yang dapat beradaptasi bersama kemajuan ini. Paradigma Baru: Model “Lemah” Memandu Model “Kuat” Paradigma baru muncul dari pemanfaatan model yang kurang mumpuni untuk memandu penyelarasan rekan mereka yang lebih canggih. Metode ini memanfaatkan wawasan mendasar: mengkritik atau mengidentifikasi jawaban yang benar seringkali lebih mudah daripada membuatnya. Debat: Alat Kuat untuk Pengawasan Debat, seperti yang diusulkan

  • Integrasi Embeddings Pengguna untuk Mengoptimalkan LLM: Pengantar USER-LLM dari Google AI

    Pendahuluan Model Bahasa Besar (LLM) telah merevolusi pemrosesan bahasa alami, menghadirkan peluang untuk pemodelan dan personalisasi pengguna. Namun, mengintegrasikan data interaksi pengguna secara efektif masih menjadi tantangan. Data tersebut, yang mencakup berbagai keterlibatan digital, memberikan wawasan berharga tetapi sering kali rumit dan bising. Penyesuaian LLM secara langsung dengan riwayat interaksi menghadapi rintangan seperti data yang jarang, interaksi multimodal, dan urutan yang panjang. Mengatasi tantangan ini sangat penting untuk meningkatkan layanan berbasis bahasa yang dipersonalisasi. Tantangan Integrasi Data Interaksi Pengguna Metode yang ada, seperti penyesuaian LLM secara langsung pada data interaksi pengguna, menunjukkan potensi dalam mendukung berbagai tugas NLP dan meningkatkan pemodelan pengguna. Namun, mereka menghadapi tantangan karena kompleksitas dan kebisingan yang melekat dalam data interaksi pengguna. Masalahnya meliputi titik data yang jarang, interaksi multimodal, dan kesul

  • Dampak Revolusioner Sora AI OpenAI pada Industri Film

    Apa itu Sora? Sora adalah generator teks-ke-video. Bayangkan ia sebagai penulis naskah, sutradara, dan sinematografer cerdas yang digabungkan menjadi satu. Anda memberikannya deskripsi seperti, “Seorang astronot sendirian menatap luasnya angkasa dari pesawat luar angkasa mereka,” dan dalam hitungan detik, ia menghasilkan klip definisi tinggi yang menangkap pemandangan tersebut. “Sora berpotensi mendemokratisasi pembuatan film dengan cara yang belum pernah kita lihat sebelumnya. Dengan perintah teks sederhana, Anda dapat menghidupkan ide hampir seketika,” kata Sarah Taylor, seorang pembuat film independen veteran. “Anda tidak memerlukan anggaran studio yang besar atau kru mewah untuk mencapai visual yang menakjubkan.” Revolusi dalam Pra-Produksi Proses pra-produksi di Hollywood bisa memakan waktu dan biaya yang besar. Papan cerita, pencarian lokasi, seni konsep – banyak pekerjaan dilakukan sebelum kamera mulai merekam. Sora dapat mengubah semua itu. Bayangkan, produser dan sutradara memberi Sora ide adegan unt

arrow_drop_down

ブログリーダー」を活用して、hiromiさんをフォローしませんか?

ハンドル名
hiromiさん
ブログタイトル
セラミドコスメのオススメ
フォロー
セラミドコスメのオススメ

にほんブログ村 カテゴリー一覧

商用