Evolusi dan Integrasi AI Generatif 2024: Peluang dan Tantangan

February 15, 2025 | by Luna
{new formatted article}

Titik Balik Artificial Intelligence Generatif di Tahun 2024

Tahun 2022 menjadi titik balik ketika artificial intelligence generatif (AI) mulai menarik perhatian publik, dan pada tahun 2023, AI mulai menunjukkan eksistensinya di sektor bisnis. Memasuki tahun 2024, tahun ini diperkirakan akan menjadi momen penting bagi masa depan AI, dengan para peneliti dan bisnis berusaha menemukan cara paling praktis untuk mengintegrasikan teknologi ini ke dalam kehidupan sehari-hari.

Perkembangan AI generatif sejalan dengan evolusi komputer, meskipun dengan kecepatan yang jauh lebih cepat. Awalnya, komputer mainframe besar yang dioperasikan secara terpusat digantikan oleh mesin yang lebih kecil dan efisien yang dapat diakses oleh bisnis dan institusi penelitian. Selama beberapa dekade berikutnya, kemajuan bertahap mengarah pada penciptaan komputer rumah untuk para hobiis. Akhirnya, komputer pribadi yang kuat dengan antarmuka tanpa kode yang ramah pengguna menjadi tersebar luas. AI generatif kini telah mencapai fase “hobiis”, dan seperti komputer, kemajuan di masa depan bertujuan untuk mencapai kinerja yang lebih besar dalam bentuk yang lebih ringkas.

Perkembangan Model Dasar dan Integrasi AI

Pada tahun 2023, terjadi lonjakan dalam pengembangan model dasar yang semakin efisien dengan lisensi terbuka, dimulai dengan keluarga model bahasa besar (LLM) LlaMa dari Meta dan diikuti oleh model seperti StableLM, Falcon, Mistral, dan Llama 2. Model seperti DeepFloyd dan Stable Diffusion telah mencapai paritas relatif dengan model kepemilikan terkemuka. Ditingkatkan oleh teknik penyetelan halus dan dataset dari komunitas sumber terbuka, banyak model terbuka kini dapat mengungguli semua kecuali model sumber tertutup paling kuat pada sebagian besar tolok ukur, meskipun memiliki lebih sedikit parameter.

Seiring dengan percepatan kemajuan, kemampuan yang berkembang dari model mutakhir akan menarik perhatian media yang signifikan. Namun, perkembangan yang paling berdampak mungkin berfokus pada tata kelola, middleware, teknik pelatihan, dan jalur data yang membuat AI generatif lebih dapat dipercaya, berkelanjutan, dan dapat diakses oleh bisnis dan pengguna akhir.

Transformasi Bisnis dan Tantangan Regulasi

Ketika AI generatif pertama kali mendapatkan perhatian luas, pengetahuan para pemimpin bisnis sebagian besar berasal dari materi pemasaran dan liputan berita sensasional. Pengalaman nyata terbatas pada eksperimen dengan alat seperti ChatGPT dan DALL-E. Sekarang, komunitas bisnis memiliki pemahaman yang lebih halus tentang solusi bertenaga AI. Siklus Hype Gartner menempatkan AI Generatif pada “Puncak Ekspektasi yang Berlebihan,” di ambang memasuki “Lembah Kekecewaan,” menunjukkan periode transisi. Sementara itu, laporan “State of Generated AI in the Enterprise” dari Deloitte pada Q1 2024 menunjukkan bahwa banyak pemimpin mengharapkan dampak transformasional yang substansial dalam jangka pendek. Kenyataannya kemungkinan akan berada di antara keduanya: AI generatif menawarkan peluang dan solusi unik, tetapi tidak akan menjadi segalanya bagi semua orang.

Alat mandiri seperti ChatGPT sering mendominasi imajinasi populer, tetapi integrasi mulus ke dalam layanan yang sudah ada cenderung memiliki dampak yang lebih tahan lama. Sebelum siklus hype saat ini, alat machine learning generatif seperti fitur “Smart Compose” Google, yang diperkenalkan pada tahun 2018, tidak dianggap revolusioner, meskipun meramalkan layanan penghasil teks saat ini. Demikian pula, banyak alat AI generatif berdampak tinggi sedang diintegrasikan ke dalam lingkungan perusahaan untuk meningkatkan alat yang ada daripada menggantikannya. Contohnya termasuk fitur “Copilot” di Microsoft Office, “Generative Fill” di Adobe Photoshop, dan agen virtual dalam aplikasi produktivitas dan kolaborasi.

Keuntungan dan Tantangan AI Multimodal

Ambisi AI generatif mutakhir semakin berkembang. Gelombang kemajuan berikutnya akan berfokus pada peningkatan kinerja dalam domain tertentu dan mengembangkan model multimodal yang dapat memproses berbagai jenis data. Meskipun model yang beroperasi di berbagai modalitas data bukanlah hal baru—model teks-ke-gambar seperti CLIP dan model ucapan-ke-teks seperti Wave2Vec telah ada selama bertahun-tahun—branda biasanya beroperasi dalam satu arah dan dilatih untuk tugas tertentu. Generasi baru model interdisipliner, seperti GPT-4V dari OpenAI, Gemini dari Google, dan model sumber terbuka seperti LLaVa, Adept, dan Qwen-VL, dapat bergerak bebas antara pemrosesan bahasa alami (NLP) dan tugas visi komputer. Model baru juga menggabungkan video: pada akhir Januari, Google mengumumkan Lumiere, model difusi teks-ke-video yang juga dapat melakukan tugas gambar-ke-video atau menggunakan gambar sebagai referensi gaya.

Manfaat paling langsung dari AI multimodal adalah aplikasi AI dan asisten virtual yang lebih intuitif dan serbaguna. Pengguna dapat bertanya tentang gambar dan menerima jawaban dalam bahasa alami atau meminta instruksi untuk memperbaiki sesuatu dan menerima bantuan visual bersama dengan instruksi langkah demi langkah dalam teks. AI multimodal memungkinkan model memproses berbagai input data, memperkaya dan memperluas informasi yang tersedia untuk pelatihan dan inferensi. Video menawarkan potensi besar untuk pembelajaran holistik, menangkap peristiwa tanpa penyaringan atau intensionalitas, yang mengarah pada pemahaman model yang lebih baik.

Regulasi dan Tantangan Hukum

Dalam model spesifik domain, terutama model bahasa besar (LLM), kita mungkin telah mencapai titik pengembalian yang semakin berkurang dari jumlah parameter yang lebih besar. Sam Altman, CEO OpenAI, menyarankan bahwa era model raksasa sedang berakhir, dan perbaikan akan datang dari area lain. Model besar telah memulai zaman keemasan AI tetapi sangat intensif sumber daya, membutuhkan dana dan ruang server yang signifikan. Melatih satu model seukuran GPT-3 mengonsumsi listrik tahunan lebih dari 1.000 rumah tangga, sementara satu hari standar kueri ChatGPT menyaingi konsumsi energi harian 33.000 rumah tangga AS. Model yang lebih kecil kurang intensif sumber daya, dan melatih model yang lebih kecil pada lebih banyak data menghasilkan kinerja yang lebih baik daripada melatih model yang lebih besar pada lebih sedikit data.

Kemajuan terbaru dalam model dengan 3–70 miliar parameter, seperti yang dibangun di atas model dasar LlaMa, Llama 2, dan Mistral, menunjukkan bahwa model dapat diperkecil tanpa banyak pengorbanan kinerja. Kekuatan model terbuka akan terus tumbuh. Pada Desember 2023, Mistral merilis “Mixtral,” model campuran ahli (MoE) yang mengintegrasikan 8 jaringan saraf, masing-masing dengan 7 miliar parameter. Mixtral mengungguli varian parameter 70B dari Llama 2 pada sebagian besar tolok ukur dengan kecepatan inferensi 6 kali lebih cepat dan menyamai atau mengungguli GPT-3.5 dari OpenAI pada sebagian besar tolok ukur. Meta mengumumkan pelatihan model Llama 3, yang diharapkan mengikuti kerangka generasi sebelumnya.

Kemajuan dalam model yang lebih kecil memiliki tiga manfaat penting: branda didorong oleh kebutuhan karena meningkatnya biaya cloud computing dan ketersediaan perangkat keras. Perusahaan besar membawa kemampuan AI ke dalam rumah, menciptakan tekanan untuk peningkatan produksi GPU dan solusi perangkat keras yang lebih murah dan lebih mudah digunakan. Penyedia cloud saat ini menanggung sebagian besar beban komputasi, dan kekurangan perangkat keras akan meningkatkan biaya penyiapan server di tempat. Ini mungkin meningkatkan biaya cloud saat penyedia memperbarui dan mengoptimalkan infrastruktur untuk memenuhi permintaan AI generatif.

Perusahaan membutuhkan fleksibilitas dalam model dan lingkungan penerapan. CEO IBM Arvind Krishna menekankan pentingnya tidak membatasi lokasi penerapan, baik di cloud publik besar, di IBM, atau di infrastruktur branda sendiri. Tren menuju memaksimalkan kinerja model ringkas didukung oleh output terbaru komunitas sumber terbuka. Kemajuan utama didorong oleh model dasar baru dan teknik untuk melatih, menyetel, menyempurnakan, atau menyelaraskan model yang sudah dilatih sebelumnya. Teknik agnostik model yang patut dicatat pada tahun 2023 termasuk kemajuan paralel dalam model sumber terbuka di ruang parameter 3–70 miliar, yang berpotensi menggeser dinamika lanskap AI dengan memberdayakan pemain yang lebih kecil seperti startup.

Potensi dan Risiko AI Generatif

Pada tahun 2024, perusahaan dapat membedakan diri branda melalui pengembangan model khusus daripada mengandalkan layanan yang dikemas ulang dari “Big AI.” Dengan data dan kerangka pengembangan yang tepat, model dan alat AI sumber terbuka yang ada dapat disesuaikan dengan hampir semua skenario dunia nyata, dari dukungan pelanggan hingga manajemen rantai pasokan hingga analisis dokumen yang kompleks. Model sumber terbuka memungkinkan organisasi mengembangkan model AI khusus yang kuat—dilatih pada data kepemilikan branda dan disesuaikan untuk kebutuhan spesifik branda—dengan cepat, tanpa investasi infrastruktur yang mahal. Ini sangat relevan dalam domain seperti hukum, perawatan kesehatan, atau keuangan, di mana kosakata dan konsep khusus mungkin belum dipelajari oleh model dasar dalam pelatihan awal. Industri-industri ini dapat memperoleh manfaat dari model yang cukup kecil untuk dijalankan secara lokal pada perangkat keras yang sederhana, menjaga pelatihan AI, inferensi, dan generasi yang ditingkatkan pengambilan (RAG) tetap lokal untuk menghindari risiko data kepemilikan atau informasi pribadi yang sensitif digunakan oleh pihak ketiga. Menggunakan RAG untuk mengakses informasi yang relevan daripada menyimpan semua pengetahuan langsung dalam LLM itu sendiri membantu mengurangi ukuran model, meningkatkan kecepatan, dan mengurangi biaya.

Seiring tahun 2024 terus meratakan lapangan permainan model, keunggulan kompetitif akan semakin didorong oleh jalur data kepemilikan yang memungkinkan penyetelan terbaik di industri. Bisnis siap untuk memperluas kasus penggunaan agen virtual di luar chatbot customer experience yang sederhana. Seiring sistem AI mempercepat dan menggabungkan aliran dan format informasi baru, branda memperluas kemungkinan untuk komunikasi, mengikuti instruksi, dan otomatisasi tugas. AI multimodal secara signifikan meningkatkan peluang untuk interaksi mulus dengan agen virtual. Misalnya, pengguna dapat mengarahkan kamera ke lemari es yang terbuka dan meminta resep yang dapat dibuat dengan bahan yang tersedia. Be My Eyes, aplikasi seluler untuk individu tunanetra dan penglihatan rendah, sedang menguji coba alat AI yang membantu pengguna berinteraksi dengan lingkungan branda melalui AI multimodal.

Kemampuan multimodal yang ditingkatkan dan hambatan masuk yang lebih rendah juga membuka pintu baru untuk penyalahgunaan: deepfake, masalah privasi, perpetuasi bias, dan penghindaran perlindungan CAPTCHA mungkin menjadi lebih mudah bagi pelaku jahat. Pada Januari 2024, gelombang deepfake selebriti eksplisit melanda media sosial; penelitian dari Mei 2023 menunjukkan peningkatan dalam deepfake suara. Ambiguitas dalam lingkungan regulasi dapat memperlambat adopsi atau implementasi agresif dalam jangka pendek hingga menengah. Ada risiko inheren terhadap investasi besar dan tidak dapat diubah dalam teknologi yang muncul yang mungkin memerlukan penyesuaian signifikan atau menjadi ilegal setelah undang-undang baru atau perubahan angin politik.

Pada Desember 2023, Uni Eropa (UE) mencapai kesepakatan sementara tentang Undang-Undang Artificial Intelligence, melarang pengikisan gambar secara sembarangan untuk membuat basis data pengenalan wajah, sistem kategorisasi biometrik dengan potensi bias diskriminatif, sistem “penilaian sosial”, dan penggunaan AI untuk manipulasi sosial atau ekonomi. Ini juga berupaya mendefinisikan sistem AI “berisiko tinggi” yang akan tunduk pada pengawasan tambahan dan menetapkan persyaratan transparansi untuk sistem “AI tujuan umum (GPAI)”. Sementara beberapa pemain kunci, seperti Mistral, berada di UE, sebagian besar pengembangan AI terobosan terjadi di Amerika, di mana undang-undang substantif AI di sektor swasta akan membutuhkan tindakan dari Kongres, yang mungkin tidak mungkin terjadi di tahun pemilihan. Pada 30 Oktober, pemerintahan Biden mengeluarkan perintah eksekutif komprehensif yang merinci 150 persyaratan untuk penggunaan teknologi AI oleh lembaga federal; beberapa bulan sebelumnya, pemerintahan tersebut mengamankan komitmen sukarela dari pengembang AI terkemuka untuk mematuhi batasan tertentu untuk kepercayaan dan keamanan. Baik California maupun Colorado sedang mengejar undang-undang branda sendiri mengenai hak privasi data individu terkait AI. China telah bergerak lebih proaktif menuju pembatasan AI formal, melarang diskriminasi harga oleh algoritma rekomendasi di media sosial dan mewajibkan pelabelan yang jelas dari konten yang dihasilkan AI. Regulasi prospektif pada AI generatif berupaya mewajibkan data pelatihan yang digunakan untuk melatih LLM dan konten yang dihasilkan oleh model untuk “benar dan akurat,” menunjukkan langkah-langkah untuk menyensor output LLM.

Hasil dari gugatan profil tinggi yang diajukan oleh New York Times terhadap OpenAI dapat secara signifikan mempengaruhi jalur legislasi AI. Alat-alat adversarial, seperti Glaze dan Nightshade—keduanya dikembangkan di Universitas Chicago—telah muncul dalam apa yang mungkin menjadi perlombaan senjata antara pencipta dan pengembang model. Bagi bisnis, potensi eskalasi untuk konsekuensi hukum, regulasi, ekonomi, atau reputasi ini diperparah oleh seberapa populer dan dapat diaksesnya alat AI generatif. Organisasi harus tidak hanya memiliki kebijakan perusahaan yang hati-hati, koheren, dan jelas tentang AI generatif tetapi juga waspada terhadap AI bayangan: penggunaan AI “tidak resmi” di tempat kerja oleh karyawan. Juga disebut “IT bayangan” atau “BYOAI,” AI bayangan muncul ketika karyawan yang tidak sabar mencari solusi cepat (atau hanya ingin menjelajahi teknologi baru lebih cepat daripada kebijakan perusahaan yang hati-hati memungkinkan) mengimplementasikan AI generatif di tempat kerja tanpa melalui IT untuk persetujuan atau pengawasan. Banyak layanan yang berhadapan dengan konsumen, beberapa gratis, memungkinkan bahkan individu nonteknis untuk mengimprovisasi penggunaan alat AI generatif. Dalam satu studi dari Ernst & Young, 90% responden mengatakan branda menggunakan AI di tempat kerja. Semangat kewirausahaan itu bisa bagus, dalam ruang hampa—tetapi karyawan yang antusias mungkin kurang memiliki informasi atau perspektif yang relevan mengenai keamanan, privasi, atau kepatuhan. Ini dapat mengekspos bisnis pada risiko besar. Misalnya, seorang karyawan mungkin tanpa sadar memberi makan rahasia dagang ke model AI yang berhadapan dengan publik yang terus-menerus melatih input pengguna, atau menggunakan materi yang dilindungi hak cipta untuk melatih model kepemilikan untuk pembuatan konten dan mengekspos perusahaan branda pada tindakan hukum. Seperti banyak perkembangan yang sedang berlangsung, ini

Recommended Article