Mengapa AI Penting?Kecerdasan buatan memungkinkan program komputer untuk berpikir dan belajar seperti manusia. AI umumnya mengacu pada masalah atau tugas apa pun yang biasanya membutuhkan kecerdasan manusia untuk ditangani. Aplikasi AI menawarkan keuntungan besar, merevolusi banyak sektor profesional. Ini termasuk: Pembelajaran Mesin vs Pembelajaran MendalamPembelajaran mesin adalah bagian dari kecerdasan buatan, dan pembelajaran mendalam adalah bagian dari pembelajaran mesin. Keduanya mungkin tampak serupa karena keduanya berfungsi untuk memfasilitasi pembelajaran buatan, namun ada perbedaan mencolok dalam jenis pembelajaran dan hasilnya. Apa itu Pembelajaran Mesin?Pembelajaran mesin melibatkan penggunaan teknik Bayesian untuk pengenalan dan pembelajaran pola. Ini terdiri dari algoritma yang menggunakan data untuk belajar dan membuat prediksi. Pembelajaran mesin memungkinkan mesin mengklasifikasikan data, mengekstrak pola dari data, dan mengoptimalkan fungsi utilitas tertentu. Kode perangkat lunak reguler menggunakan input yang diberikan untuk menghasilkan output khusus kode program. Algoritme pembelajaran mesin menggunakan data untuk menghasilkan kode statistik—model pembelajaran mesin. Model mengeluarkan hasil sesuai dengan pola yang terdeteksi dari masukan sebelumnya (pembelajaran tanpa pengawasan) atau keluaran (pembelajaran yang diawasi). Akurasi model bergantung pada kuantitas dan kualitas data historis. Apa itu Pembelajaran Mendalam?Pembelajaran mendalam melibatkan algoritme pelapisan untuk memfasilitasi pemahaman data yang lebih baik. Subbidang pembelajaran mesin ini menggunakan lapisan algoritme nonlinier untuk membuat representasi terdistribusi yang berinteraksi menurut serangkaian faktor. Itu tidak dibatasi oleh regresi dasar yang harus menciptakan serangkaian hubungan yang dapat dijelaskan. Algoritme pembelajaran mendalam menggunakan kumpulan besar data pelatihan untuk mengidentifikasi hubungan antar elemen, seperti bentuk, kata, dan warna. Hubungan ini membantu algoritma deep learning untuk membuat prediksi. Algoritme pembelajaran mendalam dapat mengidentifikasi banyak hubungan, termasuk hubungan yang mungkin terlewatkan oleh manusia, dan membuat prediksi atau interpretasi data yang sangat kompleks. Apa itu Visi Komputer?Visi komputer memungkinkan komputer dan sistem untuk melihat dan memahami input yang diamati. Ini adalah subbidang AI yang berfokus untuk memungkinkan penglihatan buatan pada mesin. Ini melibatkan mesin pelatihan untuk mengenali dan mendapatkan makna dari input visual seperti gambar dan video digital. Berdasarkan informasi ini, mesin dapat mengambil tindakan dan membuat rekomendasi. Visi komputer bekerja mirip dengan visi manusia. Alih-alih menggunakan retina, korteks visual, dan saraf optik, mesin menggunakan kamera, algoritme, dan data untuk menjalankan fungsi penglihatan. Misalnya, visi komputer memungkinkan mesin membedakan objek, menghitung jarak di antara objek, dan menentukan apakah objek bergerak. Apa itu Pemrosesan Bahasa Alami (NLP)?Pemrosesan bahasa alami (NLP) memungkinkan komputer dan sistem untuk memahami teks dan ucapan. Ini adalah subbidang AI yang melatih mesin untuk memproses bahasa manusia dalam berbagai bentuk, termasuk teks dan data suara, dan memperoleh makna, termasuk maksud dan sentimen, dari input ini. NLP melibatkan penggunaan komputasi linguistik (pemodelan bahasa manusia berbasis aturan) bersama pembelajaran mesin, pembelajaran mendalam, dan model statistik. Program komputer yang diberdayakan oleh NLP dapat menerjemahkan teks dari dan ke berbagai bahasa, meringkas big data dengan cepat secara real-time, dan merespons perintah lisan. Model Penerapan AIAda beberapa cara umum untuk menerapkan algoritme AI - melalui platform berbasis cloud, di edge, dan melalui Internet of Things (IoT). AI di CloudKecerdasan buatan (AI) membantu mengotomatiskan tugas rutin dalam infrastruktur TI, meningkatkan produktivitas. Menggabungkan AI dengan komputasi awan menghasilkan jaringan fleksibel yang dapat menampung data ekstensif dan terus meningkat. Penyedia cloud terkemuka menawarkan alat AI untuk perusahaan. Manfaat AI di cloud meliputi: AI tepiEdge AI adalah paradigma untuk membuat alur kerja AI yang menjangkau pusat data terpusat dan perangkat yang digunakan di dekat orang dan benda fisik (di edge). Ini berbeda dengan pendekatan umum untuk mengembangkan dan menjalankan aplikasi AI sepenuhnya di cloud. Ini juga berbeda dari pengembangan AI tradisional, di mana organisasi membuat algoritme AI dan menerapkannya di server terpusat—di AI edge, algoritme diterapkan langsung di perangkat edge. Dalam model penerapan Edge AI, setiap perangkat edge memiliki fungsionalitas AI lokalnya sendiri, dan biasanya menyimpan bagian yang relevan dari kumpulan data. Perangkat edge masih dapat mengakses layanan cloud untuk fungsi tertentu, tetapi mampu menjalankan sebagian besar fungsi secara mandiri, dengan latensi yang sangat rendah. Edge AI memiliki potensi luar biasa untuk meningkatkan fungsionalitas perangkat seperti ponsel, kendaraan otonom, dan robot. Dengan mendorong AI ke perangkat edge ini, inovasi AI dapat digunakan secara lebih efisien, dengan latensi lebih rendah, pengurangan biaya penyimpanan, dan peningkatan keamanan. AI untuk Internet of Things (IoT) Kecerdasan Buatan untuk IoT (AIoT) menggabungkan teknologi kecerdasan buatan (AI) dengan infrastruktur Internet of Things (IoT) untuk memungkinkan operasi IoT yang lebih efisien, meningkatkan interaksi manusia-mesin, dan meningkatkan pengelolaan data. AI dapat digunakan untuk mengubah data IoT menjadi informasi yang dapat ditindaklanjuti, meningkatkan proses pengambilan keputusan, dan meletakkan dasar untuk teknologi baru seperti data IoT sebagai layanan (IDaaS). AIoT memungkinkan AI menambahkan nilai ke IoT, melalui kemampuan pembelajaran mesin, sementara IoT menambah nilai ke AI melalui konektivitas, sinyal, dan pertukaran data waktu nyata. Saat jaringan IoT berkembang biak di industri besar, semakin banyak data tidak terstruktur yang dihasilkan mesin dan berpusat pada manusia akan muncul. AIoT dapat mendukung solusi analitik data yang memperoleh nilai dari data yang dihasilkan IoT. Dengan AIoT, kecerdasan buatan disematkan dalam komponen infrastruktur yang diterapkan pada perangkat IoT, yang terhubung ke jaringan IoT. Kemudian menggunakan API untuk memperluas interoperabilitas antar komponen di tingkat perangkat, perangkat lunak, dan platform. Infrastruktur AIEkosistem yang kaya telah berkembang yang memungkinkan organisasi untuk mengembangkan dan merilis solusi AI. Ekosistem ini mencakup kerangka kerja pengembangan yang memudahkan pembuatan dan pelatihan model AI kompleks, perangkat keras khusus yang dapat mempercepat komputasi AI, dan sistem komputasi kinerja tinggi (HPC) yang dapat digunakan untuk menjalankan komputasi skala besar secara paralel. Kerangka Pembelajaran MesinPembelajaran mesin melibatkan penggunaan algoritme yang kompleks. Kerangka pembelajaran mesin menawarkan antarmuka, alat, dan perpustakaan yang menyederhanakan proses pembelajaran mesin. TensorFlowTensorFlow adalah platform pembelajaran mesin sumber terbuka yang populer. Pada tahun 2007, tim Google Brain meluncurkan perpustakaan TensorFlow. Sejak itu telah matang menjadi platform end-to-end yang mendukung pelatihan, persiapan data, penyajian model, dan rekayasa fitur. TensorFlow mendukung yang berikut ini: Anda dapat menerapkan model yang dilatih di TensorFlow di desktop, perangkat edge computing, mikrokontroler, dan browser. PyTorchPyTorch adalah kerangka kerja pembelajaran mesin sumber terbuka berdasarkan Torch, kerangka kerja untuk menjalankan komputasi cepat yang aslinya ditulis dalam bahasa C. Kerangka kerja ini dikembangkan di AI Facebook dan lab Riset (FAIR) untuk memberikan fleksibilitas, stabilitas, dan modularitas untuk penerapan produksi. PyTorch menawarkan antarmuka Python serta antarmuka C++. Antarmuka Python umumnya dianggap lebih mudah diakses dan ramah pengguna untuk pengembang Python. Pada tahun 2018, Facebook menggabungkan PyTorch dengan kerangka kerja Convolutional Architecture for Fast Feature Embedding (Caffe2). Eclipse DeeplearningDeeplearning4j menawarkan seperangkat alat yang dirancang untuk menjalankan pembelajaran mendalam secara native di Java Virtual Machine (JVM). Ini didukung secara komersial oleh Skymind dan dikembangkan oleh pengembang pembelajaran mesin yang berbasis di San Francisco. Pada 2017, itu disumbangkan ke Eclipse Foundation. Berikut adalah fitur utama: Anda dapat menggunakan Deeplearning4j untuk melakukan aljabar linier serta manipulasi matriks untuk pelatihan dan inferensi. Scikit-belajarScikit-learn adalah kerangka pembelajaran mesin sumber terbuka yang tersedia sebagai pustaka Python, dikembangkan pada tahun 2007 sebagai proyek Google Summer of Code oleh David Cournapeau. Ini mendukung algoritme pembelajaran yang diawasi dan tidak diawasi, termasuk pembelajaran manifold, model campuran Gaussian, pengelompokan, analisis komponen utama (PCA), deteksi outlier, dan bikluster. Perpustakaan dibangun di atas perangkat ilmiah open source yang disebut SciPy. Toolkit ini menggunakan Matplotlib untuk visualisasi, NumPy untuk kalkulasi matematis, SymPy untuk kemampuan aljabar, dan Panda untuk manipulasi data. Scikit-learn memperluas kemampuan SciPy melalui kemampuan pemodelan dan pembelajaran. GPU untuk Deep LearningModel pembelajaran mendalam membutuhkan pelatihan jaringan saraf untuk melakukan tugas-tugas kognitif. Pelatihan jaringan saraf biasanya melibatkan kumpulan data besar yang berisi ribuan input, dengan jutaan parameter jaringan belajar dari data tersebut. Unit pemrosesan grafis (GPU) dapat membantu menangani proses intensif komputasi ini. GPU adalah mikroprosesor khusus yang melakukan beberapa kalkulasi simultan, mempercepat proses pelatihan DL. Sebuah GPU berisi ratusan atau bahkan ribuan inti, yang dapat membagi kalkulasi menjadi utas yang berbeda. GPU memiliki bandwidth memori yang jauh lebih tinggi daripada CPU. Opsi untuk memasukkan GPU ke dalam implementasi pembelajaran mendalam meliputi: Paralelisasi Multi-GPU Proyek pembelajaran mendalam sering kali menggunakan banyak GPU untuk melatih model. Kalkulasi pembelajaran mendalam mudah diparalelkan, secara signifikan mengurangi waktu pelatihan. Banyak, jika tidak sebagian besar, proyek DL hanya dapat dilakukan dengan banyak GPU, karena akan memakan waktu terlalu lama untuk berlatih sebaliknya. Penyebaran multi-GPU menjalankan eksperimen pembelajaran mendalam pada sekelompok GPU, memberikan keuntungan paralelisme. Beberapa GPU dapat diakses sebagai kumpulan sumber daya tunggal, mendukung eksperimen yang lebih cepat dan lebih besar daripada penerapan berbasis GPU tunggal. Workstation Pembelajaran Mendalam Stasiun kerja DL adalah komputer atau server khusus yang mendukung beban kerja pembelajaran mendalam yang intensif secara komputasi. Mereka memberikan kinerja yang lebih tinggi daripada workstation tradisional, didukung oleh banyak GPU. Dalam beberapa tahun terakhir, permintaan untuk AI dan ilmu data telah menggelembung, dengan pasar yang meluas ke produk-produk untuk menangani kumpulan data yang masif dan alur kerja DL yang kompleks. Proyek ilmu data sering melibatkan masalah keamanan, seperti menjaga privasi data, sehingga tidak memungkinkan untuk menjalankan proyek semacam itu di cloud. Kebutuhan akan AI yang aman dan terspesialisasi telah menciptakan semakin banyak pilihan workstation AI yang berjalan di tempat. Mesin khusus ini dapat menangani beban kerja AI yang berat dengan komputasi sambil memanfaatkan keamanan pusat data lokal. HPC untuk AISistem komputasi kinerja tinggi (HPC) menyediakan kekuatan pemrosesan yang ekstensif dan melakukan komputasi kompleks dalam jumlah besar. Sistem HPC biasanya terdiri dari beberapa mesin, yang disebut node, dalam sebuah cluster. Kluster HPC menggunakan pemrosesan paralel untuk memproses beban kerja terdistribusi. Sistem HPC biasanya berisi 16-64 node dengan setidaknya CPU untuk setiap node. HPC menawarkan peningkatan penyimpanan dan memori selain pemrosesan yang lebih tinggi dan lebih cepat. Perangkat HPC sering menggunakan GPU dan FPGA untuk mencapai daya pemrosesan yang lebih tinggi. HPC berguna untuk AI dan pembelajaran mendalam dalam beberapa cara: Tren Mengemudi Masa Depan Pengembangan AI MLOpsOperasi pembelajaran mesin (MLOps) adalah metodologi yang merampingkan seluruh siklus pembelajaran mesin. Ini bertujuan untuk memfasilitasi pengembangan dan penerapan pembelajaran mesin berkualitas tinggi dan solusi AI yang lebih cepat. MLOps mempromosikan kolaborasi antara insinyur pembelajaran mesin, ilmuwan data, dan pakar TI. Ini melibatkan penerapan praktik continuous integration and deployment (CI/CD) bersamaan dengan pemantauan, tata kelola, dan validasi model ML. AIOps AIOps adalah singkatan dari kecerdasan buatan untuk operasi TI. Ini melibatkan penggunaan pembelajaran mesin dan AI untuk mengotomatisasi, memusatkan, dan merampingkan operasi TI. AIOps biasanya disampaikan melalui platform yang menggunakan analitik, data besar, dan kemampuan pembelajaran mesin. Platform AIOps menyediakan lokasi terpusat untuk semua kebutuhan operasi TI Anda. Ini memfasilitasi operasi TI yang lebih efisien dengan menghilangkan penggunaan alat yang berbeda. Dengan menggunakan teknologi AIOps, tim TI dapat dengan cepat dan proaktif merespons peristiwa seperti pemadaman dan pelambatan. Berikut adalah kemampuan inti dari AIOps: Data SintetisData sintetis dihasilkan secara artifisial oleh algoritma pembelajaran mesin. Itu meniru properti statistik dari data dunia nyata tanpa menggunakan properti pengidentifikasi seperti nama dan detail pribadi. Data sintetis adalah sumber data alternatif yang memastikan data sensitif dan pribadi tetap terlindungi sambil memastikan AI dan pembelajaran mesin memiliki cukup data untuk menghasilkan hasil yang dapat digunakan. AI yang bisa dijelaskanKecerdasan buatan yang dapat dijelaskan adalah proses dan teknologi yang memungkinkan manusia untuk memahami mengapa algoritme AI sampai pada keputusan atau keluaran tertentu. Tujuannya adalah untuk meningkatkan kepercayaan pada sistem AI dan membuatnya lebih transparan bagi operator manusia dan penggunanya. AI yang dapat dijelaskan dapat memberikan informasi seperti deskripsi fungsi model AI, kemungkinan bias, akurasi, dan keadilan. Ini menjadi elemen penting yang diperlukan untuk menerapkan model ke produksi, untuk membangun kepercayaan dengan pelanggan dan pengguna akhir. AI yang dapat dijelaskan juga penting untuk memastikan organisasi mempraktikkan AI secara bertanggung jawab, dan menjadi persyaratan dari beberapa standar kepatuhan dan peraturan perlindungan data. Di luar kepentingannya bagi pengguna algoritme AI, AI yang dapat dijelaskan juga dapat membantu ilmuwan data dan insinyur pembelajaran mesin mengidentifikasi apakah sistem AI berfungsi dengan baik, mendapatkan lebih banyak visibilitas atas operasi hariannya, dan memecahkan masalah saat terjadi. Siapa yang Membangun Teknologi AI? Peran Organisasi AI Insinyur Pembelajaran MesinSeorang insinyur pembelajaran mesin (insinyur ML) membangun dan merancang sistem AI untuk mengotomatiskan model prediktif. Ini melibatkan perancangan dan pembuatan algoritme AI dengan kemampuan untuk mempelajari dan membuat prediksi. Insinyur pembelajaran mesin perlu menilai, menganalisis, dan mengatur volume data yang sangat besar sambil menjalankan pengujian dan mengoptimalkan model dan algoritme pembelajaran mesin. Insinyur ML sering bekerja sama sebagai tim ilmu data yang berkolaborasi dengan pakar lain seperti ilmuwan data, analis data, arsitek data, insinyur data, dan administrator. Tim ini juga dapat berkomunikasi dengan personel lain, seperti pengembangan perangkat lunak, penjualan atau pengembangan web, dan TI. Ilmuwan Data Ilmuwan data bekerja dengan data besar, mengumpulkan dan menganalisis kumpulan data tidak terstruktur dan terstruktur dari berbagai sumber, seperti umpan media sosial, email, dan perangkat pintar. Ilmuwan data menggunakan ilmu komputer, matematika, dan statistik untuk memproses, menganalisis, dan memodelkan data. Selanjutnya, mereka menginterpretasikan hasilnya untuk membuat rencana yang dapat ditindaklanjuti untuk organisasi. Ilmuwan data menggunakan keterampilan teknologi dan ilmu sosial untuk menemukan tren dan mengelola data. Mereka mengungkap solusi untuk tantangan bisnis dengan menggunakan pengetahuan industri, skeptisisme terhadap asumsi yang ada, dan pemahaman kontekstual. Insinyur DataInsinyur data merancang dan membangun sistem untuk pengumpulan, penyimpanan, dan analisis data. Mereka bekerja dalam berbagai pengaturan untuk membangun sistem yang mengumpulkan, mengelola, dan mengubah data mentah menjadi informasi yang berarti. Ilmuwan data dan analis bisnis menginterpretasikan data ini. Insinyur data bertujuan untuk membuat data dapat diakses, membantu organisasi menggunakan data untuk menilai dan mengoptimalkan kinerja. Rekayasa data adalah bidang yang luas dengan aplikasi di berbagai industri. Bagaimana Teknologi AI Digunakan? Contoh AplikasiKendaraan OtonomMobil self-driving dan kendaraan otonom lainnya ditenagai oleh kerangka kerja kendaraan berbasis AI. Teknologi tersebut menerapkan jaringan saraf pada data besar dari sistem pengenalan gambar untuk merakit kerangka kendaraan yang dapat melaju secara otonom. Data itu biasanya mencakup gambar dari kamera, dan jaringan saraf berupaya mengenali dan membedakan antara sinyal lalu lintas, pemeriksaan, pohon, pejalan kaki, rambu jalan, dan objek lain dalam lingkungan mengemudi yang acak. Klasifikasi tahapan pengembangan hingga kendaraan self-driving berasal dari The Society of Automotive Engineers (SAE) yang mengklasifikasikan enam tahapan pengembangan hingga kendaraan self-driving sepenuhnya. Setiap tahap menjelaskan tingkat otomatisasi dan tugas pengemudi yang ditangani oleh kendaraan. Berikut tahapan pengembangannya: Analisis Perilaku Pengguna dan Entitas (UEBA)Teknologi UEBA menggunakan pembelajaran mesin untuk menganalisis sejumlah besar data dan menentukan pola perilaku normal manusia dan mesin. Ini membantu membuat garis dasar perilaku normal dalam lingkungan atau jaringan digital tertentu dan kemudian mendeteksi anomali. Setelah teknologi menetapkan model perilaku tipikal dan atipikal, pembelajaran mesin selanjutnya dapat mendukung hal-hal berikut: Pengujian Keamanan Otomatis Pembelajaran mesin mendukung proses pengujian keamanan otomatis yang mengidentifikasi potensi kelemahan dan kelemahan selama pengembangan perangkat lunak. Proses ini berjalan di seluruh siklus pengembangan untuk memastikan produktivitas dan efisiensi. Ini membantu menangkap kesalahan dan kekurangan pada fase awal dan mencegahnya berdampak negatif pada jadwal rilis. Misalnya, pengujian fuzz (fuzzing) dapat secara otomatis mengidentifikasi kesalahan pengkodean dan celah keamanan. Teknik pengujian perangkat lunak otomatis ini secara acak memasukkan input dan data yang tidak terduga dan tidak valid ke dalam program. Fuzzing melibatkan pengumpanan data acak dalam jumlah besar, yang disebut fuzz, ke dalam program yang diuji sampai dilanggar atau macet. Prosesnya juga menggunakan alat yang disebut fuzzer untuk mengidentifikasi penyebab potensial dari kerentanan yang terdeteksi. Pengeditan Gambar dan Video Otomatis Dengan proliferasi media yang kaya di situs web dan jejaring sosial, pengeditan gambar dan video menjadi operasi yang semakin umum dilakukan oleh organisasi dan individu di mana saja. Secara tradisional, ini adalah operasi manual yang memakan waktu, tetapi banyak tugas pengeditan gambar dan video dapat dilakukan oleh algoritme AI dengan kinerja yang lebih baik daripada manusia. Algoritme AI dapat menganalisis foto dan membuat prediksi cerdas tentang cara mengedit, menyesuaikan, atau menyempurnakannya. Ini dapat menghilangkan tugas manual dan menghemat waktu dan biaya bagi produsen konten. Untuk organisasi media besar, ini dapat menghasilkan penghematan biaya yang besar dan memungkinkan proses produksi konten yang lebih gesit. Dengan bantuan AI, organisasi dapat membuat lebih banyak video yang dipersonalisasi untuk meningkatkan interaksi. Aplikasi video berbasis AI memberi pengguna akhir fungsionalitas yang kuat seperti kemampuan untuk menelusuri video untuk momen-momen penting, dan secara otomatis menghasilkan rekaman video profesional hanya dengan beberapa klik. Pelajari lebih lanjut di panduan mendetail untuk pengeditan gambar otomatis AI percakapanTeknologi AI percakapan memungkinkan mesin meniru interaksi manusia dengan memahami input pengguna dan menghasilkan respons seperti manusia. Teknologi ini memperkuat teknologi seperti agen virtual dan chatbot yang dapat diajak bicara oleh pengguna. Ini melibatkan penggunaan data besar, pembelajaran mesin, dan pemrosesan bahasa alami (NLP) untuk meniru interaksi manusia, mengenali input teks dan ucapan, menerjemahkan makna input ke berbagai bahasa, dan menghasilkan respons seperti manusia. Robot KolaborasiRobot kolaboratif (cobot) melakukan tindakan bekerja sama dengan pekerja manusia. Teknologi AI mengotomatiskan fungsi cobot, dan teknologi visi mesin memungkinkan mereka melihat lingkungan. Cobot memiliki mekanisme keamanan seperti sambungan berlapis dan pembatas gaya. Selain itu, cobot menggunakan penutup pengaman untuk melakukan jaminan kualitas, perawatan mesin, dan pengemasan. Ini memastikan cobot tidak membutuhkan banyak ruang untuk bekerja atau membahayakan orang. Virtualisasi Infrastruktur AI dengan Run:aiRun:ai mengotomatiskan manajemen sumber daya dan orkestrasi untuk infrastruktur AI. Dengan Run:ai, Anda dapat secara otomatis menjalankan eksperimen intensif komputasi sebanyak yang diperlukan. Berikut adalah beberapa kemampuan yang Anda dapatkan saat menggunakan Run:ai: sumber: https://hbr.org/2018/01/artificial-intelligence-for-the-real-world |