Mengapa AI Penting?

Kecerdasan buatan memungkinkan program komputer untuk berpikir dan belajar seperti manusia. AI umumnya mengacu pada masalah atau tugas apa pun yang biasanya membutuhkan kecerdasan manusia untuk ditangani. 

Aplikasi AI menawarkan keuntungan besar, merevolusi banyak sektor profesional. Ini termasuk:

  • Pembelajaran berulang otomatis— AI biasanya menangani volume tinggi dari tugas yang sering dan berulang, bukan hanya mengotomatiskan tugas manual. Tugas terkomputerisasi ini dapat diandalkan dan dapat memproses data dalam jumlah besar tanpa kelelahan. Sebagian besar sistem AI membutuhkan manusia untuk menyiapkan dan mengelolanya.
  • Pembelajaran progresif —algoritma yang menggunakan data dan secara progresif dapat memprogram dirinya sendiri. Mereka dapat mengidentifikasi pola dan memperoleh keterampilan yang lebih akurat dari waktu ke waktu. Misalnya, algoritme dapat belajar bermain catur atau merekomendasikan produk yang sesuai kepada pelanggan online, beradaptasi dengan input baru. 
  • Analisis data berlapis— jaringan saraf memiliki beberapa lapisan tersembunyi untuk menganalisis data yang dalam, memungkinkan pembuatan alat seperti sistem deteksi penipuan berbasis AI. Ketersediaan big data dan daya komputasi yang lebih baik memungkinkan model deep learning untuk melatih secara langsung pada kumpulan data yang besar. ?
  • Pengambilan keputusan yang cepat —Teknologi berbasis AI dapat membuat keputusan dan melakukan tindakan lebih cepat daripada manusia. Manusia cenderung menganalisis banyak faktor emosional dan praktis saat membuat keputusan, sementara AI dengan cepat menganalisis data dengan cara terstruktur untuk memberikan hasil yang cepat.

Pembelajaran Mesin vs Pembelajaran Mendalam

Pembelajaran mesin adalah bagian dari kecerdasan buatan, dan pembelajaran mendalam adalah bagian dari pembelajaran mesin. Keduanya mungkin tampak serupa karena keduanya berfungsi untuk memfasilitasi pembelajaran buatan, namun ada perbedaan mencolok dalam jenis pembelajaran dan hasilnya.

Apa itu Pembelajaran Mesin?

Pembelajaran mesin melibatkan penggunaan teknik Bayesian untuk pengenalan dan pembelajaran pola. Ini terdiri dari algoritma yang menggunakan data untuk belajar dan membuat prediksi. Pembelajaran mesin memungkinkan mesin mengklasifikasikan data, mengekstrak pola dari data, dan mengoptimalkan fungsi utilitas tertentu. 

Kode perangkat lunak reguler menggunakan input yang diberikan untuk menghasilkan output khusus kode program. Algoritme pembelajaran mesin menggunakan data untuk menghasilkan kode statistik—model pembelajaran mesin. Model mengeluarkan hasil sesuai dengan pola yang terdeteksi dari masukan sebelumnya (pembelajaran tanpa pengawasan) atau keluaran (pembelajaran yang diawasi). Akurasi model bergantung pada kuantitas dan kualitas data historis. 

Apa itu Pembelajaran Mendalam?

Pembelajaran mendalam melibatkan algoritme pelapisan untuk memfasilitasi pemahaman data yang lebih baik. Subbidang pembelajaran mesin ini menggunakan lapisan algoritme nonlinier untuk membuat representasi terdistribusi yang berinteraksi menurut serangkaian faktor. Itu tidak dibatasi oleh regresi dasar yang harus menciptakan serangkaian hubungan yang dapat dijelaskan.  

Algoritme pembelajaran mendalam menggunakan kumpulan besar data pelatihan untuk mengidentifikasi hubungan antar elemen, seperti bentuk, kata, dan warna. Hubungan ini membantu algoritma deep learning untuk membuat prediksi. Algoritme pembelajaran mendalam dapat mengidentifikasi banyak hubungan, termasuk hubungan yang mungkin terlewatkan oleh manusia, dan membuat prediksi atau interpretasi data yang sangat kompleks.

Apa itu Visi Komputer?

Visi komputer memungkinkan komputer dan sistem untuk melihat dan memahami input yang diamati. Ini adalah subbidang AI yang berfokus untuk memungkinkan penglihatan buatan pada mesin. Ini melibatkan mesin pelatihan untuk mengenali dan mendapatkan makna dari input visual seperti gambar dan video digital. Berdasarkan informasi ini, mesin dapat mengambil tindakan dan membuat rekomendasi.

Visi komputer bekerja mirip dengan visi manusia. Alih-alih menggunakan retina, korteks visual, dan saraf optik, mesin menggunakan kamera, algoritme, dan data untuk menjalankan fungsi penglihatan. Misalnya, visi komputer memungkinkan mesin membedakan objek, menghitung jarak di antara objek, dan menentukan apakah objek bergerak.


Apa itu Pemrosesan Bahasa Alami (NLP)?

Pemrosesan bahasa alami (NLP) memungkinkan komputer dan sistem untuk memahami teks dan ucapan. Ini adalah subbidang AI yang melatih mesin untuk memproses bahasa manusia dalam berbagai bentuk, termasuk teks dan data suara, dan memperoleh makna, termasuk maksud dan sentimen, dari input ini. 

NLP melibatkan penggunaan komputasi linguistik (pemodelan bahasa manusia berbasis aturan) bersama pembelajaran mesin, pembelajaran mendalam, dan model statistik. Program komputer yang diberdayakan oleh NLP dapat menerjemahkan teks dari dan ke berbagai bahasa, meringkas big data dengan cepat secara real-time, dan merespons perintah lisan.

Model Penerapan AI

Ada beberapa cara umum untuk menerapkan algoritme AI - melalui platform berbasis cloud, di edge, dan melalui Internet of Things (IoT).

AI di Cloud

Kecerdasan buatan (AI) membantu mengotomatiskan tugas rutin dalam infrastruktur TI, meningkatkan produktivitas. Menggabungkan AI dengan komputasi awan menghasilkan jaringan fleksibel yang dapat menampung data ekstensif dan terus meningkat. Penyedia cloud terkemuka menawarkan alat AI untuk perusahaan. 

Manfaat AI di cloud meliputi:

  • Pengurangan biaya —komputasi awan meniadakan biaya pemeliharaan infrastruktur AI, memungkinkan bisnis mengakses alat AI berdasarkan pembayaran per penggunaan. 
  • Tugas otomatis —Layanan cloud berbasis AI dapat melakukan tugas berulang yang membutuhkan lebih banyak kecerdasan dan kompleksitas daripada tugas otomatis tradisional. Otomasi meningkatkan produktivitas sekaligus mengurangi beban tenaga kerja manusia.
  • Keamanan yang ditingkatkan —AI membantu mengamankan data dan aplikasi di cloud, menyediakan alat canggih untuk melacak, menganalisis, dan mengatasi masalah keamanan. Misalnya, analitik perilaku dapat mengidentifikasi perilaku anomali dan mengingatkan tim keamanan.
  • Wawasan berbasis data —AI mendeteksi pola dalam volume data yang besar untuk memberi personel TI wawasan yang lebih dalam tentang tren terkini dan historis. Wawasan yang cepat dan akurat memungkinkan tim untuk mengatasi masalah dengan cepat.
  • Kemampuan manajemen yang ditingkatkan— AI dapat memproses, menyusun, dan mengelola data untuk merampingkan manajemen rantai pasokan, pemasaran, dan data bisnis lainnya.

AI tepi

Edge AI adalah paradigma untuk membuat alur kerja AI yang menjangkau pusat data terpusat dan perangkat yang digunakan di dekat orang dan benda fisik (di edge). Ini berbeda dengan pendekatan umum untuk mengembangkan dan menjalankan aplikasi AI sepenuhnya di cloud. Ini juga berbeda dari pengembangan AI tradisional, di mana organisasi membuat algoritme AI dan menerapkannya di server terpusat—di AI edge, algoritme diterapkan langsung di perangkat edge.

Dalam model penerapan Edge AI, setiap perangkat edge memiliki fungsionalitas AI lokalnya sendiri, dan biasanya menyimpan bagian yang relevan dari kumpulan data. Perangkat edge masih dapat mengakses layanan cloud untuk fungsi tertentu, tetapi mampu menjalankan sebagian besar fungsi secara mandiri, dengan latensi yang sangat rendah.

Edge AI memiliki potensi luar biasa untuk meningkatkan fungsionalitas perangkat seperti ponsel, kendaraan otonom, dan robot. Dengan mendorong AI ke perangkat edge ini, inovasi AI dapat digunakan secara lebih efisien, dengan latensi lebih rendah, pengurangan biaya penyimpanan, dan peningkatan keamanan. 

AI untuk Internet of Things (IoT)

Kecerdasan Buatan untuk IoT (AIoT) menggabungkan teknologi kecerdasan buatan (AI) dengan infrastruktur Internet of Things (IoT) untuk memungkinkan operasi IoT yang lebih efisien, meningkatkan interaksi manusia-mesin, dan meningkatkan pengelolaan data. AI dapat digunakan untuk mengubah data IoT menjadi informasi yang dapat ditindaklanjuti, meningkatkan proses pengambilan keputusan, dan meletakkan dasar untuk teknologi baru seperti data IoT sebagai layanan (IDaaS).

AIoT memungkinkan AI menambahkan nilai ke IoT, melalui kemampuan pembelajaran mesin, sementara IoT menambah nilai ke AI melalui konektivitas, sinyal, dan pertukaran data waktu nyata. Saat jaringan IoT berkembang biak di industri besar, semakin banyak data tidak terstruktur yang dihasilkan mesin dan berpusat pada manusia akan muncul. AIoT dapat mendukung solusi analitik data yang memperoleh nilai dari data yang dihasilkan IoT.

Dengan AIoT, kecerdasan buatan disematkan dalam komponen infrastruktur yang diterapkan pada perangkat IoT, yang terhubung ke jaringan IoT. Kemudian menggunakan API untuk memperluas interoperabilitas antar komponen di tingkat perangkat, perangkat lunak, dan platform.

Infrastruktur AI

Ekosistem yang kaya telah berkembang yang memungkinkan organisasi untuk mengembangkan dan merilis solusi AI. Ekosistem ini mencakup kerangka kerja pengembangan yang memudahkan pembuatan dan pelatihan model AI kompleks, perangkat keras khusus yang dapat mempercepat komputasi AI, dan sistem komputasi kinerja tinggi (HPC) yang dapat digunakan untuk menjalankan komputasi skala besar secara paralel.

Kerangka Pembelajaran Mesin

Pembelajaran mesin melibatkan penggunaan algoritme yang kompleks. Kerangka pembelajaran mesin menawarkan antarmuka, alat, dan perpustakaan yang menyederhanakan proses pembelajaran mesin.

TensorFlow

TensorFlow adalah platform pembelajaran mesin sumber terbuka yang populer. Pada tahun 2007, tim Google Brain meluncurkan perpustakaan TensorFlow. Sejak itu telah matang menjadi platform end-to-end yang mendukung pelatihan, persiapan data, penyajian model, dan rekayasa fitur.

TensorFlow mendukung yang berikut ini:

  • Anda dapat menjalankan TensorFlow pada CPU standar, serta pada akselerator AI khusus seperti GPU dan TPU. 
  • TensorFlow tersedia di macOS, Linux 64-bit, dan Windows.
  • TensorFlow mendukung berbagai platform komputasi seluler, termasuk iOS dan Android. 

Anda dapat menerapkan model yang dilatih di TensorFlow di desktop, perangkat edge computing, mikrokontroler, dan browser. 

PyTorch

PyTorch adalah kerangka kerja pembelajaran mesin sumber terbuka berdasarkan Torch, kerangka kerja untuk menjalankan komputasi cepat yang aslinya ditulis dalam bahasa C. Kerangka kerja ini dikembangkan di AI Facebook dan lab Riset (FAIR) untuk memberikan fleksibilitas, stabilitas, dan modularitas untuk penerapan produksi.

PyTorch menawarkan antarmuka Python serta antarmuka C++. Antarmuka Python umumnya dianggap lebih mudah diakses dan ramah pengguna untuk pengembang Python. Pada tahun 2018, Facebook menggabungkan PyTorch dengan kerangka kerja Convolutional Architecture for Fast Feature Embedding (Caffe2).

Eclipse Deeplearning

Deeplearning4j menawarkan seperangkat alat yang dirancang untuk menjalankan pembelajaran mendalam secara native di Java Virtual Machine (JVM). Ini didukung secara komersial oleh Skymind dan dikembangkan oleh pengembang pembelajaran mesin yang berbasis di San Francisco. Pada 2017, itu disumbangkan ke Eclipse Foundation. 

Berikut adalah fitur utama:

  • Pustaka Deeplearning4j kompatibel dengan Scala dan Clojure. Ini termasuk kelas array n-dimensi dengan ND4J yang memungkinkan komputasi ilmiah di Java dan Scala. 
  • Deeplearning4j terintegrasi dengan Apache Hadoop dan Apache Spark untuk mendukung pengelompokan dan pelatihan terdistribusi.
  • Deeplearning4j terintegrasi dengan runtime NVIDIA CUDA untuk memungkinkan pelatihan terdistribusi dan operasi GPU di beberapa GPU.

Anda dapat menggunakan Deeplearning4j untuk melakukan aljabar linier serta manipulasi matriks untuk pelatihan dan inferensi.

Scikit-belajar

Scikit-learn adalah kerangka pembelajaran mesin sumber terbuka yang tersedia sebagai pustaka Python, dikembangkan pada tahun 2007 sebagai proyek Google Summer of Code oleh David Cournapeau. Ini mendukung algoritme pembelajaran yang diawasi dan tidak diawasi, termasuk pembelajaran manifold, model campuran Gaussian, pengelompokan, analisis komponen utama (PCA), deteksi outlier, dan bikluster.

Perpustakaan dibangun di atas perangkat ilmiah open source yang disebut SciPy. Toolkit ini menggunakan Matplotlib untuk visualisasi, NumPy untuk kalkulasi matematis, SymPy untuk kemampuan aljabar, dan Panda untuk manipulasi data. Scikit-learn memperluas kemampuan SciPy melalui kemampuan pemodelan dan pembelajaran.

GPU untuk Deep Learning

Model pembelajaran mendalam membutuhkan pelatihan jaringan saraf untuk melakukan tugas-tugas kognitif. Pelatihan jaringan saraf biasanya melibatkan kumpulan data besar yang berisi ribuan input, dengan jutaan parameter jaringan belajar dari data tersebut. Unit pemrosesan grafis (GPU) dapat membantu menangani proses intensif komputasi ini. 

GPU adalah mikroprosesor khusus yang melakukan beberapa kalkulasi simultan, mempercepat proses pelatihan DL. Sebuah GPU berisi ratusan atau bahkan ribuan inti, yang dapat membagi kalkulasi menjadi utas yang berbeda. GPU memiliki bandwidth memori yang jauh lebih tinggi daripada CPU.

Opsi untuk memasukkan GPU ke dalam implementasi pembelajaran mendalam meliputi: 

  • GPU konsumen —cocok untuk proyek skala kecil, menawarkan cara yang terjangkau untuk melengkapi sistem DL yang ada untuk membuat atau menguji model pada level rendah. Contohnya termasuk NVIDIA Titan V (memori 12-32GB, performa 110-125 teraflops), NVIDIA Titan RTX (memori 24GB, performa 130 teraflops), dan NVIDIA GeForce RTX 2080 Ti (memori 11GB, performa 120 teraflops).
  • GPU pusat data —cocok untuk penerapan DL standar dalam produksi, termasuk proyek skala besar dengan kinerja lebih tinggi seperti analitik data dan HPC. Contohnya termasuk NVIDIA A100 (memori 40GB, performa 624 teraflops), NVIDIA v100 (memori 32GB, performa 149 teraflops), NVIDIA Tesla P100 (memori 16GB, performa 21 teraflops), NVIDIA Tesla K80 (memori 24GB, performa 8,73 teraflops).

Paralelisasi Multi-GPU

Proyek pembelajaran mendalam sering kali menggunakan banyak GPU untuk melatih model. Kalkulasi pembelajaran mendalam mudah diparalelkan, secara signifikan mengurangi waktu pelatihan. Banyak, jika tidak sebagian besar, proyek DL hanya dapat dilakukan dengan banyak GPU, karena akan memakan waktu terlalu lama untuk berlatih sebaliknya.

Penyebaran multi-GPU menjalankan eksperimen pembelajaran mendalam pada sekelompok GPU, memberikan keuntungan paralelisme. Beberapa GPU dapat diakses sebagai kumpulan sumber daya tunggal, mendukung eksperimen yang lebih cepat dan lebih besar daripada penerapan berbasis GPU tunggal. 

Workstation Pembelajaran Mendalam

Stasiun kerja DL adalah komputer atau server khusus yang mendukung beban kerja pembelajaran mendalam yang intensif secara komputasi. Mereka memberikan kinerja yang lebih tinggi daripada workstation tradisional, didukung oleh banyak GPU.

Dalam beberapa tahun terakhir, permintaan untuk AI dan ilmu data telah menggelembung, dengan pasar yang meluas ke produk-produk untuk menangani kumpulan data yang masif dan alur kerja DL yang kompleks. Proyek ilmu data sering melibatkan masalah keamanan, seperti menjaga privasi data, sehingga tidak memungkinkan untuk menjalankan proyek semacam itu di cloud. 

Kebutuhan akan AI yang aman dan terspesialisasi telah menciptakan semakin banyak pilihan workstation AI yang berjalan di tempat. Mesin khusus ini dapat menangani beban kerja AI yang berat dengan komputasi sambil memanfaatkan keamanan pusat data lokal.

HPC untuk AI

Sistem komputasi kinerja tinggi (HPC) menyediakan kekuatan pemrosesan yang ekstensif dan melakukan komputasi kompleks dalam jumlah besar. Sistem HPC biasanya terdiri dari beberapa mesin, yang disebut node, dalam sebuah cluster. Kluster HPC menggunakan pemrosesan paralel untuk memproses beban kerja terdistribusi. Sistem HPC biasanya berisi 16-64 node dengan setidaknya CPU untuk setiap node. 

HPC menawarkan peningkatan penyimpanan dan memori selain pemrosesan yang lebih tinggi dan lebih cepat. Perangkat HPC sering menggunakan GPU dan FPGA untuk mencapai daya pemrosesan yang lebih tinggi. HPC berguna untuk AI dan pembelajaran mendalam dalam beberapa cara:

  • Prosesor khusus —GPU dapat memproses algoritme AI dengan lebih baik daripada CPU.
  • Kecepatan pemrosesan — pemrosesan paralel mempercepat komputasi untuk mengurangi waktu pelatihan dan eksperimen.
  • Volume data —penyimpanan yang luas dan sumber daya memori mendukung pemrosesan volume data yang besar, meningkatkan akurasi model AI.
  • Distribusi beban kerja —mendistribusikan beban kerja ke seluruh sumber daya komputasi memungkinkan penggunaan sumber daya yang lebih efisien. 
  • Efektivitas biaya —sistem HPC berbasis cloud dapat menjadi cara yang lebih hemat biaya untuk memanfaatkan HPC untuk AI, dengan harga bayar per penggunaan. ?

Tren Mengemudi Masa Depan Pengembangan AI

MLOps

Operasi pembelajaran mesin (MLOps) adalah metodologi yang merampingkan seluruh siklus pembelajaran mesin. Ini bertujuan untuk memfasilitasi pengembangan dan penerapan pembelajaran mesin berkualitas tinggi dan solusi AI yang lebih cepat.

MLOps mempromosikan kolaborasi antara insinyur pembelajaran mesin, ilmuwan data, dan pakar TI. Ini melibatkan penerapan praktik continuous integration and deployment (CI/CD) bersamaan dengan pemantauan, tata kelola, dan validasi model ML. 

AIOps

AIOps adalah singkatan dari kecerdasan buatan untuk operasi TI. Ini melibatkan penggunaan pembelajaran mesin dan AI untuk mengotomatisasi, memusatkan, dan merampingkan operasi TI. AIOps biasanya disampaikan melalui platform yang menggunakan analitik, data besar, dan kemampuan pembelajaran mesin. 

Platform AIOps menyediakan lokasi terpusat untuk semua kebutuhan operasi TI Anda. Ini memfasilitasi operasi TI yang lebih efisien dengan menghilangkan penggunaan alat yang berbeda. Dengan menggunakan teknologi AIOps, tim TI dapat dengan cepat dan proaktif merespons peristiwa seperti pemadaman dan pelambatan.

Berikut adalah kemampuan inti dari AIOps:

  • Pengumpulan dan agregasi data —Teknologi AIOps mengumpulkan dan menggabungkan volume besar data operasi yang dihasilkan di seluruh komponen infrastruktur TI, alat pemantauan kinerja, dan aplikasi.
  • Kecerdasan dan wawasan —Platform AIOps menganalisis data yang dikumpulkan dan membedakan antara positif palsu dengan peristiwa dan pola nyata yang terkait dengan kinerja sistem dan masalah ketersediaan. ?
  • Diagnosis dan pelaporan penyebab utama — setelah platform AIOps menentukan penyebab utama suatu masalah, platform tersebut memberikan informasi kepada TI untuk tanggapan cepat. Beberapa platform dapat secara otomatis menyelesaikan masalah tertentu tanpa campur tangan manusia.

Data Sintetis

Data sintetis dihasilkan secara artifisial oleh algoritma pembelajaran mesin. Itu meniru properti statistik dari data dunia nyata tanpa menggunakan properti pengidentifikasi seperti nama dan detail pribadi. 

Data sintetis adalah sumber data alternatif yang memastikan data sensitif dan pribadi tetap terlindungi sambil memastikan AI dan pembelajaran mesin memiliki cukup data untuk menghasilkan hasil yang dapat digunakan.

AI yang bisa dijelaskan

Kecerdasan buatan yang dapat dijelaskan adalah proses dan teknologi yang memungkinkan manusia untuk memahami mengapa algoritme AI sampai pada keputusan atau keluaran tertentu. Tujuannya adalah untuk meningkatkan kepercayaan pada sistem AI dan membuatnya lebih transparan bagi operator manusia dan penggunanya.

AI yang dapat dijelaskan dapat memberikan informasi seperti deskripsi fungsi model AI, kemungkinan bias, akurasi, dan keadilan. Ini menjadi elemen penting yang diperlukan untuk menerapkan model ke produksi, untuk membangun kepercayaan dengan pelanggan dan pengguna akhir. AI yang dapat dijelaskan juga penting untuk memastikan organisasi mempraktikkan AI secara bertanggung jawab, dan menjadi persyaratan dari beberapa standar kepatuhan dan peraturan perlindungan data.

Di luar kepentingannya bagi pengguna algoritme AI, AI yang dapat dijelaskan juga dapat membantu ilmuwan data dan insinyur pembelajaran mesin mengidentifikasi apakah sistem AI berfungsi dengan baik, mendapatkan lebih banyak visibilitas atas operasi hariannya, dan memecahkan masalah saat terjadi.

Siapa yang Membangun Teknologi AI? Peran Organisasi AI

Insinyur Pembelajaran Mesin

Seorang insinyur pembelajaran mesin (insinyur ML) membangun dan merancang sistem AI untuk mengotomatiskan model prediktif. Ini melibatkan perancangan dan pembuatan algoritme AI dengan kemampuan untuk mempelajari dan membuat prediksi. Insinyur pembelajaran mesin perlu menilai, menganalisis, dan mengatur volume data yang sangat besar sambil menjalankan pengujian dan mengoptimalkan model dan algoritme pembelajaran mesin.

Insinyur ML sering bekerja sama sebagai tim ilmu data yang berkolaborasi dengan pakar lain seperti ilmuwan data, analis data, arsitek data, insinyur data, dan administrator. Tim ini juga dapat berkomunikasi dengan personel lain, seperti pengembangan perangkat lunak, penjualan atau pengembangan web, dan TI.

Ilmuwan Data

Ilmuwan data bekerja dengan data besar, mengumpulkan dan menganalisis kumpulan data tidak terstruktur dan terstruktur dari berbagai sumber, seperti umpan media sosial, email, dan perangkat pintar. Ilmuwan data menggunakan ilmu komputer, matematika, dan statistik untuk memproses, menganalisis, dan memodelkan data. Selanjutnya, mereka menginterpretasikan hasilnya untuk membuat rencana yang dapat ditindaklanjuti untuk organisasi.

Ilmuwan data menggunakan keterampilan teknologi dan ilmu sosial untuk menemukan tren dan mengelola data. Mereka mengungkap solusi untuk tantangan bisnis dengan menggunakan pengetahuan industri, skeptisisme terhadap asumsi yang ada, dan pemahaman kontekstual.

Insinyur Data

Insinyur data merancang dan membangun sistem untuk pengumpulan, penyimpanan, dan analisis data. Mereka bekerja dalam berbagai pengaturan untuk membangun sistem yang mengumpulkan, mengelola, dan mengubah data mentah menjadi informasi yang berarti. Ilmuwan data dan analis bisnis menginterpretasikan data ini.

Insinyur data bertujuan untuk membuat data dapat diakses, membantu organisasi menggunakan data untuk menilai dan mengoptimalkan kinerja. Rekayasa data adalah bidang yang luas dengan aplikasi di berbagai industri.

Bagaimana Teknologi AI Digunakan? Contoh Aplikasi

Kendaraan Otonom

Mobil self-driving dan kendaraan otonom lainnya ditenagai oleh kerangka kerja kendaraan berbasis AI. Teknologi tersebut menerapkan jaringan saraf pada data besar dari sistem pengenalan gambar untuk merakit kerangka kendaraan yang dapat melaju secara otonom. Data itu biasanya mencakup gambar dari kamera, dan jaringan saraf berupaya mengenali dan membedakan antara sinyal lalu lintas, pemeriksaan, pohon, pejalan kaki, rambu jalan, dan objek lain dalam lingkungan mengemudi yang acak.

Klasifikasi tahapan pengembangan hingga kendaraan self-driving berasal dari The Society of Automotive Engineers (SAE) yang mengklasifikasikan enam tahapan pengembangan hingga kendaraan self-driving sepenuhnya. Setiap tahap menjelaskan tingkat otomatisasi dan tugas pengemudi yang ditangani oleh kendaraan.

Berikut tahapan pengembangannya:

  • Tahap 1: Tanpa otomatisasi - tahap pengembangan paling dasar tidak memiliki otomatisasi. Misalnya, mobil biasa yang pengemudinya mengendalikan segalanya.
  • Tahap 2: Bantuan pengemudi - otomasi menyediakan kontrol longitudinal atau latitudinal tetapi tidak keduanya. Contohnya adalah cruise control adaptif, yang secara otomatis mengontrol kecepatan berkendara tetapi mengharuskan pengemudi untuk mengarahkan kendaraan.
  • Tahap 3: Otomatisasi penggerak sebagian - kendaraan dapat secara bersamaan mengotomatiskan tugas longitudinal dan latitudinal tetapi hanya dalam konteks terbatas, yang memerlukan pengawasan pengemudi. Contohnya termasuk General Motors Super Cruise dan Nissan Pro Pilot Assist.
  • Tahap 4: Otomatisasi mengemudi bersyarat - tingkat otomatisasi membutuhkan kemajuan teknologi yang signifikan, termasuk domain desain operasional terbatas (ODD) dan kemampuan deteksi dan respons objek dan peristiwa (OEDR). ODD mengacu pada kondisi pengoperasian yang dapat didukung oleh sistem (yaitu, pencahayaan atau karakteristik lingkungan), sedangkan OEDR mendeteksi dan merespons objek dan kejadian yang langsung berdampak pada tugas mengemudi. Pada tahap ini, kendaraan dapat melakukan tugas dalam kondisi tertentu tanpa pengawasan pengemudi, meskipun pengemudi tetap bertanggung jawab atas skenario darurat. 
  • Tahap 5: Otomatisasi berkendara tinggi - sistem memiliki mekanisme mundur untuk menangani keadaan darurat tanpa pengawasan manusia. Pengemudi menjadi seperti penumpang dan tidak harus berkonsentrasi pada tugas mengemudi. Namun, kemampuan ODD tetap terbatas pada kondisi lingkungan dan cuaca tertentu, sedangkan pengemudi dapat mengendalikan kendaraan selama keadaan darurat.
  • Tahap 6: Otomatisasi berkendara penuh - sistem sepenuhnya otonom dengan ODD tak terbatas. Kendaraan dapat beroperasi secara mandiri terlepas dari kondisi cuaca dan lingkungan, tanpa memerlukan pengemudi. Tidak ada contoh dunia nyata dari kendaraan yang sepenuhnya otomatis, tetapi kemungkinan besar akan segera muncul. 

Analisis Perilaku Pengguna dan Entitas (UEBA)

Teknologi UEBA menggunakan pembelajaran mesin untuk menganalisis sejumlah besar data dan menentukan pola perilaku normal manusia dan mesin. Ini membantu membuat garis dasar perilaku normal dalam lingkungan atau jaringan digital tertentu dan kemudian mendeteksi anomali. Setelah teknologi menetapkan model perilaku tipikal dan atipikal, pembelajaran mesin selanjutnya dapat mendukung hal-hal berikut:

  • Deteksi ancaman —UEBA menggunakan pembelajaran mesin untuk menentukan apakah perilaku atipikal menunjukkan ancaman nyata. Itu dapat mengidentifikasi potensi ancaman dan serangan yang sering terlewatkan oleh antivirus tradisional yang dirancang untuk mendeteksi ancaman yang diketahui. UEBA menganalisis berbagai pola perilaku, dan mendeteksi ancaman seperti gerakan lateral dan ancaman orang dalam.
  • Prioritas ancaman —setelah ancaman teridentifikasi, pembelajaran mesin membantu solusi UEBA menentukan tingkat ancaman dari ancaman tertentu dan menerapkan skor risiko. Informasi ini dapat membantu memastikan respons dimulai dengan cepat selama insiden berisiko tinggi.

Pengujian Keamanan Otomatis

Pembelajaran mesin mendukung proses pengujian keamanan otomatis yang mengidentifikasi potensi kelemahan dan kelemahan selama pengembangan perangkat lunak. Proses ini berjalan di seluruh siklus pengembangan untuk memastikan produktivitas dan efisiensi. Ini membantu menangkap kesalahan dan kekurangan pada fase awal dan mencegahnya berdampak negatif pada jadwal rilis.

Misalnya, pengujian fuzz (fuzzing) dapat secara otomatis mengidentifikasi kesalahan pengkodean dan celah keamanan. Teknik pengujian perangkat lunak otomatis ini secara acak memasukkan input dan data yang tidak terduga dan tidak valid ke dalam program. 

Fuzzing melibatkan pengumpanan data acak dalam jumlah besar, yang disebut fuzz, ke dalam program yang diuji sampai dilanggar atau macet. Prosesnya juga menggunakan alat yang disebut fuzzer untuk mengidentifikasi penyebab potensial dari kerentanan yang terdeteksi.

Pengeditan Gambar dan Video Otomatis

Dengan proliferasi media yang kaya di situs web dan jejaring sosial, pengeditan gambar dan video menjadi operasi yang semakin umum dilakukan oleh organisasi dan individu di mana saja. Secara tradisional, ini adalah operasi manual yang memakan waktu, tetapi banyak tugas pengeditan gambar dan video dapat dilakukan oleh algoritme AI dengan kinerja yang lebih baik daripada manusia.

Algoritme AI dapat menganalisis foto dan membuat prediksi cerdas tentang cara mengedit, menyesuaikan, atau menyempurnakannya. Ini dapat menghilangkan tugas manual dan menghemat waktu dan biaya bagi produsen konten. Untuk organisasi media besar, ini dapat menghasilkan penghematan biaya yang besar dan memungkinkan proses produksi konten yang lebih gesit.

Dengan bantuan AI, organisasi dapat membuat lebih banyak video yang dipersonalisasi untuk meningkatkan interaksi. Aplikasi video berbasis AI memberi pengguna akhir fungsionalitas yang kuat seperti kemampuan untuk menelusuri video untuk momen-momen penting, dan secara otomatis menghasilkan rekaman video profesional hanya dengan beberapa klik.

Pelajari lebih lanjut di panduan mendetail untuk pengeditan gambar otomatis

AI percakapan

Teknologi AI percakapan memungkinkan mesin meniru interaksi manusia dengan memahami input pengguna dan menghasilkan respons seperti manusia. Teknologi ini memperkuat teknologi seperti agen virtual dan chatbot yang dapat diajak bicara oleh pengguna. 

Ini melibatkan penggunaan data besar, pembelajaran mesin, dan pemrosesan bahasa alami (NLP) untuk meniru interaksi manusia, mengenali input teks dan ucapan, menerjemahkan makna input ke berbagai bahasa, dan menghasilkan respons seperti manusia.

Robot Kolaborasi

Robot kolaboratif (cobot) melakukan tindakan bekerja sama dengan pekerja manusia. Teknologi AI mengotomatiskan fungsi cobot, dan teknologi visi mesin memungkinkan mereka melihat lingkungan. 

Cobot memiliki mekanisme keamanan seperti sambungan berlapis dan pembatas gaya. Selain itu, cobot menggunakan penutup pengaman untuk melakukan jaminan kualitas, perawatan mesin, dan pengemasan. Ini memastikan cobot tidak membutuhkan banyak ruang untuk bekerja atau membahayakan orang.

Virtualisasi Infrastruktur AI dengan Run:ai

Run:ai mengotomatiskan manajemen sumber daya dan orkestrasi untuk infrastruktur AI. Dengan Run:ai, Anda dapat secara otomatis menjalankan eksperimen intensif komputasi sebanyak yang diperlukan. 

Berikut adalah beberapa kemampuan yang Anda dapatkan saat menggunakan Run:ai: 

  • Visibilitas tingkat lanjut —membuat pipeline berbagi sumber daya yang efisien dengan menggabungkan sumber daya komputasi GPU.
  • Tidak ada lagi kemacetan —Anda dapat menyiapkan kuota jaminan sumber daya GPU, untuk menghindari kemacetan dan mengoptimalkan penagihan.
  • Tingkat kontrol yang lebih tinggi —Run:ai memungkinkan Anda mengubah alokasi sumber daya secara dinamis, memastikan setiap pekerjaan mendapatkan sumber daya yang diperlukan pada waktu tertentu.

sumber: https://hbr.org/2018/01/artificial-intelligence-for-the-real-world

 Copyright stekom.ac.id 2018 All Right Reserved