Microsoft baru-baru ini mengungkapkan bahwa para hacker dari berbagai negara kini mulai memanfaatkan teknologi kecerdasan buatan (AI) untuk melancarkan serangan siber yang semakin canggih. Dalam laporan berjudul Navigating Cyberthreats and Strengthening Defenses in the Era of AI, Microsoft menggambarkan bagaimana landscape ancaman siber telah menjadi lebih kompleks karena penjahat yang semakin terampil dan memiliki sumber daya yang lebih baik. Menurut laporan tersebut, para pelaku ancaman, bersama dengan pihak yang berusaha untuk melawan serangan tersebut, telah melirik ke arah AI, termasuk large language model (LLM), untuk meningkatkan efektivitas dan efisiensi serangan mereka serta memanfaatkan platform yang sesuai dengan tujuan mereka. "Meskipun motif dan kecanggihan pelaku ancaman berbeda-beda, mereka memiliki tugas yang sama saat melancarkan serangan," kata Microsoft dalam laporannya dikutip dari CNN Indonesia. "Tugas-tugas tersebut meliputi pengintaian, seperti meneliti industri, lokasi, dan hubungan calon korban; pengkodean, termasuk meningkatkan skrip perangkat lunak dan pengembangan malware; dan bantuan untuk mempelajari dan menggunakan bahasa manusia dan mesin," lanjut keterangan itu. Dalam menghadapi fenomena ini, Microsoft bersama OpenAI dan negara-negara lain telah mengidentifikasi berbagai ancaman intelijen dari negara-negara tertentu yang menggunakan teknologi AI dalam operasi mereka. Keterlibatan yang bersifat tentatif dengan Large Language Model (LLM) mencerminkan perluasan perangkat pengumpulan intelijen serta fase eksperimental dalam mengevaluasi kemampuan teknologi yang sedang berkembang. Microsoft, melalui laporannya, juga mengungkap modus penipuan yang menggunakan kecerdasan buatan (AI), di antaranya adalah sintesis suara. Teknologi saat ini mampu menggunakan sampel suara selama tiga detik untuk melatih model AI agar terdengar seperti individu tertentu. Bahkan, hal sekecil sapaan pesan suara dapat digunakan untuk menghasilkan sampel yang cukup memadai. Sebagian besar interaksi sosial dan transaksi bisnis kita saat ini bergantung pada pemeriksaan identitas, termasuk pengenalan suara, wajah, alamat email, atau gaya penulisan seseorang. Daftar kelompok hacker yang menggunakan AI Microsoft mengungkapkan beberapa modus dari kelompok hacker yang menggunakan AI dan bahayanya:
Penggunaan Large Language Model (LLM) oleh kelompok Emerald Sleet melibatkan penelitian yang mendalam terhadap lembaga think tank dan para pakar tentang Korea Utara, serta pembuatan konten yang kemungkinan besar akan digunakan dalam kampanye spear phishing. Selain itu, Emerald Sleet juga menggunakan LLM untuk memahami kerentanan yang diketahui secara publik, memecahkan masalah teknis, dan mendapatkan bantuan dalam mengoperasikan berbagai teknologi web.
Ini menandakan bahwa kelompok tersebut sedang dalam tahap awal pengumpulan informasi yang mungkin akan digunakan untuk kepentingan yang belum diketahui. Di sisi lain, kelompok lain yang didukung oleh China, yaitu Salmon Typhoon, telah menggunakan LLM sepanjang tahun 2023 untuk menilai efektivitasnya dalam mendapatkan informasi tentang topik-topik yang berpotensi sensitif, individu berprofil tinggi, geopolitik regional, pengaruh AS, dan urusan dalam negeri. Tindakan ini menyoroti tingkat keterlibatan dan upaya yang dilakukan oleh kelompok-kelompok terkait negara untuk mengumpulkan intelijen dan mempengaruhi situasi di tingkat global. Menangkal Ancaman Siber dengan Bantuan AI Bagaimana langkah-langkah untuk menangkal ancaman siber yang semakin canggih dengan bantuan AI? Microsoft mengklaim telah mendeteksi lebih dari 65 triliun sinyal keamanan siber per hari, dan menggunakan kecerdasan buatan untuk menganalisis informasi ini guna mengidentifikasi ancaman potensial. Mereka juga menggunakan kecerdasan sinyal untuk mendukung AI Generatif untuk perlindungan ancaman tingkat lanjut, keamanan data, dan keamanan identitas. "Kami juga menggunakan kecerdasan sinyal ini untuk mendukung AI Generatif untuk perlindungan ancaman tingkat lanjut, keamanan data, dan keamanan identitas guna membantu para pembela HAM menangkap apa yang terlewatkan oleh pihak lain," ungkap Microsoft. Beberapa metode yang digunakan oleh Microsoft untuk melindungi diri dan pelanggan mereka meliputi:
Microsoft menyadari bahwa titik-titik rawan terletak pada area-area seperti uji coba gratis atau harga promosi layanan atau produk. Dengan pemahaman ini, mereka fokus pada pengembangan model AI yang secara otomatis mendeteksi serangan, termasuk upaya manipulasi data dan identitas palsu yang dapat digunakan untuk menghindari sanksi atau mempertahankan pelanggaran kriminal. "Secara otomatis, kami membangun model AI untuk mendeteksi serangan-serangan ini untuk Microsoft dan pelanggan kami." "Kami mendeteksi siswa dan akun sekolah palsu, perusahaan atau organisasi palsu yang telah mengubah data perusahaan mereka atau menyembunyikan identitas asli mereka untuk menghindari sanksi, menghindari kontrol, atau menyembunyikan pelanggaran kriminal di masa lalu seperti hukuman korupsi, upaya pencurian, dan lainnya," jelas Microsoft. Selain itu, Microsoft menggunakan teknologi terkini seperti GitHub Copilot dan Microsoft Copilot for Security untuk mencegah insiden yang dapat berdampak pada operasi mereka. Dalam mengatasi ancaman melalui email, AI digunakan untuk meningkatkan kemampuan deteksi dengan memeriksa sinyal selain komposisi email, mengidentifikasi potensi ancaman yang dapat disamarkan dalam pesan yang tampaknya sah. Masa Depan Ancaman Siber Microsoft mengantisipasi bahwa AI akan terus berevolusi dalam taktik rekayasa sosial, menciptakan serangan yang lebih canggih termasuk deepfake dan kloning suara. Oleh karena itu, pencegahan menjadi kunci dalam memerangi semua ancaman siber, baik yang bersifat tradisional maupun yang menggunakan AI. Dengan demikian, upaya bersama antara lembaga keamanan, perusahaan, dan masyarakat umum dalam mengembangkan solusi yang inovatif dan responsif sangat penting dalam menghadapi ancaman siber yang semakin canggih ini.
Sumber :
https://www.cloudcomputing.id/berita/microsoft-ungkap-bahaya-ai |