Microsoft baru-baru ini mengungkapkan bahwa para
hacker dari berbagai negara kini mulai memanfaatkan teknologi kecerdasan buatan
(AI) untuk melancarkan serangan siber yang semakin canggih. Dalam laporan
berjudul Navigating Cyberthreats and Strengthening Defenses in the Era
of AI, Microsoft menggambarkan bagaimana landscape ancaman siber telah
menjadi lebih kompleks karena penjahat yang semakin terampil dan memiliki
sumber daya yang lebih baik. Menurut laporan tersebut, para pelaku ancaman,
bersama dengan pihak yang berusaha untuk melawan serangan tersebut, telah
melirik ke arah AI, termasuk large language model (LLM), untuk
meningkatkan efektivitas dan efisiensi serangan mereka serta memanfaatkan
platform yang sesuai dengan tujuan mereka. "Meskipun motif dan kecanggihan pelaku ancaman
berbeda-beda, mereka memiliki tugas yang sama saat melancarkan serangan,"
kata Microsoft dalam laporannya dikutip dari CNN Indonesia. "Tugas-tugas tersebut meliputi pengintaian,
seperti meneliti industri, lokasi, dan hubungan calon korban; pengkodean,
termasuk meningkatkan skrip perangkat lunak dan pengembangan malware;
dan bantuan untuk mempelajari dan menggunakan bahasa manusia dan mesin,"
lanjut keterangan itu. Dalam menghadapi fenomena ini, Microsoft bersama
OpenAI dan negara-negara lain telah mengidentifikasi berbagai ancaman intelijen
dari negara-negara tertentu yang menggunakan teknologi AI dalam operasi mereka. Keterlibatan yang bersifat tentatif dengan Large
Language Model (LLM) mencerminkan perluasan perangkat pengumpulan
intelijen serta fase eksperimental dalam mengevaluasi kemampuan teknologi yang
sedang berkembang. Microsoft, melalui laporannya, juga mengungkap
modus penipuan yang menggunakan kecerdasan buatan (AI), di antaranya adalah
sintesis suara. Teknologi saat ini mampu menggunakan sampel suara selama tiga
detik untuk melatih model AI agar terdengar seperti individu tertentu. Bahkan,
hal sekecil sapaan pesan suara dapat digunakan untuk menghasilkan sampel yang
cukup memadai. Sebagian besar interaksi sosial dan transaksi bisnis kita saat
ini bergantung pada pemeriksaan identitas, termasuk pengenalan suara, wajah,
alamat email, atau gaya penulisan seseorang. Daftar kelompok hacker yang menggunakan AI Microsoft mengungkapkan beberapa modus dari kelompok
hacker yang menggunakan AI dan bahayanya:
Penggunaan Large Language Model (LLM)
oleh kelompok Emerald Sleet melibatkan penelitian yang mendalam terhadap lembaga
think tank dan para pakar tentang Korea Utara, serta pembuatan konten yang
kemungkinan besar akan digunakan dalam kampanye spear phishing.
Selain itu, Emerald Sleet juga menggunakan LLM untuk memahami kerentanan yang
diketahui secara publik, memecahkan masalah teknis, dan mendapatkan bantuan
dalam mengoperasikan berbagai teknologi web.
Ini menandakan bahwa kelompok tersebut sedang dalam
tahap awal pengumpulan informasi yang mungkin akan digunakan untuk kepentingan
yang belum diketahui. Di sisi lain, kelompok lain yang didukung oleh China,
yaitu Salmon Typhoon, telah menggunakan LLM sepanjang tahun 2023 untuk menilai
efektivitasnya dalam mendapatkan informasi tentang topik-topik yang berpotensi
sensitif, individu berprofil tinggi, geopolitik regional, pengaruh AS, dan
urusan dalam negeri. Tindakan ini menyoroti tingkat keterlibatan dan upaya yang
dilakukan oleh kelompok-kelompok terkait negara untuk mengumpulkan intelijen
dan mempengaruhi situasi di tingkat global. Menangkal Ancaman Siber dengan Bantuan AI Bagaimana langkah-langkah untuk menangkal ancaman
siber yang semakin canggih dengan bantuan AI? Microsoft mengklaim telah mendeteksi lebih dari 65
triliun sinyal keamanan siber per hari, dan menggunakan kecerdasan buatan untuk
menganalisis informasi ini guna mengidentifikasi ancaman potensial. Mereka juga
menggunakan kecerdasan sinyal untuk mendukung AI Generatif untuk perlindungan
ancaman tingkat lanjut, keamanan data, dan keamanan identitas. "Kami juga menggunakan kecerdasan sinyal ini
untuk mendukung AI Generatif untuk perlindungan ancaman tingkat lanjut,
keamanan data, dan keamanan identitas guna membantu para pembela HAM menangkap
apa yang terlewatkan oleh pihak lain," ungkap Microsoft. Beberapa metode yang digunakan oleh Microsoft untuk
melindungi diri dan pelanggan mereka meliputi:
Microsoft menyadari bahwa titik-titik rawan
terletak pada area-area seperti uji coba gratis atau harga promosi layanan atau
produk. Dengan pemahaman ini, mereka fokus pada pengembangan model AI yang
secara otomatis mendeteksi serangan, termasuk upaya manipulasi data dan
identitas palsu yang dapat digunakan untuk menghindari sanksi atau
mempertahankan pelanggaran kriminal. "Secara otomatis, kami membangun model AI
untuk mendeteksi serangan-serangan ini untuk Microsoft dan pelanggan
kami." "Kami mendeteksi siswa dan akun sekolah palsu,
perusahaan atau organisasi palsu yang telah mengubah data perusahaan mereka
atau menyembunyikan identitas asli mereka untuk menghindari sanksi, menghindari
kontrol, atau menyembunyikan pelanggaran kriminal di masa lalu seperti hukuman
korupsi, upaya pencurian, dan lainnya," jelas Microsoft. Selain itu, Microsoft menggunakan teknologi terkini
seperti GitHub Copilot dan Microsoft Copilot for Security untuk mencegah
insiden yang dapat berdampak pada operasi mereka. Dalam mengatasi ancaman
melalui email, AI digunakan untuk meningkatkan kemampuan deteksi dengan
memeriksa sinyal selain komposisi email, mengidentifikasi potensi ancaman yang
dapat disamarkan dalam pesan yang tampaknya sah. Masa Depan Ancaman Siber Microsoft mengantisipasi bahwa AI akan terus
berevolusi dalam taktik rekayasa sosial, menciptakan serangan yang lebih
canggih termasuk deepfake dan kloning suara. Oleh karena itu, pencegahan
menjadi kunci dalam memerangi semua ancaman siber, baik yang bersifat
tradisional maupun yang menggunakan AI. Dengan demikian, upaya bersama antara lembaga keamanan,
perusahaan, dan masyarakat umum dalam mengembangkan solusi yang inovatif dan
responsif sangat penting dalam menghadapi ancaman siber yang semakin canggih
ini.
Sumber
:
https://www.cloudcomputing.id/berita/microsoft-ungkap-bahaya-ai |