Kecerdasan buatan (AI) mendorong semakin banyak keputusan yang memengaruhi setiap aspek kehidupan kita, mulai dari tempat berlibur hingga rekomendasi perawatan kesehatan yang dapat memengaruhi harapan hidup kita. Seiring pertumbuhan pengaruh AI, firma riset pasar IDC mengharapkan pengeluaran untuk itu mencapai $98 miliar pada tahun 2023, naik dari $38 miliar pada tahun 2019. Namun di sebagian besar aplikasi, AI melakukan keajaibannya dengan sangat sedikit penjelasan tentang bagaimana AI mencapai rekomendasinya. Ini seperti seorang siswa yang menampilkan jawaban untuk soal matematika sekolah, tetapi ketika diminta untuk menunjukkan pekerjaannya, hanya mengangkat bahu.

Pendekatan "kotak hitam" ini adalah satu hal pada pekerjaan rumah matematika kelas lima tetapi hal lain lagi ketika menyangkut dunia klaim asuransi komersial yang berdampak tinggi , di mana para penilai sering membuat keputusan berat yang memengaruhi jutaan dolar dalam klaim setiap tahun. Taruhan yang terlibat membuatnya penting bagi adjuster dan operator tempat mereka bekerja untuk melihat alasan AI baik sebelum keputusan besar dibuat maupun sesudahnya sehingga mereka dapat mengaudit kinerja mereka secara efektif dan mengoptimalkan operasi bisnis.

Kekhawatiran atas model AI yang semakin kompleks telah memicu minat pada " AI yang dapat dijelaskan " (kadang-kadang disebut sebagai XAI), bidang AI yang sedang berkembang yang meminta AI untuk menunjukkan pekerjaannya. Ada banyak definisi AI yang dapat dijelaskan, dan ini adalah ceruk yang berkembang pesat — dan sering menjadi topik pembicaraan dengan klien kami. 

Pada tingkat dasar, AI yang dapat dijelaskan menjelaskan bagaimana algoritme sampai pada rekomendasi, seringkali dalam bentuk daftar faktor yang dipertimbangkan dan persentase yang menjelaskan tingkat kontribusi setiap faktor terhadap keputusan. Pengguna kemudian dapat mengevaluasi input yang mendorong output dan memutuskan sejauh mana ia mempercayai output.

Transparansi dan Akuntabilitas

Pendekatan "tunjukkan pekerjaan Anda" ini memiliki tiga manfaat dasar. Sebagai permulaan, ini menciptakan akuntabilitas bagi mereka yang mengelola model. Transparansi mendorong pembuat model untuk mempertimbangkan bagaimana pengguna akan bereaksi terhadap rekomendasinya, memikirkannya lebih dalam, dan bersiap untuk umpan balik pada akhirnya. Hasilnya seringkali merupakan model yang lebih baik.

Tindak Lanjut yang Lebih Besar

Manfaat kedua adalah rekomendasi AI lebih sering ditindaklanjuti. Hasil yang dijelaskan cenderung memberikan kepercayaan pengguna untuk menindaklanjuti rekomendasi model. Tindak lanjut yang lebih besar mendorong dampak yang lebih tinggi, yang dapat mengarah pada peningkatan investasi pada model-model baru.

Mendorong Masukan Manusia

Hasil positif ketiga adalah bahwa AI yang dapat dijelaskan menyambut keterlibatan manusia. Operator yang memahami faktor-faktor yang mengarah pada rekomendasi dapat menyumbangkan keahlian mereka sendiri untuk keputusan akhir — misalnya, meningkatkan faktor yang menurut pengalaman mereka sangat penting dalam kasus tertentu.

Bagaimana AI yang Dapat Dijelaskan Bekerja di Klaim Comp Pekerja

Sekarang mari kita lihat bagaimana AI yang dapat dijelaskan dapat secara dramatis mengubah permainan di bidang klaim kompensasi pekerja.

Pekerja menanggung cedera dan biaya medis, hukum, dan administrasi yang diakibatkannya membebani perusahaan asuransi lebih dari $70 miliar setiap tahun dan pemberi kerja lebih dari $100 miliar — dan memengaruhi kehidupan jutaan pekerja yang mengajukan klaim. Namun kru yang berdedikasi kurang dari 40.000 adjuster di seluruh industri menangani lebih dari 3 juta klaim kompensasi pekerja di AS, seringkali dipersenjatai dengan perangkat lunak alur kerja yang sangat mendasar.

Masukkan AI, yang dapat mengambil lautan data yang berkembang dalam klaim pekerja dan menghasilkan prediksi yang semakin akurat tentang hal-hal seperti kemungkinan biaya klaim, keefektifan penyedia yang menangani cedera, dan kemungkinan litigasi. Penting untuk penerapan AI pada klaim apa pun adalah bahwa penilai yang mengelola klaim melihatnya, mempercayainya, dan menindaklanjutinya — dan melakukannya cukup awal dalam klaim untuk berdampak pada lintasannya.

Adjuster sekarang dapat memantau dasbor klaim yang menunjukkan biaya yang diproyeksikan dan keparahan medis dari suatu klaim, dan faktor tertimbang yang mendorong prediksi tersebut, berdasarkan pada:

  • atribut penggugat,
  • cedera, dan
  • jalur klaim serupa di masa lalu

Adjuster juga dapat melihat kemungkinan apakah penggugat akan melibatkan pengacara — peristiwa yang dapat meningkatkan biaya klaim hingga 4x atau lebih dalam klaim katastropik.

Mari kita lihat bagaimana ini mendorong keputusan yang lebih baik dengan sebuah contoh. Katakanlah penggugat cedera lututnya tetapi juga menderita rheumatoid arthritis, yang memerlukan rejimen pengobatan dan terapi fisik tertentu.

Jika adjuster melihat estimasi biaya keseluruhan yang mempertimbangkan hal ini tetapi tidak menyebutkannya secara khusus, mereka mungkin menganggap skornya terlalu tinggi dan hanya mendiskonnya atau menghabiskan waktu untuk membuat estimasi mereka sendiri.

Tetapi dengan melihat komponen skor, mereka sekarang dapat melihat faktor rumit ini dengan jelas, mengetahui untuk lebih memfokuskan waktu pada kasus ini, dan berpotensi melibatkan perawat terlatih untuk menasihati mereka. Mereka juga dapat menggunakan AI untuk membantu menemukan penyedia layanan kesehatan tertentu dengan keahlian dalam artritis reumatoid, di mana penggugat dapat memperoleh perawatan yang lebih bertarget untuk kondisi mereka.

Hasilnya mungkin:

  • perawatan yang lebih efektif,
  • waktu pemulihan yang lebih cepat,
  • penghematan biaya bagi perusahaan asuransi, penggugat, dan pemberi kerja

AI yang dapat dijelaskan juga dapat menunjukkan apa yang mungkin hilang dari prediksi. Satu skor mungkin menunjukkan bahwa risiko keterlibatan pengacara rendah. Berdasarkan faktor-faktor yang terdaftar, termasuk lokasi, usia, dan jenis cedera, ini bisa menjadi kesimpulan yang masuk akal.

Tapi adjuster mungkin melihat sesuatu yang hilang. Mereka mungkin mendapat perhatian dari penggugat bahwa mereka mungkin akan diberhentikan di tempat kerja. Mengetahui ketakutan akan penghentian dapat menyebabkan keterlibatan pengacara, penaksir dapat mengetahui untuk menginvestasikan lebih banyak waktu dengan penggugat khusus ini, menghilangkan sebagian dari kekhawatiran mereka, dan dengan demikian menurunkan risiko mereka akan melibatkan seorang pengacara.

Mendorong Hasil di Seluruh Perusahaan

Selain meningkatkan hasil pada kasus tertentu, contoh ini menunjukkan bagaimana AI yang dapat dijelaskan dapat membantu organisasi mengoptimalkan hasil di semua klaim. Manajer risiko, misalnya, dapat mengevaluasi bagaimana tim secara umum menindaklanjuti kasus-kasus di mana risiko keterlibatan pengacara tinggi dan menerapkan praktik dan pelatihan baru untuk lebih mengatasi risiko tersebut efektif di masa mendatang. Manajer jaringan perawatan dapat memastikan mereka membawa penyedia baru yang membantu mengatasi tren yang muncul dalam perawatan.

Dengan memantau tindakan tindak lanjut dan memungkinkan penyesuai untuk memberikan umpan balik pada skor dan rekomendasi tertentu, siklus peningkatan dipercepat yang menghasilkan model yang lebih baik, lebih banyak umpan balik, dan lebih banyak penyesuaian — menciptakan percakapan berkelanjutan antara AI dan penyesuai yang pada akhirnya mengubah kompensasi pekerja.

Kompensasi pekerja, bagaimanapun, hanyalah satu area yang siap untuk mendapat manfaat dari AI yang dapat dijelaskan. Model yang menunjukkan pekerjaan mereka diadopsi di seluruh sektor keuangan, kesehatan, teknologi, dan lainnya.

AI yang dapat dijelaskan dapat menjadi langkah selanjutnya yang meningkatkan kepercayaan pengguna, mempercepat adopsi, dan membantu mengubah visi AI menjadi terobosan nyata bagi bisnis, konsumen, dan masyarakat.


sumber: https://www.techopedia.com/how-explainable-ai-changes-the-game-in-commercial-insurance/2/34327

 Copyright stekom.ac.id 2018 All Right Reserved