Algoritma Kesehatan Bias Terhadap Pasien Berkulit Hitam

Casinoonlinewinplay.com – Algoritma perawatan kesehatan membuat pasien kulit hitam secara substansial lebih kecil kemungkinannya daripada rekan kulit putihnya untuk menerima perawatan medis yang penting. Kelemahan utama mempengaruhi jutaan pasien, dan baru saja terungkap dalam penelitian yang diterbitkan minggu ini di jurnal Science.

Studi ini tidak menyebutkan nama pembuat algoritma, tetapi Ziad Obermeyer, seorang associate professor di University of California, Berkeley, yang bekerja pada penelitian ini mengatakan “hampir setiap sistem perawatan kesehatan besar” menggunakannya, serta lembaga-lembaga seperti perusahaan asuransi. Algoritma serupa diproduksi oleh beberapa perusahaan yang berbeda juga. “Ini adalah fitur sistematis dari cara hampir semua orang di ruang mendekati masalah ini,” katanya.

Algoritma ini digunakan oleh penyedia layanan kesehatan untuk menyaring pasien untuk intervensi “manajemen perawatan berisiko tinggi”. Di bawah sistem ini, pasien yang memiliki kebutuhan medis yang kompleks secara otomatis ditandai oleh algoritma. Setelah dipilih, mereka dapat menerima sumber daya perawatan tambahan, seperti lebih banyak perhatian dari dokter. Seperti yang dicatat oleh para peneliti, sistem ini banyak digunakan di seluruh Amerika Serikat, dan untuk alasan yang baik. Manfaat tambahan seperti perawat berdedikasi dan lebih banyak janji perawatan primer mahal untuk penyedia layanan kesehatan. Algoritma ini digunakan untuk memprediksi pasien mana yang akan mendapat manfaat paling banyak dari bantuan tambahan, yang memungkinkan penyedia layanan untuk memfokuskan waktu dan sumber daya mereka yang terbatas di mana mereka sangat dibutuhkan.

Untuk membuat prediksi itu, algoritma bergantung pada data tentang berapa biaya penyedia perawatan untuk merawat pasien. Secara teori, ini bisa bertindak sebagai pengganti seberapa sakit pasien. Tetapi dengan mempelajari dataset pasien, penulis studi Science menunjukkan bahwa, karena akses yang tidak merata ke perawatan kesehatan, pasien kulit hitam jauh lebih sedikit dihabiskan untuk perawatan daripada pasien kulit putih yang sakit sama. Algoritma tidak memperhitungkan perbedaan ini, yang mengarah ke bias rasial yang sangat besar terhadap pengobatan untuk pasien kulit hitam.

Efeknya drastis. Saat ini, 17.7% pasien kulit hitam menerima perhatian tambahan, para peneliti menemukan. Jika perbedaan itu diatasi, jumlah itu akan meroket ke 46.5% pasien.

“Biaya adalah proksi yang masuk akal untuk kesehatan, tetapi itu bias, dan pilihan itu yang menyebabkan bias ke dalam algoritma,” kata Obermeyer.

Ketidaksetaraan rasial historis tercermin dalam seberapa banyak pengeluaran masyarakat pada pasien kulit hitam dan putih. Pasien mungkin harus mengambil cuti kerja untuk perawatan, misalnya. Karena pasien kulit hitam secara tidak proporsional hidup dalam kemiskinan, mungkin lebih sulit bagi mereka, rata-rata, untuk memanggil hari itu dan mengambil potongan upah. “Hanya ada sejuta cara di mana kemiskinan membuat sulit untuk mengakses perawatan kesehatan,” kata Obermeyer. Kesenjangan lainnya, seperti bias dalam cara dokter merawat pasien, juga dapat berkontribusi terhadap kesenjangan.

Ini adalah contoh klasik dari bias algoritmik dalam aksi. Para peneliti sering menunjukkan bahwa sumber data yang bias menghasilkan hasil yang bias dalam sistem otomatis. Kabar baiknya, kata Obermeyer, adalah ada cara untuk mengekang masalah dalam sistem.

“Bias itu dapat diperbaiki, bukan dengan data baru, bukan dengan jenis jaringan saraf baru yang lebih menarik, tetapi sebenarnya hanya dengan mengubah hal yang seharusnya diprediksi oleh algoritma,” katanya. Para peneliti menemukan bahwa dengan berfokus hanya pada sebagian biaya tertentu, seperti perjalanan ke ruang gawat darurat, mereka dapat menurunkan bias. Algoritma yang secara langsung memprediksi hasil kesehatan, bukan biaya, juga meningkatkan sistem.

“Dengan perhatian penuh pada bagaimana kita melatih algoritma,” kata Obermeyer, “kita bisa mendapatkan banyak manfaatnya, tetapi meminimalkan risiko bias.”