Microsoft Merancang untuk Menghapuskan Alat Analisis Wajah dalam Push untuk ‘AI Bertanggungjawab’

Selama bertahun-tahun, aktivis dan ahli akademik telah menimbulkan kebimbangan bahawa perisian analisis wajah yang mendakwa dapat mengenal pasti umur, jantina dan keadaan emosi seseorang boleh berat sebelahtidak boleh dipercayai atau invasif — dan tidak boleh dijual.

Mengakui beberapa kritikan tersebut, Microsoft berkata pada hari Selasa bahawa ia merancang untuk mengalih keluar ciri tersebut daripada perkhidmatan kecerdasan buatan untuk mengesan, menganalisis dan mengecam muka. Mereka akan berhenti tersedia kepada pengguna baharu minggu ini, dan akan dihentikan secara berperingkat untuk pengguna sedia ada dalam tahun ini.

Perubahan itu adalah sebahagian daripada dorongan Microsoft untuk mengawal lebih ketat produk kecerdasan buatannya. Selepas semakan dua tahun, satu pasukan di Microsoft telah membangunkan “Standard AI Bertanggungjawab,” dokumen 27 muka surat yang menetapkan keperluan untuk sistem AI untuk memastikan ia tidak akan memberi kesan berbahaya kepada masyarakat.

Keperluan termasuk memastikan bahawa sistem menyediakan “penyelesaian yang sah untuk masalah yang direka bentuk untuk diselesaikan” dan “kualiti perkhidmatan yang serupa untuk kumpulan demografi yang dikenal pasti, termasuk kumpulan terpinggir.”

Sebelum ia dikeluarkan, teknologi yang akan digunakan untuk membuat keputusan penting tentang akses seseorang kepada pekerjaan, pendidikan, penjagaan kesihatan, perkhidmatan kewangan atau peluang hidup tertakluk kepada semakan oleh pasukan yang diketuai oleh Natasha Crampton, ketua pegawai AI yang bertanggungjawab Microsoft .

Terdapat kebimbangan yang lebih tinggi di Microsoft mengenai alat pengecaman emosi, yang melabelkan ekspresi seseorang sebagai kemarahan, penghinaan, rasa meluat, ketakutan, kegembiraan, neutral, kesedihan atau kejutan.

“Terdapat sejumlah besar variasi budaya dan geografi dan individu dalam cara kita mengekspresikan diri kita,” kata Cik Crampton. Ini membawa kepada kebimbangan kebolehpercayaan, bersama-sama dengan soalan yang lebih besar sama ada “ekspresi muka ialah penunjuk yang boleh dipercayai bagi keadaan emosi dalaman anda,” katanya.

Alat analisis umur dan jantina yang dihapuskan — bersama-sama dengan alat lain untuk mengesan sifat muka seperti rambut dan senyuman — boleh berguna untuk mentafsir imej visual untuk orang buta atau rabun, contohnya, tetapi syarikat memutuskan bahawa ia bermasalah untuk membuat alat pemprofilan umumnya tersedia untuk orang ramai, kata Cik Crampton.

Khususnya, tambahnya, sistem yang dipanggil pengelas jantina adalah binari, “dan itu tidak konsisten dengan nilai kami.”

Microsoft juga akan meletakkan kawalan baharu pada ciri pengecaman mukanya, yang boleh digunakan untuk melakukan semakan identiti atau mencari orang tertentu. Uber, sebagai contoh, menggunakan perisian tersebut dalam aplnya untuk mengesahkan bahawa wajah pemandu sepadan dengan ID pada fail untuk akaun pemandu itu. Pembangun perisian yang ingin menggunakan alat pengecaman muka Microsoft perlu memohon akses dan menerangkan cara mereka merancang untuk menggunakan alat tersebut.

Pengguna juga akan diminta untuk memohon dan menerangkan cara mereka akan menggunakan sistem AI lain yang berpotensi menyalahgunakan, seperti Suara Neural Tersuai. Perkhidmatan ini boleh menjana cetakan suara manusia, berdasarkan sampel pertuturan seseorang, supaya pengarang, sebagai contoh, boleh mencipta versi sintetik suara mereka untuk membaca buku audio mereka dalam bahasa yang tidak mereka pertuturkan.

Disebabkan kemungkinan penyalahgunaan alat itu — untuk mencipta tanggapan bahawa orang ramai telah mengatakan perkara yang tidak mereka lakukan — pembesar suara mesti melalui beberapa langkah untuk mengesahkan bahawa penggunaan suara mereka dibenarkan dan rakaman itu termasuk tera air yang boleh dikesan oleh Microsoft .

“Kami mengambil langkah konkrit untuk memenuhi prinsip AI kami,” kata Cik Crampton, yang telah bekerja sebagai peguam di Microsoft selama 11 tahun dan menyertai kumpulan AI beretika pada 2018. “Ia akan menjadi satu perjalanan yang besar. ”

Microsoft, seperti syarikat teknologi lain, telah mengalami masalah dengan produk pintar buatannya. Pada 2016, ia mengeluarkan chatbot di Twitter, dipanggil Tay, yang direka untuk mempelajari “pemahaman perbualan” daripada pengguna yang berinteraksi dengannya. Bot itu dengan cepat mula menyembur tweet perkauman dan menyinggung perasaandan Microsoft terpaksa menurunkannya.

Pada tahun 2020, penyelidik mendapati bahawa alat pertuturan ke teks yang dibangunkan oleh Microsoft, Apple, Google, IBM dan Amazon bekerja kurang baik untuk orang kulit hitam. Sistem Microsoft adalah yang terbaik daripada kumpulan tetapi salah mengenal pasti 15 peratus perkataan untuk orang kulit putih, berbanding dengan 27 peratus untuk orang kulit hitam.

Syarikat itu telah mengumpulkan data pertuturan yang pelbagai untuk melatih sistem AInya tetapi tidak memahami betapa kepelbagaian bahasa itu. Jadi ia mengupah seorang pakar sosiolinguistik dari University of Washington untuk menerangkan jenis bahasa yang perlu diketahui oleh Microsoft. Ia melangkaui demografi dan kepelbagaian serantau kepada cara orang bercakap dalam tetapan formal dan tidak formal.

“Memikirkan kaum sebagai faktor penentu bagaimana seseorang bercakap sebenarnya agak mengelirukan,” kata Cik Crampton. “Apa yang kami pelajari melalui perundingan dengan pakar ialah sebenarnya pelbagai faktor mempengaruhi kepelbagaian linguistik.”

Cik Crampton berkata perjalanan untuk membetulkan perbezaan pertuturan dengan teks telah membantu memaklumkan panduan yang ditetapkan dalam piawaian baharu syarikat.

“Ini adalah tempoh penetapan norma yang kritikal untuk AI,” katanya sambil menunjuk peraturan yang dicadangkan Eropah menetapkan peraturan dan had penggunaan kecerdasan buatan. “Kami berharap dapat menggunakan standard kami untuk mencuba dan menyumbang kepada perbincangan yang terang dan perlu yang perlu ada tentang piawaian yang harus dipegang oleh syarikat teknologi.”

A perbahasan yang rancak tentang potensi bahaya AI telah dijalankan selama bertahun-tahun dalam komuniti teknologi, didorong oleh kesilapan dan kesilapan yang telah akibat sebenar pada kehidupan orang ramai, seperti algoritma yang menentukan sama ada orang mendapat faedah kebajikan atau tidak. pihak berkuasa cukai Belanda tersilap mengambil faedah penjagaan kanak-kanak daripada keluarga yang memerlukan apabila a algoritma yang cacat menghukum orang yang mempunyai dua kewarganegaraan.

Perisian automatik untuk mengecam dan menganalisis wajah telah menjadi sangat kontroversi. Tahun lepas, Facebook menutup sistemnya yang berusia sedekad untuk mengenal pasti orang dalam foto. Naib presiden kecerdasan buatan syarikat itu memetik “banyak kebimbangan mengenai tempat teknologi pengecaman muka dalam masyarakat.”

Beberapa lelaki kulit hitam telah ditangkap secara salah selepas padanan pengecaman muka yang cacat. Dan pada tahun 2020, pada masa yang sama dengan bantahan Black Lives Matter selepas polis membunuh George Floyd di Minneapolis, Amazon dan Microsoft mengeluarkan moratorium terhadap penggunaan produk pengecaman muka mereka oleh polis di Amerika Syarikat, berkata undang-undang yang lebih jelas mengenai penggunaannya diperlukan.

Sejak itu, Washington dan Massachusetts telah meluluskan peraturan yang memerlukan, antara lain, pengawasan kehakiman terhadap penggunaan alat pengecam muka oleh polis.

Cik Crampton berkata Microsoft telah mempertimbangkan sama ada untuk mula menyediakan perisiannya kepada polis di negeri-negeri yang mempunyai undang-undang mengenai buku itu tetapi telah memutuskan, buat masa ini, untuk tidak berbuat demikian. Dia berkata itu boleh berubah apabila landskap undang-undang berubah.

Arvind Narayanan, seorang profesor sains komputer Princeton dan pakar AI terkemukaberkata syarikat mungkin akan berundur daripada teknologi yang menganalisis wajah kerana ia “lebih mendalam, berbanding pelbagai jenis AI lain yang mungkin meragukan tetapi kita tidak semestinya rasa dalam tulang kita.”

Syarikat juga mungkin menyedari bahawa, sekurang-kurangnya buat masa ini, beberapa sistem ini tidak begitu berharga secara komersial, katanya. Microsoft tidak dapat menyatakan bilangan pengguna yang dimilikinya untuk ciri analisis wajah yang sedang disingkirkannya. Encik Narayanan meramalkan bahawa syarikat akan kurang berkemungkinan untuk meninggalkan teknologi invasif lain, seperti pengiklanan yang disasarkan, yang memprofilkan orang ramai untuk memilih iklan terbaik untuk dipaparkan kepada mereka, kerana mereka adalah “lembu tunai”.

We wish to give thanks to the author of this write-up for this remarkable material

Microsoft Merancang untuk Menghapuskan Alat Analisis Wajah dalam Push untuk ‘AI Bertanggungjawab’


Find here our social media profiles as well as other pages that are related to them.https://paw6.info/related-pages/