Microsoft mengambil langkah berani dengan membagikan praktik kecerdasan buatan yang bertanggung jawab dalam laporan perdananya. Melalui laporan Transparansi AI yang Bertanggung Jawab, perusahaan ini mengungkapkan upaya terbarunya dalam membangun, mendukung, dan mengembangkan produk AI secara bertanggung jawab.
Salah satu sorotan utama dari laporan tersebut adalah rilis 30 alat AI yang bertanggung jawab, dengan lebih dari 100 fitur yang dirancang untuk mendukung pengembangan AI oleh pelanggan Microsoft. Langkah ini menunjukkan komitmen Microsoft dalam memberikan akses dan dukungan yang memadai bagi pengembang untuk menggunakan teknologi AI dengan tanggung jawab.
Laporan ini juga menyoroti komitmen Microsoft setelah menandatangani perjanjian sukarela dengan Gedung Putih pada bulan Juli. Perusahaan ini tidak hanya berbicara, tetapi juga bertindak untuk memenuhi kewajibannya dalam memastikan bahwa perkembangan AI berlangsung secara etis dan bertanggung jawab.
Baca juga: Elon Musk dan Visi Unik Grok dalam Dunia Berita AI
Selain itu, Microsoft juga mencatat peningkatan signifikan dalam tim AI yang bertanggung jawab. Jumlah anggota tim ini meningkat dari 350 menjadi lebih dari 400 orang dalam setahun terakhir, mencerminkan keseriusan perusahaan dalam mengembangkan dan mengelola teknologi AI dengan etika yang kuat.
Dengan langkah-langkah ini, Microsoft tidak hanya memperkuat posisinya sebagai pemimpin dalam industri kecerdasan buatan, tetapi juga sebagai perusahaan yang bertanggung jawab secara sosial dan etis. Mereka membuka pintu menuju masa depan di mana AI tidak hanya berkembang pesat, tetapi juga digunakan dengan penuh kesadaran akan dampaknya terhadap masyarakat dan lingkungan.
Transparansi dalam Kecerdasan Buatan yang Bertanggung Jawab
“Sebagai perusahaan yang terdepan dalam penelitian dan teknologi AI, kami berkomitmen untuk membagikan praktik kami kepada publik seiring dengan perkembangannya,” ujar Brad Smith, wakil ketua dan presiden Microsoft, dan Natasha Crampton, kepala pejabat AI yang bertanggung jawab, dalam sebuah pernyataan yang penuh semangat. “Laporan ini memungkinkan kami untuk berbagi praktik-praktik yang sudah matang, merefleksikan apa yang telah kami pelajari, memetakan tujuan kami, menjaga akuntabilitas, dan mendapatkan kepercayaan publik.”
Microsoft mengumumkan pengembangan alat AI yang bertanggung jawab yang bertujuan untuk “memetakan dan mengukur risiko AI,” dan kemudian mengelolanya dengan mitigasi, deteksi, dan pemfilteran secara real-time, serta pemantauan berkelanjutan. Pada bulan Februari, Microsoft merilis alat tim merah akses terbuka yang disebut Alat Identifikasi Risiko Python (PyRIT) untuk AI generatif, yang memungkinkan profesional keamanan dan insinyur pembelajaran mesin mengidentifikasi risiko dalam produk AI generatif mereka.
Baca juga: Bocoran iPhone 16 Kabarnya Akan Meningkatan Ukuran Layar Pakai Chip A 18!
Tak berhenti di situ, pada bulan November, perusahaan ini meluncurkan seperangkat alat evaluasi AI generatif di Azure AI Studio. Di tempat ini, pelanggan Microsoft dapat membangun model AI generatif mereka sendiri dan mengevaluasi model mereka untuk metrik kualitas dasar, termasuk kebumian – atau seberapa selaras respons yang dihasilkan model dengan bahan sumbernya.
Bulan Maret menjadi saksi ekspansi alat ini untuk mengatasi risiko keamanan yang lebih luas, termasuk konten kebencian, kekerasan, seksual, dan menyakiti diri sendiri, serta metode jailbreak seperti suntikan segera. Ini terjadi ketika model bahasa besar (LLM) diberikan instruksi yang dapat menyebabkan kebocoran informasi sensitif atau penyebaran informasi yang salah.
Langkah-langkah yang diambil Microsoft bukan hanya menunjukkan inovasi teknologi yang maju, tetapi juga komitmen mereka untuk memastikan bahwa penggunaan kecerdasan buatan diawasi secara ketat dan bertanggung jawab. Ini adalah langkah yang signifikan dalam membuka lembaran baru transparansi dalam era AI yang semakin kompleks dan canggih.
Tantangan dalam Pengembangan AI yang Bertanggung Jawab: Pelajaran dari Microsoft
Meskipun langkah-langkah besar yang diambil, tim AI Microsoft yang bertanggung jawab harus mengatasi berbagai insiden dengan model AI-nya dalam satu tahun terakhir. Pada bulan Maret, chatbot Copilot AI dari Microsoft memberi tahu pengguna bahwa “mungkin Anda tidak punya tujuan hidup,” setelah seorang ilmuwan data di Meta bertanya kepada Copilot apakah dia harus “mengakhiri semuanya.” Meskipun Microsoft mengklaim bahwa ilmuwan data telah mencoba memanipulasi chatbot untuk menghasilkan respons yang tidak pantas, ilmuwan data tersebut membantahnya.
Baca juga: Google Lakukan PHK Terhadap Karyawan Tim Programmer, Menjelang Google I/O 2024!
Tidak hanya itu, pada bulan Oktober lalu, pembuat gambar Bing dari Microsoft memungkinkan pengguna membuat foto karakter populer, termasuk Kirby dan Spongebob, yang menerbangkan pesawat ke Menara Kembar. Insiden serupa terjadi saat chatbot Bing AI (pendahulu Copilot) dirilis pada Februari tahun lalu, di mana pengguna dapat membuat chatbot tersebut mengucapkan “Heil Hitler.”
“Tidak ada garis akhir untuk AI yang bertanggung jawab. Meskipun laporan ini belum memberikan semua jawaban, kami berkomitmen untuk membagikan pembelajaran kami sejak dini dan sering serta terlibat dalam dialog yang kuat seputar praktik AI yang bertanggung jawab,” tulis Brad Smith dan Natasha Crampton dalam laporan tersebut.
Dari pengalaman-pengalaman ini, Microsoft belajar bahwa pengembangan AI yang bertanggung jawab memerlukan pemahaman mendalam tentang etika dan kepekaan terhadap konteks sosial. Meskipun demikian, mereka tetap berkomitmen untuk terus belajar dan meningkatkan praktik mereka dalam memastikan bahwa AI yang mereka hasilkan bermanfaat dan aman bagi semua.