AI کے لیے ذہن سازی سے اپروچ لینے سے کس طرح متعصب ڈیٹا سیٹوں کو ختم کیا جاتا ہے۔

متعصب ڈیٹاسیٹس اور اخلاقی AI

AI سے چلنے والے حل کو موثر ہونے کے لیے ڈیٹا سیٹ کی ضرورت ہوتی ہے۔ اور ان ڈیٹا سیٹوں کی تخلیق ایک منظم سطح پر ایک واضح تعصب کے مسئلے سے بھری ہوئی ہے۔ تمام لوگ تعصبات کا شکار ہیں (شعور اور لاشعور دونوں)۔ تعصبات کسی بھی قسم کی شکل اختیار کر سکتے ہیں: جغرافیائی، لسانی، سماجی، اقتصادی، جنس پرست، اور نسل پرست۔ اور وہ منظم تعصبات کو ڈیٹا میں پکایا جاتا ہے، جس کے نتیجے میں AI پروڈکٹس ہو سکتے ہیں جو تعصب کو برقرار اور بڑھاتے ہیں۔ تنظیموں کو ڈیٹا سیٹس میں پھیلنے والے تعصب کو کم کرنے کے لیے ذہن سازی کی ضرورت ہے۔

ایسی مثالیں جو تعصب کے مسئلے کو واضح کرتی ہیں۔

اس ڈیٹا سیٹ تعصب کی ایک قابل ذکر مثال جس نے اس وقت بہت زیادہ منفی پریس حاصل کیا وہ ایک ریزیوم ریڈنگ حل تھا جس نے خواتین کے مقابلے میں مرد امیدواروں کی حمایت کی۔ اس کی وجہ یہ ہے کہ بھرتی کے آلے کے ڈیٹا سیٹ کو گزشتہ دہائی سے ریزیومے کا استعمال کرتے ہوئے تیار کیا گیا تھا جب درخواست دہندگان کی اکثریت مرد تھی۔ ڈیٹا متعصب تھا اور نتائج اس تعصب کی عکاسی کرتے ہیں۔ 

ایک اور وسیع پیمانے پر رپورٹ کی گئی مثال: سالانہ Google I/O ڈویلپر کانفرنس میں، Google نے AI سے چلنے والے ڈرمیٹولوجی اسسٹ ٹول کا ایک پیش نظارہ شیئر کیا جو لوگوں کو یہ سمجھنے میں مدد کرتا ہے کہ ان کی جلد، بالوں اور ناخنوں سے متعلق مسائل کے ساتھ کیا ہو رہا ہے۔ ڈرماٹولوجی اسسٹنٹ اس بات کی نشاندہی کرتا ہے کہ AI صحت کی دیکھ بھال میں کس طرح مدد کر رہا ہے - لیکن اس نے تنقید کے تناظر میں AI میں گھسنے کے تعصب کے امکان کو بھی اجاگر کیا کہ یہ آلہ رنگین لوگوں کے لیے مناسب نہیں ہے۔

جب گوگل نے اس آلے کا اعلان کیا ، کمپنی نے نوٹ کیا:

اس بات کو یقینی بنانے کے لیے کہ ہم سب کے لیے تعمیر کر رہے ہیں، ہمارا ماڈل عمر، جنس، نسل، اور جلد کی اقسام جیسے عوامل کا حساب رکھتا ہے — پیلی جلد سے لے کر بھوری جلد تک جو شاذ و نادر ہی جلتی ہے۔

گوگل، جلد کے عام حالات کے جوابات تلاش کرنے میں مدد کے لیے AI کا استعمال

لیکن وائس میں ایک مضمون نے کہا کہ گوگل ایک جامع ڈیٹا سیٹ استعمال کرنے میں ناکام رہا:

اس کام کو پورا کرنے کے لیے، محققین نے دو ریاستوں میں واقع 64,837،12,399 مریضوں کی 3.5 تصاویر کا تربیتی ڈیٹاسیٹ استعمال کیا۔ لیکن تصویر میں ہزاروں جلد کی حالتوں میں سے، صرف 90 فیصد Fitzpatrick جلد کی قسم V اور VI والے مریضوں سے آئے ہیں جو بالترتیب بھوری جلد اور گہری بھوری یا سیاہ جلد کی نمائندگی کرتے ہیں۔ مطالعہ کے مطابق، ڈیٹا بیس کا XNUMX فیصد سفید جلد، گہری سفید جلد، یا ہلکی بھوری جلد والے لوگوں پر مشتمل تھا۔ متعصبانہ نمونے لینے کے نتیجے میں، ماہر امراض جلد کا کہنا ہے کہ یہ ایپ ایسے لوگوں کی زیادہ یا کم تشخیص کر سکتی ہے جو سفید نہیں ہیں۔

نائب، گوگل کی نئی ڈرمیٹولوجی ایپ سیاہ جلد والے لوگوں کے لیے ڈیزائن نہیں کی گئی تھی۔

گوگل نے یہ کہتے ہوئے جواب دیا کہ وہ اسے باضابطہ طور پر جاری کرنے سے پہلے ٹول کو بہتر کرے گا:

ہمارا اے آئی سے چلنے والا ڈرمیٹولوجی اسسٹ ٹول تین سال سے زیادہ کی تحقیق کا نتیجہ ہے۔ چونکہ ہمارے کام کو نیچر میڈیسن میں نمایاں کیا گیا تھا، اس لیے ہم نے اضافی ڈیٹا سیٹس کو شامل کرنے کے ساتھ اپنی ٹیکنالوجی کو تیار کرنا اور بہتر کرنا جاری رکھا ہے جس میں ہزاروں لوگوں کی طرف سے عطیہ کردہ ڈیٹا، اور لاکھوں کیوریٹ شدہ جلد سے متعلق تصاویر شامل ہیں۔

گوگل، جلد کے عام حالات کے جوابات تلاش کرنے میں مدد کے لیے AI کا استعمال

جتنا ہم امید کر سکتے ہیں کہ AI اور مشین لرننگ پروگرام ان تعصبات کو درست کر سکتے ہیں، حقیقت باقی ہے: وہ صرف اتنے ہی ہیں ہوشیار جیسا کہ ان کے ڈیٹا سیٹ صاف ہیں۔ پرانی پروگرامنگ کہاوت کی تازہ کاری میں کچرا اندر/کوڑا باہر پھینکنا, AI سلوشنز صرف اتنے ہی مضبوط ہیں جتنے کہ ان کے ڈیٹا سیٹس کا معیار پروگرامرز کی اصلاح کے بغیر، ان ڈیٹا سیٹس کے پاس اپنے آپ کو ٹھیک کرنے کے لیے پس منظر کا تجربہ نہیں ہوتا ہے - کیونکہ ان کے پاس حوالہ کا کوئی دوسرا فریم نہیں ہوتا ہے۔

ذمہ داری کے ساتھ ڈیٹا سیٹ بنانا سب کا مرکز ہے۔ اخلاقی مصنوعی ذہانت. اور لوگ حل کے مرکز میں ہیں۔ 

Mindful AI اخلاقی AI ہے۔

تعصب خلا میں نہیں ہوتا۔ غیر اخلاقی یا متعصب ڈیٹا سیٹ ترقی کے مرحلے کے دوران غلط طریقہ اختیار کرنے سے آتے ہیں۔ تعصب کی غلطیوں کا مقابلہ کرنے کا طریقہ یہ ہے کہ ایک ذمہ دار، انسان پر مبنی، نقطہ نظر اپنایا جائے جسے انڈسٹری میں بہت سے لوگ Mindful AI کہہ رہے ہیں۔ Mindful AI کے تین اہم اجزاء ہیں:

1. ذہن ساز AI انسانی مرکز ہے۔

AI پروجیکٹ کے آغاز سے، منصوبہ بندی کے مراحل میں، لوگوں کی ضروریات کو ہر فیصلے کے مرکز میں ہونا چاہیے۔ اور اس کا مطلب ہے تمام لوگ – نہ صرف ایک ذیلی سیٹ۔ اسی لیے ڈویلپرز کو AI ایپلی کیشنز کو جامع اور تعصب سے پاک ہونے کی تربیت دینے کے لیے عالمی سطح پر لوگوں کی متنوع ٹیم پر انحصار کرنے کی ضرورت ہے۔

عالمی، متنوع ٹیم سے ڈیٹا سیٹس کو کراؤڈ سورس کرنا یقینی بناتا ہے کہ تعصبات کی نشاندہی کی جائے اور اسے جلد فلٹر کیا جائے۔ مختلف نسلوں ، عمر کے گروہوں ، صنفوں ، تعلیمی سطحوں ، سماجی و اقتصادی پس منظروں اور مقامات سے زیادہ آسانی سے ایسے ڈیٹا سیٹس کو تلاش کیا جا سکتا ہے جو اقدار کے ایک سیٹ کو دوسرے سے زیادہ پسند کرتے ہیں ، اس طرح غیر ارادی تعصب کو ختم کیا جاتا ہے۔

صوتی ایپلی کیشنز پر ایک نظر ڈالیں۔ ذہن سازی کرنے والے AI اپروچ کو لاگو کرتے ہوئے، اور عالمی ٹیلنٹ پول کی طاقت سے فائدہ اٹھاتے وقت، ڈویلپرز ڈیٹا سیٹس میں مختلف بولیوں اور لہجوں جیسے لسانی عناصر کا محاسبہ کر سکتے ہیں۔

شروع سے ہی انسانی مرکوز ڈیزائن کا فریم ورک قائم کرنا بہت ضروری ہے۔ یہ اس بات کو یقینی بنانے کی طرف ایک لمبا فاصلہ طے کرتا ہے کہ تیار کردہ ، کیوریٹڈ ، اور لیبل لگا ہوا ڈیٹا آخری صارفین کی توقعات پر پورا اترتا ہے۔ لیکن یہ بھی ضروری ہے کہ انسانوں کو پوری پروڈکٹ ڈویلپمنٹ لائف سائیکل میں لوپ میں رکھا جائے۔ 

لوپ میں موجود انسان ہر مخصوص سامعین کے لیے بہتر AI تجربہ بنانے میں مشینوں کی مدد کر سکتے ہیں۔ Pactera EDGE میں، ہماری AI ڈیٹا پروجیکٹ ٹیمیں، جو عالمی سطح پر واقع ہیں، یہ سمجھتی ہیں کہ مختلف ثقافتیں اور سیاق و سباق کس طرح قابل اعتماد AI ٹریننگ ڈیٹا کو جمع کرنے اور کیوریشن کو متاثر کر سکتے ہیں۔ ان کے پاس ضروری ٹولز ہیں جن کی انہیں مسائل کو نشان زد کرنے ، ان کی نگرانی کرنے اور AI پر مبنی حل کے لائیو ہونے سے پہلے ان کو ٹھیک کرنے کی ضرورت ہے۔

ہیومن-ان-دی-لوپ AI ایک پروجیکٹ "سیفٹی نیٹ" ہے جو لوگوں کی طاقتوں اور ان کے متنوع پس منظر کو مشینوں کی تیز کمپیوٹنگ طاقت کے ساتھ جوڑتا ہے۔ اس انسانی اور AI تعاون کو پروگراموں کے آغاز سے ہی قائم کرنے کی ضرورت ہے تاکہ متعصب ڈیٹا پروجیکٹ میں بنیاد نہ بنا سکے۔ 

2. ہوشیار AI ذمہ دار ہے۔

ذمہ دار ہونے کا مطلب یہ یقینی بنانا ہے کہ AI نظام تعصبات سے پاک ہوں اور وہ اخلاقیات پر مبنی ہوں۔ یہ اس بات کو ذہن میں رکھنے کے بارے میں ہے کہ ڈیٹا کیسے، کیوں، اور کہاں بنایا جاتا ہے، اسے AI سسٹمز کے ذریعے کیسے ترکیب کیا جاتا ہے، اور فیصلہ کرنے میں اس کا استعمال کیسے کیا جاتا ہے، ایسے فیصلے جن کے اخلاقی اثرات ہو سکتے ہیں۔ کاروبار کے لیے ایسا کرنے کا ایک طریقہ یہ ہے کہ کم نمائندگی والی کمیونٹیز کے ساتھ کام کریں تاکہ وہ زیادہ جامع اور کم جانبدار ہوں۔ ڈیٹا تشریحات کے میدان میں ، نئی تحقیق اس بات کو اجاگر کر رہی ہے کہ کس طرح ایک ملٹی اینوٹیٹر ملٹی ٹاسک ماڈل جو ہر ایناٹیٹر کے لیبلز کو الگ الگ سب ٹاسک سمجھتا ہے وہ عام زمینی سچائی کے طریقوں میں موجود ممکنہ مسائل کو کم کرنے میں مدد کر سکتا ہے جہاں تشریحی اختلافات کم نمائندگی کی وجہ سے ہو سکتے ہیں۔ تشریحات کے مجموعے میں کسی ایک زمینی سچائی کو نظر انداز کیا جا سکتا ہے۔ 

3. قابل اعتماد

قابل اعتماد کاروبار کے شفاف اور قابل وضاحت ہونے سے حاصل ہوتا ہے کہ AI ماڈل کو کس طرح تربیت دی جاتی ہے، یہ کیسے کام کرتا ہے، اور وہ نتائج کی سفارش کیوں کرتے ہیں۔ ایک کاروبار کو AI لوکلائزیشن کے ساتھ مہارت کی ضرورت ہوتی ہے تاکہ اپنے کلائنٹس کے لیے اپنی AI ایپلیکیشنز کو مزید جامع اور ذاتی نوعیت کا بنانا ممکن بنایا جائے، مقامی زبان میں اہم باریکیوں کا احترام کرتے ہوئے اور صارف کے تجربات جو ایک ملک سے دوسرے ملک تک AI حل کی ساکھ کو بنا یا توڑ سکتے ہیں۔ . مثال کے طور پر، ایک کاروبار کو اپنی ایپلیکیشنز کو ذاتی نوعیت کے اور مقامی سیاق و سباق کے لیے ڈیزائن کرنا چاہیے، بشمول آواز پر مبنی ایپلی کیشنز میں زبانیں، بولیاں اور لہجے۔ اس طرح، ایک ایپ انگریزی سے لے کر کم نمائندگی والی زبانوں تک، ہر زبان میں صوتی تجربے کی نفاست کی ایک ہی سطح لاتی ہے۔

انصاف اور تنوع

بالآخر، ذہن ساز AI یقینی بناتا ہے کہ حل منصفانہ اور متنوع ڈیٹا سیٹس پر بنائے گئے ہیں جہاں حل مارکیٹ میں جانے سے پہلے مخصوص نتائج کے نتائج اور اثرات کی نگرانی اور جائزہ لیا جاتا ہے۔ ہوشیار رہ کر اور حل کی ترقی کے ہر حصے میں انسانوں کو شامل کرکے، ہم اس بات کو یقینی بنانے میں مدد کرتے ہیں کہ AI ماڈلز صاف ستھرا، کم سے کم تعصب پر مبنی اور ہر ممکن حد تک اخلاقی رہیں۔

آپ کا کیا خیال ہے؟

سپیم کو کم کرنے کے لئے یہ سائٹ اکزمیت کا استعمال کرتا ہے. جانیں کہ آپ کا تبصرہ کس طرح عملدرآمد ہے.