مخاطر الذكاء الاصطناعي

المخاوف التي تهدد تقدم الذكاء الاصطناعي

يعمل الذكاء الاصطناعي بالفعل على تحويل المؤسسات عبر الصناعات ، لكن المخاطر الناشئة تولد قلقًا حقيقيًا – وتبطئ من تبني الذكاء الاصطناعي. لحسن الحظ ، يمكن إدارة مخاوف القادة والتخفيف منها.

-مقدمة-

لقد وصل عصر الذكاء الاصطناعي المتفشي. 1 منذ عام 2017 ، قاس تقرير Deloitte السنوي عن حالة الذكاء الاصطناعي في تقرير المؤسسة التقدم السريع لتكنولوجيا الذكاء الاصطناعي على مستوى العالم وعبر الصناعات. في أحدث إصدار ، نُشر في يوليو 2020 ، أفاد غالبية الذين شملهم الاستطلاع عن زيادات كبيرة في استثمارات الذكاء الاصطناعي ، حيث يعتقد أكثر من ثلاثة أرباعهم أن الذكاء الاصطناعي سيغير منظمتهم بشكل كبير في السنوات الثلاث المقبلة. بالإضافة إلى ذلك ، تؤدي استثمارات الذكاء الاصطناعي بشكل متزايد إلى فوائد تنظيمية قابلة للقياس: تحسين كفاءة العمليات ، واتخاذ قرارات أفضل ، وزيادة إنتاجية العمال ، وتحسين المنتجات والخدمات. 2 من المحتمل أن تكون هذه الفوائد المحتملة قد دفعت النمو في القيمة المتصورة للذكاء الاصطناعي بالنسبة للمؤسسات – أفاد ما يقرب من ثلاثة أرباع المستجيبين أن الذكاء الاصطناعي مهم من الناحية الاستراتيجية ، بزيادة قدرها 10 نقاط مئوية عن الاستطلاع السابق.

ومع ذلك ، فإن القلق المتزايد يهدد هذا الاتجاه المتصاعد: يقول 56 بالمائة من المنظمات التي شملها الاستطلاع إنها تخطط لإبطاء أو إبطاء عمليات تبني الذكاء الاصطناعي بسبب القلق بشأن المخاطر الناشئة – وهو مستوى ملحوظ من القلق بالنظر إلى الفوائد المعترف بها للذكاء الاصطناعي وأهميته الاستراتيجية. لفهم القضايا الأساسية المطروحة بشكل أفضل ، قمنا بتحليل مخاوف المستجيبين بناءً على ثلاث فئات رئيسية: الثقة في عملية صنع القرار بالذكاء الاصطناعي ، وأخلاقيات الذكاء الاصطناعي واستخدام البيانات ، وعدم اليقين في السوق .

نهدف إلى استكشاف هذه المخاوف بالتفصيل وتقديم نظرة ثاقبة لما يمكن أن تفعله الشركات لإدارة هذه المخاطر بكفاءة. من خلال القيام بذلك ، يمكن للمؤسسات بناء الضمانات الداخلية اللازمة لمواصلة الاستثمار والابتكار – وزيادة ثقة أصحاب المصلحة الخارجيين في إمكانية تنفيذ استراتيجيات الذكاء الاصطناعي على النحو المنشود.

تعتزم 56 بالمائة من المنظمات التي شملها الاستطلاع إبطاء أو إبطاء عمليات تبني الذكاء الاصطناعي بسبب القلق بشأن المخاطر الناشئة.

فهم التهديدات التي يتعرض لها تقدم الذكاء الاصطناعي

نمت مناقشة المخاطر المتعلقة بالذكاء الاصطناعي في السنوات الأخيرة لكل من قادة الأعمال وعامة الناس. لا تزال النقاشات مستمرة حول ما إذا كان الذكاء الاصطناعي سيقتل أو يخلق الوظائف ؛ وفي الوقت نفسه ، غالبًا ما تتصدر التقارير عن تحيز أو فشل الذكاء الاصطناعي العناوين الرئيسية. 4في يوليو / تموز 2020 ، أدى رد الفعل العام والانتقادات الواسعة النطاق إلى إغلاق شركة Genderify الناشئة المدعومة بالذكاء الاصطناعي بعد خمسة أيام فقط. ادعت الشركة أن الذكاء الاصطناعي الخاص بها يمكنه تحديد جنس الشخص من خلال تحليل اسمه واسم المستخدم وعنوان البريد الإلكتروني ؛ لقد عرضت هذه القدرة على الشركات كتعزيز لبيانات العملاء. وبحسب ما ورد اشتمل النظام على مفاهيم خاطئة مختلفة بين الجنسين واتخذ قرارات بناءً على افتراضات خاطئة. على سبيل المثال ، أظهرت السجلات التي تحتوي على كلمة “عالم” احتمالية بنسبة 4.3٪ فقط أن يكون الفرد أنثى ، على الرغم من التمثيل الحالي الأعلى للمرأة في العلوم. 5 “أستاذ” أدى إلى احتمال 98.4٪ للذكور ، عندما يشغل الرجال 74٪ فقط من المناصب الثابتة في الولايات المتحدةتنص على (النسبة المئوية التي تعكس في حد ذاتها عدم المساواة). 6

أمثلة مثل هذا – ورد الفعل العام الذي غالبًا ما يصاحب تعرضهم – تجعل العديد من القادة متقلبين بشكل مفهوم حول كيفية نشر الذكاء الاصطناعي داخل مؤسستهم وللعملاء والموظفين وشركاء النظام الإيكولوجي الأوسع. لفهم المكان الذي تنشأ فيه أكبر مخاوف المؤسسات بشكل أكثر دقة ، طلبنا من المشاركين في الاستطلاع تقييم قائمة الاهتمامات على مقياس من “الحد الأدنى” إلى “المتطرف”. نحن تجميع المخاطر المدرجة في ثلاث فئات هي: الثقة ، الأخلاق ، و عدم اليقين السوق .

-ثقة-

يشير إلى ما إذا كانت الشركة تعتقد بشكل عام أن أداة الذكاء الاصطناعي نفسها موثوقة. يتضمن ذلك الثقة في الرؤى والقرارات التي يتخذها الذكاء الاصطناعي ، والثقة في أمان النظام ، والقدرة على فهم أو تبرير أو شرح عملية صنع القرار في الذكاء الاصطناعي. تشير الأخلاقيات إلى التساؤل عما إذا كان استخدام الذكاء الاصطناعي أمرًا جيدًا وصحيحًا للمجتمع ، بغض النظر عن فائدة الذكاء الاصطناعي للأعمال ، بما في ذلك قضايا خصوصية البيانات والإنصاف والتحيز واحتمال فقدان الوظيفة. تعتبر حالات عدم اليقين في السوق عوامل خارجة عن سيطرة الشركة المباشرة ، مثل المشهد التنظيمي المتغير والرأي العام أو رأي الموظفين. لا ترتبط هذه العوامل بالضرورة بجودة الذكاء الاصطناعي ، لكنها تؤثر على كيفية قيام المؤسسات بتطبيقه أو استخدامه.

-ثقة-

كفئة ، كانت الثقة في أنظمة الذكاء الاصطناعي هي الأكثر أهمية ، حيث حدد 73٪ من جميع قادة الأعمال الذين شملهم الاستطلاع أن اثنين أو أكثر من المخاوف الرئيسية أو المتطرفة. عند النظر على وجه التحديد إلى المستجيبين الذين يخططون لإبطاء تبنيهم للذكاء الاصطناعي ، يزعم 85٪ أن اثنين أو أكثر من المخاطر الرئيسية أو الشديدة المتعلقة بالثقة.

من المفهوم أن المخاوف بشأن الثقة قد تؤدي إلى القلق. ترتبط ارتباطًا وثيقًا بجودة المنتجات والخدمات التي تقدمها الشركة ، وبالتالي يمكن أن تساهم بشكل كبير في سمعة المنظمة والتصور العام ؛ يمكن أن تؤثر أيضًا على المنجزات التي تطرحها الشركة في العالم للاستهلاك. على سبيل المثال ، يمكن لمقدم الخدمات الطبية استخدام الإمكانات الهائلة للذكاء الاصطناعي لتحديد أنواع السرطان وتحديد العلاجات المثلى. 7من الممكن أن توصي محركات اتخاذ القرار بالذكاء الاصطناعي بعلاجات غير آمنة أو تسيء التعرف على أنواع السرطان. يمكن أن يؤدي هذا إلى عواقب وخيمة على المرضى ، ويعرض الشركات للمخاطر ، ويؤدي إلى خسارة دولارات الاستثمار في الذكاء الاصطناعي. يمكن أن تؤدي المبادرات غير الناجحة إلى أضرار أكثر تكلفة من مجرد خسارة الاستثمار – فقد تقلل ثقة موظفي المؤسسة في مزيد من الابتكار ، والأسوأ من ذلك ، أن تقلل ثقة المرضى أو العملاء.

في الحالة المذكورة أعلاه ، ورد أن الشركة أنشأت ضمانات لضمان سلامة المرضى ، مما يقلل من احتمالية الإضرار بثقة المرضى. بالإضافة إلى ذلك ، تم استخدام الأخطاء لتحديد فشل النظام وتحسين الحلول الحسابية المستقبلية. 8 إذا تم التخفيف بشكل جيد من البداية ، يمكن تحويل هذا إلى عنصر إيجابي في الطريق إلى نضج الذكاء الاصطناعي. في الواقع ، هناك أدلة تشير إلى أنه عندما تنضج الشركات في قدرات الذكاء الاصطناعي الخاصة بها ، يميل مستوى اهتمامها إلى التحول مع تطوير العمليات أو السلوكيات أو المهارات لتقليل مخاطرها وتحقيق نتائج أكثر إيجابية (انظر الشريط الجانبي ، “نضج الذكاء الاصطناعي وكيف المنظمات تتعلم إدارة المخاطر المتصورة “).

نضج الذكاء الاصطناعي وكيف تتعلم المؤسسات إدارة المخاطر المتصورة في جميع المجالات، مع نضوج الشركات التي شملتها الدراسة في قدرات منظمة العفو الدولية، ومستوى القلق عبر الثقة ، الأخلاق ، و عدم اليقين السوق يتبع مسار نسبيا جرس شكل.

-كيف النضج يغير مستوى القلق؟

أبلغت كل من المنظمات منخفضة وعالية النضج التي تم مسحها عن مستويات أقل من القلق ، في حين أن المنظمات متوسطة النضج أبلغت عن أعلى مستوى من القلق عبر جميع الفئات الثلاث. قد يكون السبب في ذلك هو أن المنظمات ذات النضج المنخفض لا تتمتع بعد بالمزايا الكاملة للمخاطر ، حيث لا تزال العديد من المشاريع في إثبات المفهوم أو الوضع التجريبي. بعد ذلك ، مع تحقيق المؤسسات لمستوى متوسط من النضج ، قد تصبح التحديات أكثر وضوحًا ، لكنها ربما لم تكن قد طورت القدرات اللازمة لمواجهتها بعد. أخيرًا ، مع وصول المؤسسات إلى مستوى متقدم ، يمكن أن يكون لديهم المزيد من القدرات اللازمة للتخفيف من تلك المخاطر ، وبالتالي ينخفض مستوى اهتمامهم في كثير من الأحيان مرة أخرى.

هناك تحدٍ مهم آخر يتعلق بثقة الذكاء الاصطناعي وهو أن أنظمة الذكاء الاصطناعي الحالية تميل إلى أن تأتي بمقايضة بين القابلية للتفسير والقوة. بعض نماذج التعلم الآلي معقدة للغاية لدرجة أنه حتى علماء البيانات المدربين تدريباً عالياً يجدون صعوبة في فهم كيفية اتخاذ الخوارزميات للقرارات بدقة. مع تزايد استخدام الشبكات العصبية ، أصبحت هذه المشكلة أكثر وضوحًا ، مما زاد من تورط قدرة المنظمات على تبرير القرارات وتخفيف الأخطاء وإرضاء المنظمين.

للمساعدة في حل هذا ، يمكن تفسير الذكاء الاصطناعيهو مجال علوم كمبيوتر متطور يسعى إلى إنشاء نماذج ذكاء اصطناعي قادرة بشكل أفضل على شرح نفسها. في الوقت الحالي ، يمكن أن يوفر الذكاء الاصطناعي القابل للتفسير معلومات عامة حول كيفية اتخاذ برنامج الذكاء الاصطناعي قرارًا من خلال الكشف عن نقاط القوة والضعف في ذلك البرنامج والمعايير المحددة التي استخدمها البرنامج للتوصل إلى قرار ، وتقديم المشورة بشأن مستويات الثقة المناسبة في أنواع مختلفة من القرارات. تقترح التوصيات الأخيرة الصادرة عن وزارة التجارة الأمريكية أربعة مبادئ لتقييم قابلية شرح الذكاء الاصطناعي: تحتاج أنظمة الذكاء الاصطناعي إلى تقديم أدلة أو أسباب مصاحبة لجميع المخرجات ؛ يجب أن تقدم الأنظمة تفسيرات هادفة ومفهومة للمستخدمين الفرديين ؛ يجب أن تعكس تفسيرات النظام بشكل صحيح عملية النظام لتوليد المخرجات ؛9 يجب أن يؤثر إتقان إمكانية شرح الذكاء الاصطناعي ، بدوره ، على قدرة المنظمة على استخدام الذكاء الاصطناعي بشكل أخلاقي.

-أخلاق مهنية-

أفاد 57 بالمائة من المستجيبين أن اثنين أو أكثر من المخاوف المتعلقة بالأخلاقيات تعتبر كبيرة أو متطرفة. وبالنظر على وجه التحديد إلى المستجيبين الذين يخططون لإبطاء تبنيهم للذكاء الاصطناعي ، أشار 73٪ إلى وجود قلق كبير أو شديد بشأن مجالين أخلاقيين على الأقل.

-مخاوف منظمة العفو الدولية الأخلاقية من المستجيبين-

يتمثل التحدي الفريد في أخلاقيات الذكاء الاصطناعي ، وخاصة فيما يتعلق بالإنصاف والتحيز ، في أن البيانات التي يُبنى عليها الذكاء الاصطناعي يمكن أن تكون نفسها غير كاملة أو متحيزة أو غير متكافئة. لهذا السبب ، قد يكون من الصعب استئصال جميع التحيزات غير المقصودة داخل مجموعة البيانات ، حتى عندما تكون الشركة حسنة النية.

يمكن للبشر الذين يبنون الذكاء الاصطناعي ، ويحللون مخرجاته ، ويطبقون حلوله أن يقعوا أيضًا فريسة للتحيزات غير المقصودة ، مما يتطلب إجراءات متعمدة للتخفيف من هذه التحيزات حيثما أمكن ذلك. في مثال حديث للرعاية الصحية ، أظهرت خوارزمية التنبؤ بالمخاطر التي تستخدم الإنفاق على الرعاية الصحية كبديل للرعاية في نهاية المطاف التحيز العنصري في نتائجها ، مما أعطى المرضى البيض فرصة أفضل للاستفادة من برنامج رعاية إضافي مقارنة بالمرضى السود. 10 على الرغم من أن الخوارزمية تعبر بدقة عن الإنفاق على الصحة من كلا الفريقين، وأنها فشلت في حساب عيوب الاقتصادية السود يميلون إلى الوجه الذي غالبا ما تؤثر على إنفاقهم الرعاية الصحية: أغلى زيارة غرفة الطوارئ، وانخفاض التغطيات التأمينية، الخ 11يمكن أن يؤدي هذا إلى مستويات إنفاق مماثلة لمستويات مختلفة إلى حد كبير من الاحتياجات – وهي حقيقة غاب عنها تحليل النظام للبيانات البديلة. في المثال أعلاه ، تم إعطاء المرضى السود درجات مخاطر غير صحيحة وتم استبعادهم من برامج الرعاية الإضافية بمعدل أكبر.

من المهم أن يقوم مصممو البرامج بالتحقيق بدقة في قرارات الوكيل والإبداع المتغير ، مع ضمانات لتقييم ما إذا كان هذا الاستخدام يعكس الحقائق الحية لأصحاب المصلحة لديك. علاوة على ذلك ، تؤكد هذه الأمثلة على الحاجة إلى تمثيل متنوع ، فضلاً عن المهارات والتدريب بين المهندسين وصناع القرار حول النتائج المحتملة غير المقصودة لإنشاء الخوارزمية.

-شكوك السوق-

أخيرًا ، أفاد 55٪ من المستجيبين بأن شكلين أو أكثر من حالات عدم اليقين في السوق هما مصدر قلق كبير أو شديد. على الرغم من احتلاله المرتبة الثالثة كفئة ، يبدو أن مجال الاهتمام هذا له صلة كبيرة بسلوكيات الاستثمار: من بين المستجيبين الذين يتوقعون إبطاء تبني الذكاء الاصطناعي ، أفاد 71٪ بوجود شكلين مهمين على الأقل في السوق.

-مخاوف عدم اليقين في السوق من المستجيبين-

المخاوف في هذه الفئة واسعة النطاق ، من الرأي العام إلى المشهد التنظيمي الغامض. أشار 57 بالمائة من المشاركين في الاستطلاع إلى مخاوف كبيرة أو شديدة بشأن القواعد واللوائح الجديدة والمتغيرة لتقنيات الذكاء الاصطناعي ، مثل خصوصية البيانات والتعرف على الوجه وشفافية القرار. 12 أشار 52 في المائة إلى مخاوف كبيرة أو شديدة بشأن رد فعل العملاء العنيف إذا اكتشفوا وجود عيب أو انتهاك للخصوصية في تطبيق الذكاء الاصطناعي. يقلق أكثر من النصف بقليل من التصورات السلبية للموظفين عند استخدام أنظمة الذكاء الاصطناعي.

⁃ كيف تتعامل مع المخاطر الكامنة في تبني الذكاء الاصطناعي؟

قد تبدو الدرجة الهائلة من التحول والإمكانيات الهائلة للمخاطر التي يوفرها الذكاء الاصطناعي أمرًا شاقًا – فقد صرح أربعة فقط من كل 10 من المشاركين في الاستطلاع بالاستعداد الكامل. 13 نظرًا للتطور السريع لتقنيات الذكاء الاصطناعي ، فمن المؤكد أن المستوى الطبيعي من عدم اليقين سيستمر لبعض الوقت. ومع ذلك ، يمكن للمنظمات أن تنظر إلى بعض الأطر الحالية – والدروس المستفادة من الاضطرابات التكنولوجية السابقة – للمساعدة في التغلب على أوجه عدم اليقين اليوم.

من الفئات الثلاث للقلق حللت سابقا، وهما من them- الثقة و الأخلاق -land في المقام الأول ضمن موضع المنظمة عن نطاق السيطرة. كلاهما يشير في النهاية إلى مسألة ما إذا كان استخدام منظمة ما للذكاء الاصطناعي جديرًا بالثقة. لزيادة الثقة في الذكاء الاصطناعي ، يجب على المؤسسات التأكد من أن أدواتها وحلولها شفافة وموثوقة وآمنة ، وأن هناك نظامًا للمساءلة. غالبًا ما يتطلب تقليل المخاوف بشأن الاستخدام الأخلاقي تقييم ما إذا كانت الأدوات والحلول مصممة لتحقيق الإنصاف – سواء في النوايا أو في تأثيرها – وأن استخدام البيانات يتبع معايير خصوصية واضحة. لمساعدة المؤسسات على تأطير مخاطر الذكاء الاصطناعي ، يجب على القادة تطوير ضمانات تشمل معالجة الأبعاد الرئيسية الستة الموضحة أدناه في الشكل 6.

تنبع مخاوف الثقة والأخلاق بشكل أساسي من مسألة ما إذا كان استخدام منظمة ما للذكاء الاصطناعي جديرًا بالثقة. تعتمد قدرة المؤسسة على تنفيذ هذا الإطار إلى حد كبير على الإدارة المسؤولة للبيانات ، ومعايير الحوكمة القوية ، والتأكد من وجود مجموعة متنوعة من وجهات النظر في الغرفة لتحديد الافتراضات الضارة والتحدث عنها ضدها.

توصية:

التركيز على إدارة البيانات والحوكمة. تعد قدرة المؤسسة على العمل بمهارة مع البيانات أمرًا بالغ الأهمية لجودة الذكاء الاصطناعي وإمكانية شرحه ، مما يزيد الثقة في الذكاء الاصطناعي واستعداد القادة لإدارة آثاره الأخلاقية. حتى اليوم ، لا تزال 40٪ من المؤسسات التي شملها الاستطلاع تبلغ عن مستويات “منخفضة” أو “متوسطة” من التطور عبر مجموعة من ممارسات البيانات ، وحدد ما يقرب من ثلث المديرين التنفيذيين التحديات المتعلقة بالبيانات من بين أهم ثلاثة مخاوف تعيق مبادرات الذكاء الاصطناعي لشركاتهم. 14 عندما يتعلق الأمر بالحوكمة ، تقوم شركة واحدة فقط من كل خمس شركات شملها الاستطلاع بمراقبة وإدارة وتحسين جودة البيانات بشكل روتيني كجزء من جهود حوكمة البيانات الرسمية ، في حين أن 12٪ فقط من المؤسسات تثق في أن بياناتها محدثة ، و 9٪ فقط نعتقد أن البيانات دقيقة. 15

بدون إدارة البيانات الماهرة وعمليات الحوكمة ، يمكن أن تكافح المنظمة للتخفيف من المخاطر. من خلال التركيز على هذه العناصر التأسيسية اثنين، يمكن للشركات وضع أنفسهم في وضع يسمح لها بنجاح تنفيذ جميع أبعاد ستة من الثقات AI ومعالجة الثقة و الأخلاق المخاوف التي يمكن أن تهدد بتباطؤ اعتمادها.

توصية:

الإصرار على تنوع الفكر. تعتمد قدرة الشركة على تنفيذ الإجراءات الوقائية أيضًا على مجموعة متنوعة من وجهات النظر داخل التكنولوجيا ومجموعات أصحاب المصلحة في الأعمال. تُنشئ قدرات البيانات وعمليات الحوكمة نقاط فحص لتقييم الامتثال لمجموعة متنوعة من المعايير واللوائح ، ولكن بدون تنوع وجهات النظر ، قد لا تظهر الرؤى المهمة. يمكن أن يساعد ضمان تنوع الأفكار في زيادة احتمالية الإبلاغ عن المشكلات المحتملة أثناء مراحل التصميم والمراجعة المناسبة – وليس بعد إطلاق المنتج.

-التنقل في الشكوك في السوق-

من المحتمل أن تتطلب إدارة أوجه عدم اليقين في السوق ، تلك المخاوف التي تتعلق بمزيد من الغموض الخارجي ، مناهج مختلفة. يعد تغيير اللوائح وتقلب الرأي العام والموظفين دائمًا سمة من سمات التحولات التكنولوجية الجديدة والمضطربة. في حين أن الشركات لا يمكنها دائمًا التحكم الكامل في هذه الأشياء ، يمكن للقادة اتخاذ خطوات للتنقل بينها بنجاح أكبر

توصية:

فهم أهمية إدارة التغيير والاتصال. غالبًا ما لا علاقة للرأي العام والموظفين بمدى جودة أداء الذكاء الاصطناعي. يمكن أن تكون إدارة التغيير المدروس والتواصل أمرًا بالغ الأهمية للتغلب على حالة عدم اليقين هذه بنجاح. من المرجح أن يحول الذكاء الاصطناعي العديد من الأدوار التنظيمية في السنوات القادمة ، وسيكون مساعدة العمال والعملاء على تعلم طرق جديدة للعمل والمشاركة أمرًا مهمًا لتحقيق النجاح. مثال على التنفيذ هو في Humana ، التي نشرت وكلاء مساعدة عملاء AI للرد على العديد من المكالمات التي تزيد عن مليون مكالمة والتي غالبًا ما تطغى على وكلاء خدمة العملاء كل شهر. طورت Humana وكلاء الذكاء الاصطناعي للتعامل مع طلبات المعلومات الأساسية ، والتي تمثل 60٪ من حجم المكالمات. هذه ليست الطريقة الوحيدة التي تساعد بها روبوتات الذكاء الاصطناعي المزودة بفهم اللغة الطبيعية – يمكنها أيضًا مساعدة الوكلاء البشريين على جمع المعلومات خلف الكواليس ، التي ساعدت شركاء مركز اتصال هيومانا في توفير المعلومات. من خلال وضع هذه التكنولوجيا الجديدة كمساعد للعاملين في المجال البشري ، فقد خففت من التهديد الذي غالبًا ما يشعر به بعض الموظفين تجاه الذكاء الاصطناعي. ركزت الشركة على استخدام الذكاء الاصطناعي لدعم (وليس استبدال) الموظفين في التواصل ، على سبيل المثال ، التعبير المناسب عن التعاطف ، وكيفية التعاون مع الذكاء الاصطناعي لحل المشكلات. تركزت هذه الجهود على محاولة تعظيم احتمالات النجاح. وحول كيفية التعاون مع الذكاء الاصطناعي لحل المشكلات. تركزت هذه الجهود على محاولة تعظيم احتمالات النجاح. وحول كيفية التعاون مع الذكاء الاصطناعي لحل المشكلات. تركزت هذه الجهود على محاولة تعظيم احتمالات النجاح.16

غالبًا ما يكون فهم تصورات الموظفين والتخطيط لإطلاق التكنولوجيا التي تخفف من طبيعتها التخريبية أمرًا بالغ الأهمية للمشاركة. ضع في اعتبارك العمل مع فرق الاتصال والتسويق للتأكد من أن كل من الموظفين والعملاء يفهمون ويرون القيمة بشكل كافٍ في الطريقة التي يتم بها نشر الذكاء الاصطناعي. يمكن أن يساعد استخدام نهج يركز على المستخدم – بدلاً من فرض سلوكيات جديدة لتحقيق وفورات في التكاليف – في تجنب رد الفعل العكسي.

توصية:

توقع القدرات اللازمة للاستجابة للتحولات التنظيمية. عندما أنشأ البرلمان الأوروبي والاتحاد الأوروبي اللائحة العامة لحماية البيانات (GDPR) في عام 2016 ، كان أمام الشركات عامين لفهم اللوائح والامتثال لها قبل تنفيذها في عام 2018. في الأشهر التي سبقت دخول اللائحة العامة لحماية البيانات حيز التنفيذ ، كانت الصناعات التي كان لديها وجد تاريخ في إدارة اللوائح ، مثل التمويل ، نفسه مستعدًا جيدًا نسبيًا. 17لقد قامت هذه الشركات بالفعل ببناء المهارات والقدرات التشغيلية للاستجابة للتغييرات المطلوبة المتعلقة بالامتثال. مع تزايد المناقشات حول سياسة الذكاء الاصطناعي الجديدة ولوائح التكنولوجيا المحتملة ، حان الوقت الآن لاكتساب هذه القدرات حتى تكون مؤسستك جاهزة للمشاركة في إنشاء اللوائح والاستجابة لها عند سنها.

-استنتاج-

يتمتع الذكاء الاصطناعي بإمكانات تحويلية هائلة. يتفق أكثر من 90٪ من المديرين التنفيذيين في مجال التكنولوجيا الذين شملهم الاستطلاع على أن الذكاء الاصطناعي سيكون في قلب الثورة التكنولوجية القادمة ، وأنه سيتولى مهام عادية ، مما يتيح للناس مزيدًا من الحرية لمتابعة المزيد من الأعمال الإبداعية واللعب. 18

قد تكون القيمة المحتملة للذكاء الاصطناعي بالنسبة لعالمنا عالية جدًا بحيث يتعذر على قادة الأعمال تقليصها بسبب كثرة التحذيرات. من خلال التطوير المدروس للقدرات والعمليات ، يمكن للقادة التخفيف من المخاطر والتحديات التي يخشاها الكثيرون. يمكن أن يؤدي اتخاذ هذه الخطوات الآن إلى إعداد مؤسستك للحصول على ميزة تنافسية كبيرة في المستقبل.

-المنهجية-

يعتمد هذا التحليل على البيانات التي تم جمعها من 2737 مديرًا تنفيذيًا في مجال تكنولوجيا المعلومات وخط الأعمال بين أكتوبر وديسمبر 2019. وقد تم تمثيل تسعة بلدان ، وتبنت جميع الشركات المشاركة تقنيات الذكاء الاصطناعي. طُلب من المستجيبين استيفاء أحد المعايير التالية: تحديد الإنفاق على تكنولوجيا الذكاء الاصطناعي و / أو الموافقة على استثمارات الذكاء الاصطناعي ؛ تطوير استراتيجيات تكنولوجيا الذكاء الاصطناعي ؛ إدارة أو الإشراف على تنفيذ تكنولوجيا الذكاء الاصطناعي ؛ العمل كخبير في موضوع تكنولوجيا الذكاء الاصطناعي ؛ أو اتخاذ قرارات بشأن تقنية الذكاء الاصطناعي أو التأثير عليها.

كان سبعة وأربعون في المائة من المديرين التنفيذيين لتكنولوجيا المعلومات ، والباقي من رجال الأعمال التنفيذيين. سبعون في المائة كانوا مديرين تنفيذيين من المستوى ج: رؤساء تنفيذيون ورؤساء وملاك (35٪) ؛ مدراء تقنية المعلومات ومدراء تقنية المعلومات (32٪) ؛ وغيرهم من المديرين التنفيذيين على مستوى ج (3٪).

لفهم المكان الذي تنشأ فيه أكبر مخاوف المؤسسات بشكل أكثر دقة ، طلبنا من المشاركين في الاستطلاع تصنيف قائمة الاهتمامات على مقياس من “الحد الأدنى” إلى “المتطرف”. نحن تجميع المخاطر المدرجة في ثلاث فئات هي: الثقة ، الأخلاق ، و عدم اليقين السوق .

المصدر/

( بينا Ammanath ، ديفيد R. نوفاك ، سيري أندرسون ، أبها كولكارني)

هذا الموقع يستخدم Akismet للحدّ من التعليقات المزعجة والغير مرغوبة. تعرّف على كيفية معالجة بيانات تعليقك.