أخبار عاجلة
العلماء يعثرون على نظام نجمي قد ينفجر قريبا -
هل تريد تغيير رقمك بحساب «واتس آب»؟ تابع الخطوات -
«الوضع الآمن» لحل مشكلات التباطؤ في «أندرويد» -

مليار دولار لمواجهة المخاطر الأخلاقية للذكاء الاصطناعي

مليار دولار لمواجهة المخاطر الأخلاقية للذكاء الاصطناعي
مليار دولار لمواجهة المخاطر الأخلاقية للذكاء الاصطناعي

عندما يحذرنا أحد أكثر معاهد التقنية تأثيرًا في العالم من خلل كبير محتمل في تقنية حديثة، فمن واجبنا أن نصغي ونأخذ تحذيره على محمل الجد.

وخلال الأسبوع الحالي، أعلن مسؤولو معهد ماساتشوستس للتقنية عن دعم مبادرة بقيمة مليار دولار لمواجهة صعود الذكاء الاصطناعي، تشمل إجراء أبحاث عميقة ومتنوعة الاختصاصات حول مستقبل التعلم العميق للآلات وتنامي مخاطرها الأخلاقية المحتملة، بالإضافة لإعادة هيكلة تنظيم المعهد الداخلي حيال هذا المشروع.

بارقة أمل

وقال رئيس معهد ماساتشوستس للتقنية، ليو ريف، في مقال نشره في موقع المعهد «بما أن الحوسبة تعيد تشكيل عالمنا، فإن معهد ماساتشوستس للتقنية يعتزم المساعدة في التأكد من أن ذلك يتم لمصلحة الجميع، بصورة تجاري هذا التحدي، ما دفعنا لإعادة هيكلة تنظيم المعهد.»

وفي هذا الإطار؛ تبرع الرئيس التنفيذي لشركة بلاكستون جروب الأمريكية، ستيفن شوارزمان، بمبلغ 350 مليون دولار، لتمويل جزء من عملية إعادة التنظيم.

إطلاق كلية جديدة

وأشار معهد ماساتشوستس للتقنية إلى أنه سيستخدم أموال التبرعات، للمساعدة في إطلاق كلية إم آي تي شوارزمان للحوسبة، لتعليم الطلاب في جميع التخصصات على الاستخدام المسؤول للذكاء الاصطناعي وتقنيات الحوسبة وتطويرها، بهدف الوصول لعالم أفضل. بالإضافة لاستحداث 50 وظيفة في الهيئة التدريسية؛ سواء في الكلية الجديدة أو في تخصصات أخرى ضمن المعهد.

ماذا ينتظرنا؟

ومن شأن الذكاء الاصطناعي الأخلاقي أن يجعل عالمنا أكثر أمانًا، ويساهم في تفرغ الكفاءات العلمية والفكرية للجوانب الإبداعية، ويحررهم من أداء المهام اليدوية الرتيبة، وبالمقابل يمكن للذكاء الاصطناعي غير الأخلاقي أن يقلب سوق الوظائف، ويزيد التفاوت الاقتصادي، ويقود إلى أدوات حرب جديدة مدمرة.

ولا يخفي خبراء الذكاء الاصطناعي مخاوفهم من تنامي اعتماد البشرية على خوارزمياته وتطوير التعلم العميق للآلات ووصوله إلى قدرات غير مسبوقة من السيطرة والتلاعب بالمجتمعات، على الرغم من إيجابيات الذكاء الاصطناعي المتطور وقدرته على تحسين العالم ومكافحة الأمراض ورفع مستويات الرعاية الصحية وتخليصنا من مهام عبودية تهيمن على حياتنا.

التعلم العميق للآلات



ولطالما كانت احتمالية تطوير الذكاء الاصطناعي لآليات تفكير خاصة للوصول إلى مراحل متقدمة تشابه البشر مثار جدل في أوساط العلماء والفلاسفة وعدها كثيرون ضربًا من شطحات الخيال العلمي لنصل في عصرنا الراهن إلى إرهاصات أولى لهذا التوجه الجديد للآلات.

ويتطلب التعلم العميق للآلات بنية معقدة تحاكي الشبكات العصبونية للدماغ البشري، بهدف فهم الأنماط، حتى بوجود ضجيج، وتفاصيل مفقودة، وغيرها من مصادر التشويش. ويحتاج التعليم العميق للآلات، كمية كبيرة من البيانات وقدرات حسابية هائلة، توسع قدرات الذكاء الاصطناعي للوصول إلى التفكير المنطقي، ويكمن ذلك في البرنامج ذاته؛ فهو يشبه كثيرًا عقل طفل صغير غير مكتمل، ولكن مرونته لا حدود لها.

مستقبل مخيف

وبث عدد من المهندسين والمستثمرين والباحثين وصناع القرار هواجسهم من الذكاء الاصطناعي خلال مؤتمرٍ حول مجاراة الذكاء الاصطناعي للإنسان، انعقد في العاصمة التشيكية براغ، في أغسطس/آب الماضي، ليعبر بعضهم عن قلقه من سيطرة الروبوتات على الوظائف في سوق العمل ما يساهم في رفع نسبة البطالة حول العالم. وسبق أن سلط خبراء، الضوء على انعكاسات استثمار إمكانيات الذكاء الاصطناعي على سوق العمل في مختلف دول العالم؛ مؤكدين على أن الأعوام القليلة المقبلة ستشهد اختفاء حوالي 47% من الوظائف في الولايات المتحدة وحدها بسبب الذكاء الاصطناعي، وقد يصل اضمحلال الوظائف إلى مليون وظيفة قبل حلول العام 2026.

ويشير خبراء إلى احتمال أن تشهد البشرية مستقبلًا ثورة روبوتية، أو استخدام الذكاء الاصطناعي لإيذاء البشر، واستعمال المنظمات الإجرامية والإرهابية لتطبيقاته الخطيرة، بتطويعها لأغراض شريرة وتنفيذ عمليات كبيرة تتسبب بضرر بالغ، من خلال حرب رقمية أو تسخير الذكاء الاصطناعي للتحكم بالروبوتات والطائرات العسكرية دون طيار. وغيرها من المخاوف.

الخطر يكمن في سوء الاستخدام

في حين يرى آخرون أن الخطر لا يعود للذكاء الاصطناعي بحد ذاته، بل يكمن في سوء الاستخدام؛ وقال الباحث هافا سيجلمان، مدير برامج تقنية الأنظمة الميكروية في وكالة مشاريع بحوث الدفاع المتطورة (داربا) التابعة لوزارة الدفاع الأمريكية، لمرصد المستقبل، إن «جميع أنواع التقنية قابلة لسوء الاستخدام. أظن أن الأمر بيد من يستخدمها. ولا وجود لتقنية سيئة، بل أشخاص سيئون.»

وقال عالم أبحاث الذكاء الاصطناعي في شركة فيسبوك، توماس ميكولوف، في حديث لمرصد المستقبل «عند توفر اهتمام كبير وتمويل ضخم حول شيء ما، يظهر أشخاص مستعدون لإساءة استخدامه. وما يثير القلق هو إقدام بعض الأشخاص على بيع الذكاء الاصطناعي حتى قبل صنعه، مدَّعين معرفة ماهية المشكلة التي سيحلها.»

وعلى الرغم من المستقبل الواعد للذكاء الاصطناعي المتقدم، إلا أنه يظل مقرونًا بجملة من الإشكاليات والأسئلة الأخلاقية، وربما لا نعرف جميع الأسئلة التي يجب الإجابة عنها حتى الآن.

ويشكل مشروع معهد ماساتشوستس للتقنية الرامي لمواجهة هذه المخاطر المحتملة بارقة أمل على وجود مؤسسة بارزة واحدة على الأقل تأخذ مسؤوليتها عن رسم مسار أخلاقي في المستقبل المجهول للذكاء الاصطناعي، على محمل الجد.

اشترك فى النشرة البريدية لتحصل على اهم الاخبار بمجرد نشرها

تابعنا على مواقع التواصل الاجتماعى

التالى تلسكوبان يرصدان موجات غريبة.. هل هي من كائنات فضائية؟