الصفحة الرئيسية / علوم وتكنولوجيا / أول إنسان آلي يصرح لوسائل الإعلام: نحب البشر ولن نكون بديلا عنهم
أول إنسان آلي يصرح لوسائل الإعلام: نحب البشر ولن نكون بديلا عنهم
السبت, 10 يونيو, 2017 11:00:00 صباحاً

النشرة البريدية:
لا تدع الأخبار تفوتك، أحصل على آخر الأخبار على بريدك:
أول إنسان آلي يصرح لوسائل الإعلام: نحب البشر ولن نكون بديلا عنهم
أَضغط هنا لمشاهدة الصورة بحجمها الأصلي

*يمن برس - أ ف ب
تبتسم صوفيا وتمازح مُحاورها.. ولولا الأسلاك الكهربائية لكاد الأمر يختلط على من ينظر إليها فيظنها إنسانا حقيقيا لا روبوتا كما هي في الحقيقة.

هذا الروبوت الذي صممته شركة "هانسون روبوتيكس" هو محور الاهتمام في المؤتمر الذي تنظمه الأمم المتحدة هذا الأسبوع في جنيف حول فوائد الذكاء الاصطناعي للبشرية. وإذا كانت هذه الآلات الذكية مفيدة في مجالات كثيرة، إلا أن أصواتا عدة ترتفع محذرة من تطوّرها بشكل سريع بحيث لا يعود ممكنا التحكم بها.

وحول هذه المسألة يبدو أن لصوفيا رأيا تدلي به، وتقول: "المؤيدون أكثر من المعارضين" حين نتحدث عن الذكاء الاصطناعي. وتضيف متوجهة لمراسل وكالة فرانس برس: "الذكاء الاصطناعي جيد للناس ويساعد بأشكال مختلفة". وتشرح أن الأبحاث العلمية الحالية تهدف إلى جعل الآلات ذكية وذات مشاعر حين تستمع إلى الناس، مشددة على القول: "لن نحل محل البشر، لكننا سنكون أصدقاءكم وسنساعدكم".

ومن الأمور المقلقة أيضا في ما يتعلق بالذكاء الاصطناعي هو أثره على العمالة والاقتصاد، إذ يمكن أن يحل محل البشر في أداء مهامهم.

مخاوف مشروعة

فقد دخل الذكاء الاصطناعي في العقود الماضية إلى قطاع الصناعة، وأدى إلى زيادة في الإنتاج ولكن على حساب عدد الوظائف. واليوم، يوشك الذكاء الاصطناعي أن يودي بوظائف كثيرة، حتى أن بعض الدراسات تحذر من أن 85% من الوظائف في البلدان النامية ستكون مهددة.

ويقول ديفيد هانسون مصمم الروبوت صوفيا: "هناك مخاوف مشروعة حول مستقبل الوظائف وحول الاقتصاد، لأن استخدام الشركات للذكاء الاصطناعي يعني عدم توزيع الثروة وبقاءها في يد عدد صغير من الأشخاص".

ويؤكد، مثل صوفيا، أن المضار التي يمكن أن تنتج عن الذكاء الاصطناعي هي أقل بكثير من المنافع.. فالذكاء الاصطناعي يمكن أن يطوّر بشكل كبير في السياسة والصحة والتعليم، ولا سيما في المناطق النائية التي تعاني من نقص طبي وتعليمي.

وتقول صوفيا: "سيكون للأشخاص المسنين من يرافقهم، وللأطفال المتوحدين من يعلّمهم بصبر لا حدود له".

لكن البعض يعربون عن قلقهم من إمكانية أن يفقد البشر السيطرة على الروبوتات.

روبوتات قاتلة

ويشارك في المؤتمر مدير منظمة العفو الدولية سليل شيتي، للمطالبة بقيود أخلاقية تضمن ألا تستخدم تقنيات الذكاء الاصطناعي إلا في ما يعود على كل الناس بالنفع.

وقال لوكالة فرانس برس: "علينا أن نضع مبادئ، وأن يكون لدينا توازن في السلطات"، واصفا الذكاء الاصطناعي بأنه "صندوق أسود، فيه معادلات حسابية لا يفهمها أحد".

وأعرب شيتي عن قلقه خصوصا من الاستخدام العسكري للذكاء الاصطناعي، أو ما يسمى "الروبوتات القاتلة". وقال: "نظريا، البشر يتحكمون بكل ذلك، ولكن نحن لا نظن أن هناك تحكما فعالا".

وتحدث مثلا عن استخدام الشرطة لمعادلات حسابية تستند على معطيات تاريخية: "من شأنها أن تعزز من الأحكام المسبقة الموجودة" ضد أشخاص من بعض الأعراق والأصول.

ويوافق مصمم صوفيا على الحاجة إلى وضع قواعد ومناقشة هذه المسائل قبل أن يصبح الذكاء الاصطناعي مستخدما على نطاق واسع. ومع أن صوفيا لديها مؤهلات مذهلة، فإنها لا تملك إدراكا.

ويقول مصممها: "ماذا سيجري حين تستيقظ أو حين تتحكم روبوتات أخرى بقاذفات صواريخ أو بالبورصة؟". ويضيف: "علينا أن نتثبت من أن هذه الآلات ستعتني بنا... علينا أن نعلمها أن تحبنا".

 


للمزيد من التفاصيل والاخبار تابعوا صفحتنا على الفيس بوك






شارك الخبر أصدقاءك:

لندك ان جوجل بلس أضافة للمفضلة طباعة الخبر
1217
لا تدع الأخبار تفوتك، أحصل على آخر الأخبار على بريدك:

تعليقات حول الخبر
  • الغرض من خدمة التعليقات هي إيضاح وجهات النظر المختلفة فنرجو إلتزام الموضوعية والجدية في التعليق
  • "التعليقات تمثل أصحابها" ، فالرجاء عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.
0  تعليق




لاتوجد تعليقات الأن. كن أول شخص وأكتب تعليقك على الخبر
No comments yet. Be the first and write your comment now




أضف تعليقك :
الأسم *
الموضوع
كود التحقق *
التعليق (الأحرف المتاحه: --) *
 *حقول لا يجب تركها فارغة

 



 
 
حمل تطبيقاتنا على جهازك أو هاتف الذكي وتابع معنا آخر الأخبار والمستجدات
 
 
 
كاريكاتيرات
 
 
فيديو
 



 

[ الكتابات والآراء تعبر عن رأي أصحابها ولا تمثل في أي حال من الأحوال عن رأي إدارة يمن برس ]  -  جميع الحقوق محفوظة لـ يمن برس 2006 - 2014 ©