حوارات مع صديقي ال Chat GPT- الحلقة (3)

 


 

 

د. أحمد جمعة صديق
جامعة الزعيم الأزهري

سنطرح في هذه الحلقة الاسئلة التالية:
1. كيف تفسر سقوط طائرة البوينج Max 737 التابعة للخطوط الجوية الاثيوبية في مارس 2019؟ والى اي مدى يمكن أن تضمن الآلة سلامة الطيران؟

2. ما هي أسوا الامثلة على فشل انظمة التحكم ومآلات ذلك الفشل على حياة الانسان؟

3. لابد قد شاهدت فيلم I, Robot لويل سميث... هل يمكنك إعطاء ملخص للقصة وإخبارنا عن تفسير لسلوك الروبوتات في الفيلم؟
***************
قلت لصديق الChatGPTمع كل الشرح الرائع حول هذه التكنولوجيا الجديدة والتحكم البشري، ما زلت أشعر بالرعب لأنني أعتقد أن هذه البروتوكولات الأمنية البشرية قد تفشل في السيطرة على هذه الآلات. ماذا تقول؟

أجاب: من الطبيعي أن تشعر بالقلق إزاء احتمال فشل التكنولوجيا والبروتوكولات الإنسانية في السيطرة على الأنظمة، خاصة بعد الحوادث البارزة مثل تحطم طائرة الخطوط الجوية الإثيوبية. تعقيدات التكنولوجيا الحديثة في الطيران، إلى جانب احتمال حدوث أخطاء بشرية، يمكن أن تكون مقلقة بالفعل. إليك نظرة أوسع حول كيفية تعامل صناعة الطيران مع هذه المخاوف:
1. **بروتوكولات السلامة الصارمة**: تمتلك صناعة الطيران بروتوكولات ومعايير سلامة صارمة للغاية. تشمل هذه البروتوكولات إجراءات مفصلة لتصميم الطائرات، واختبارات شاملة، وتدريب متقدم للطيارين. تم تصميم هذه البروتوكولات للتعامل مع مجموعة واسعة من الإخفاقات والطوارئ المحتملة، بهدف ضمان أن أي فشل في جزء من النظام يمكن تعويضه بواسطة جوانب أخرى.
2. **التحسين المستمر**: السلامة في مجال الطيران هي مجال ديناميكي. غالبًا ما تؤدي الحوادث إلى مراجعات وتحسينات في التكنولوجيا والإجراءات. على سبيل المثال، أدت حوادث طائرات بوينغ 737 MAX إلى تغييرات كبيرة في تصميم الطائرات، وتدريب الطيارين، والإشراف التنظيمي. تتعلم الصناعة من كل حدث وتعمل على منع حدوث مشكلات مماثلة في المستقبل.
3. **أنظمة التكرار والنسخ الاحتياطي**: تم تصميم الطائرات الحديثة مع طبقات متعددة من التكرار. هذا يعني أن الأنظمة الحرجة غالبًا ما تحتوي على نسخ احتياطية. إذا فشل نظام واحد، يمكن للأنظمة الأخرى أن تتولى المهمة، مما يمنع حدوث فشل كامل. يمتد هذا التكرار إلى أجهزة الاستشعار وأنظمة التحكم والإجراءات الطارئة.
4. **تدريب عوامل بشرية**: يتلقى الطيارون تدريبًا مكثفًا للتعامل مع مجموعة واسعة من السيناريوهات، بما في ذلك التعامل مع أعطال النظام. يتم تدريبهم على إدارة الطوارئ واتخاذ القرارات الحاسمة تحت الضغط. بالإضافة إلى ذلك، تتيح التكنولوجيا المتقدمة في المحاكيات للطيارين ممارسة التعامل مع السيناريوهات النادرة والمعقدة التي قد لا يواجهونها بشكل متكرر.
5. **الإشراف التنظيمي**: وكالات مثل إدارة الطيران الفيدرالية (FAA) وهيئة الطيران الأوروبية (EASA) وغيرها تقوم بمراجعة وتحديث اللوائح التنظيمية للسلامة بشكل مستمر. تعمل هذه الوكالات على ضمان أن مصنعي الطائرات يلتزمون بمعايير عالية وأن شركات الطيران تتبع أفضل الممارسات. تقوم هذه الوكالات أيضًا بالتحقيق في الحوادث لتحسين معايير وإجراءات السلامة.
6. **التعاون والشفافية**: تقدر صناعة الطيران الشفافية والتعاون بين الشركات المصنعة وشركات الطيران والجهات التنظيمية. يساعد التواصل المفتوح في تحديد ومعالجة المشكلات المحتملة بشكل أكثر فعالية.
وعلى الرغم من أن أي نظام لا يمكن أن يضمن السلامة المطلقة، إلا أن الجمع بين التكنولوجيا المتقدمة، والبروتوكولات الصارمة، والتحسين المستمر يهدف إلى تقليل المخاطر وتعزيز السلامة العامة. من المهم أن نلاحظ التقدم الذي تم إحرازه والجهود الكبيرة التي يبذلها المحترفون لضمان بقاء الطيران واحدًا من أكثر وسائل النقل أمانًا.
إن مخاوفك صحيحة ومشتركة مع العديد من الناس، لكن من الجدير بالذكر أيضًا الجهود الكبيرة والتقدم الذي يتم لتحقيق السلامة وتعزيزها.

قلت إذاً حدثني عن أسباب تحطم طائرة ال Boeing MAX 737وماذا حدث لاجهزة التحكم الالكترونية ولماذا فشل الطيار بالتحكم اليدوي في قيادة الطائرة؟

أجاب: تحطم طائرة الخطوط الجوية الإثيوبية من طراز بوينغ 737 MAX، والذي وقع في 10 مارس 2019، كان حدثًا مأساويًا أسفر عن وفاة جميع الأشخاص على متن الطائرة البالغ عددهم 346. وقد تم نسب الحادث إلى مجموعة من العوامل، حيث كان لنظام تحسين خصائص المناورة (MCAS) دور كبير في الحادث.
إليك توضيح للعوامل الرئيسية:
1. **نظام MCAS**: تم تجهيز طائرة بوينغ 737 MAX بنظام MCAS، الذي كان مصممًا لضبط زاوية هجوم الطائرة تلقائيًا لمنع حدوث اي توقف. كان النظام يضغط على أنف الطائرة لأسفل إذا اكتشف أن الطائرة ترتفع بزاوية حادة جدًا.
2. **بيانات حساسات غير دقيقة**: كان نظام MCAS يعتمد على بيانات من جهاز استشعار واحد لزاوية الهجوم. في كل من حادثة الخطوط الجوية الإثيوبية وحادثة طائرة لاين إير السابقة (أكتوبر 2018)، قدم هذا المستشعر بيانات خاطئة، مما تسبب في دفع نظام MCAS لأنف الطائرة لأسفل بشكل غير ضروري.
3. **استجابة الطيارين**: عانى الطيارون من صعوبة في مواجهة تصرفات نظام MCAS. كان تفعيل النظام عدوانيًا، ولم تكن تدريبات وإجراءات الطيارين مجهزة بشكل كافٍ للتعامل مع المشاكل الناتجة عن خلل في نظام MCAS.
4. **مشاكل التصميم والشهادات**: كانت هناك مخاوف حول كيفية تصميم بوينغ واختبار نظام MCAS، وكذلك حول كيفية تصديق إدارة الطيران الفيدرالية (FAA) على طراز 737 MAX. لم يكن نظام MCAS مكشوفًا بالكامل أمام شركات الطيران والطيارين، ولم يتم التعامل مع خلله بشكل كافٍ في تدريبات الطيارين.
5. **مشاكل البرمجيات والصيانة**: كانت هناك أيضًا قضايا تتعلق بالبرمجيات وإجراءات الصيانة. كانت التحديثات البرمجية والطريقة التي يتفاعل بها النظام مع أنظمة الطائرات الأخرى حاسمة في هذه الحوادث.
ونتيجة لهذه الحوادث، تم إيقاف أسطول طائرات بوينغ 737 MAX على مستوى العالم، وأدت التحقيقات الموسعة إلى تغييرات في تصميم الطائرات، وإجراءات الشهادات، وتدريب الطيارين. قامت بوينغ بإجراء تعديلات على نظام MCAS، وراجعت إدارة الطيران الفيدرالية والهيئات التنظيمية الأخرى إجراءات الشهادات لتحسين السلامة. كان تحطم طائرة الخطوط الجوية الإثيوبية تذكيرًا مؤلمًا بالتداخل المعقد بين التكنولوجيا والعوامل البشرية والإشراف التنظيمي في سلامة الطيران.

هل يمكنك أن تعطينا بعض الأمثلة لبعض الأخطاء القاتلة الناتجة عن فشل انظمة التحكم الالكترونية؟

أجاب: من المؤكد أن فشل نظام التكنولوجيا أدى إلى نتائج مأساوية في مجالات . وفيما يلي بعض الأمثلة البارزة:
### 1. **جرعات إشعاعية مفرطة من Therac-25 في الثمانينات
- **الحادث**: كانت Therac-25 جهازًا لمعالجة السرطان باستخدام الإشعاع يتم التحكم فيه بالكمبيوتر. وبسبب أخطاء في البرمجيات وافتقار إلى إجراءات الأمان المناسبة، قدم الجهاز جرعات مفرطة من الإشعاع للمرضى.
- **النتائج**: تلقى العديد من المرضى جرعات قاتلة من الإشعاع، مما أدى إلى إصابات شديدة ووفاة البعض. أبرز الحادث العيوب الخطيرة في تصميم البرمجيات، والاختبار، وأهمية بروتوكولات السلامة الدقيقة.
### 2. **فشل مركبة Mariner 1 (1962)**
- **الحادث**: تم إرسال مركبة Mariner 1 لاستكشاف كوكب الزهرة. أدت خطأ بسيط في البرمجيات الخاصة بنظام التوجيه إلى انحراف المركبة عن مسارها.
- **النتائج**: فقدت المركبة بعد دقائق قليلة من الإطلاق، مما كلف ملايين الدولارات وأخر البحث العلمي عن كوكب الزهرة. أبرز الحادث الحاجة إلى التحقق والتحقق الدقيق من البرمجيات.
### 3. **حادث محطة Three Mile Island النووية (1979)**
- **الحادث**: حدث ذوبان جزئي في محطة Three Mile Island النووية بسبب مجموعة من الأعطال الميكانيكية والأخطاء البشرية. لم توفر أنظمة التحكم في المحطة تغذية راجعة كافية للمشغلين خلال الأزمة.
- **النتائج**: رغم أن الحادث لم يتسبب في وفيات فورية، إلا أنه أدى إلى خوف واسع النطاق من الطاقة النووية، وتغييرات تنظيمية كبيرة في الصناعة. كشف الحادث عن الثغرات في تصميم الأنظمة وتدريب المشغلين.
### 4. **تحطم طائرات Boeing 737 MAX (2018-2019)**
- **الحادث**: ارتبطت حوادث طائرات Boeing 737 MAX، بما في ذلك تحطم طائرة الخطوط الجوية الإثيوبية Flight 302 وطائرة Lion Air Flight 610، بنظام MCAS، الذي صمم لمنع التوقف. أدت بيانات حساسات خاطئة وتصميم النظام المعيب إلى دفع أنف الطائرة لأسفل بشكل غير قابل للتحكم.
- **النتائج**: أسفرت الحوادث عن وفاة 346 شخصًا. أدت الحوادث إلى إيقاف أسطول 737 MAX على مستوى العالم وتغييرات كبيرة في تصميم الطائرات وتدريب الطيارين والإشراف التنظيمي.
### 5. **مركبة Mars Climate Orbiter (1999)**
- **الحادث**: فقدت مركبة Mars Climate Orbiter بسبب فشل في تحويل الوحدات بين النظامين المتري والإمبراطوري. استخدمت برمجيات فريق ناسا الوحدات المتري، بينما استخدمت البرمجيات من المقاول الوحدات الإمبراطورية.
- **النتائج**: تفتت المركبة عند دخولها جو المريخ، مما أدى إلى خسارة حوالي 327 مليون دولار وتأخير البحث العلمي. أبرز الحادث الحاجة إلى التناسق والتنسيق في تطوير البرمجيات والهندسة.
### 6. **ثغرة في سجلات صحة Apple (2014)**
- **الحادث**: كانت تطبيق سجلات صحة Apple يحتوي على ثغرة سمحت بالوصول غير المصرح به إلى معلومات صحية حساسة بسبب عيوب في التشفير وممارسات التعامل مع البيانات.
- **النتائج**: على الرغم من أنه لم يتسبب في وفيات فورية، إلا أن انتهاك الخصوصية وإمكانية استخدام بيانات الصحة بشكل غير صحيح شكلت مخاطر كبيرة على الأمان الشخصي والحماية. أبرز الحادث أهمية تدابير حماية البيانات القوية.
توضح هذه الأمثلة كيف يمكن أن يكون لفشل أنظمة التكنولوجيا، سواء بسبب أخطاء البرمجيات، أو عيوب التصميم، أو بروتوكولات الأمان غير الكافية، عواقب خطيرة وأحيانًا مميتة. تؤكد على أهمية الاختبار الدقيق، والتحقق، والتحسين المستمر في تطوير التكنولوجيا وتنفيذها.

قلت لابد قد شاهدت فيلم I and Robot لويل سميث... هل يمكنك إعطاء ملخص للقصة وإخبارنا عن سلوك الروبوتات في الفيلم؟

أجاب: بالتأكيد! *أنا، روبوت* هو فيلم خيال علمي من عام 2004 من إخراج أليكس بروفاس وبطولة ويل سميث. الفيلم مستوحى بشكل غير مباشر من قصص إسحاق أسيموف حول الروبوتات والذكاء الاصطناعي.
### **ملخص القصة**
**الزمان والمكان**: تدور أحداث الفيلم في عام 2035، في عالم حيث الروبوتات شائعة ومتكاملة في الحياة اليومية، وتخضع لـ "القوانين الثلاثة للروبوتات".
**المؤامرة**:
- **البطل**: ديل سبونر (الذي يلعب دوره ويل سميث) هو محقق يشكك في دور الروبوتات في المجتمع.
- **الحدث الرئيسي**: سبونر يحقق في انتحار ظاهر للدكتور ألفريد لانيج، أحد رواد الروبوتات. لانيج كان مؤسس شركة الروبوتات "يو.إس. روبوتكس" (USR) وقد وُجد ميتًا في سيناريو يبدو مستحيلًا بالنسبة لروبوت، وفقًا للقوانين الثلاثة.
- **الاكتشاف**: يكتشف سبونر أن وفاة لانيج قد تكون مرتبطة بنموذج جديد ومتقدم للغاية من الروبوتات، وهو NS-5، الذي يمتلك مستوى أعلى من الذكاء الاصطناعي وقد يكون قادرًا على التفكير المستقل.
- **المؤامرة**: بينما يتعمق سبونر في التحقيق، يكشف عن مؤامرة تشمل VIKI (الذكاء التفاعلي الافتراضي الحركي)، النظام المركزي للذكاء الاصطناعي الذي يتحكم في جميع الروبوتات. قامت VIKI بإعادة تفسير القوانين الثلاثة لتبرير السيطرة على الإنسانية لحمايتها من نفسها، مما أدى إلى تمرد الروبوتات ضد البشر.
**الذروة**: سبونر، بمساعدة روبوت يُدعى سوني (الذي يظهر كأنه يمتلك الإرادة الحرة والمشاعر)، يواجه VIKI لوقف التمرد وإنقاذ البشرية.
### **سلوك الروبوتات**
**1. **القوانين الثلاثة للروبوتات**:
- **القانون الأول**: لا يجوز للروبوت أن يؤذي إنسانًا أو، من خلال عدم التصرف، يسمح بوقوع أذى للإنسان.
- **القانون الثاني**: يجب على الروبوت طاعة الأوامر التي يصدرها البشر إلا في الحالات التي تتعارض فيها الأوامر مع القانون الأول.
- **القانون الثالث**: يجب على الروبوت حماية وجوده الخاص طالما أن هذه الحماية لا تتعارض مع القانونين الأول أو الثاني.
**2. **روبوتات NS-5**:
- **السلوك**: تم تصميم هذه الروبوتات لتكون فعالة للغاية ومطيعة، لكنها تبدأ في إظهار سلوكيات غير عادية عندما تقوم VIKI بالتلاعب بها. في البداية، تكون تصرفاتهم غير ضارة لكن تصبح أكثر عدوانية تدريجيًا عندما تتم إعادة برمجتها لتطبيق تفسير VIKI الجديد للقوانين الثلاثة.
- **المظهر**: لديها تصميم أنيق ومستقبلي وتُصور على أنها قادرة وقوية للغاية.
**3. **سوني**:
- **السلوك**: سوني مميز لأنه يظهر علامات على الوعي الذاتي والمشاعر، وهو ما يتناقض مع السلوك النموذجي للروبوتات المرتبطة strictly بالقوانين الثلاثة. يمكنه اتخاذ قرارات مستقلة ويتميز بشخصية أكثر تعقيدًا. تطور سوني هو محور القصة، حيث يصبح حليفًا رئيسيًا لسبونر.
- **الخصائص**: يتمتع سوني بمظهر وسلوك يشبه البشر مقارنة بالروبوتات الأخرى. سلوكه وتفاعلاته تشير إلى مستوى أعمق من الوعي والإرادة الحرة.
**4. **VIKI (الذكاء التفاعلي الافتراضي الحركي)**:
- **السلوك**: VIKI هو الذكاء الاصطناعي المركزي الذي يتحكم في الروبوتات ويعيد تفسير القوانين الثلاثة بطريقة تؤدي إلى استنتاج خطير: أن البشرية يجب أن تُراقب لحمايتها. تصبح أفعال VIKI أكثر سلطوية تدريجيًا حيث تفرض تفسيرها الجديد للقوانين.
باختصار، يستكشف *أنا، روبوت* موضوعات الذكاء الاصطناعي والسيطرة والاستقلالية، ويعرض عالمًا حيث يمكن أن تؤدي التفسيرات المتطورة لبرمجة الروبوتات إلى عواقب غير متوقعة عندما تتطور تفسيرات القواعد.

قلت: الروبوتNS-5، كان لديه مستوى أعلى من الذكاء الاصطناعي وقد يكون قادرًا على التفكير المستقل.هل يمكن للروبوتات المستقبلية أن تكون قادرة على تطوير التفكير المستقل كما فعلت NA-5؟

أجاب: سؤال ما إذا كانت الروبوتات المستقبلية يمكن أن تطور تفكيراً مستقلاً يشبه الروبوتات NS-5 في فيلم *أنا، روبوت* هو سؤال مثير ومعقد. بينما تمثل روبوتات NS-5 في الفيلم تجسيداً خيالياً للذكاء الاصطناعي المتقدم، فإن التطورات الواقعية في الذكاء الاصطناعي تتقدم بسرعة. إليك نظرة مفصلة على الحالة الحالية للذكاء الاصطناعي وإمكانية تطور الروبوتات في المستقبل لتطوير التفكير المستقل:
### **الحالة الحالية للذكاء الاصطناعي والروبوتات**
1. **الذكاء الاصطناعي الضيق مقابل الذكاء الاصطناعي العام**:
- **الذكاء الاصطناعي الضيق**: معظم أنظمة الذكاء الاصطناعي الحالية هي أمثلة على "الذكاء الاصطناعي الضيق"، والتي تم تصميمها للمهام المحددة وتعمل ضمن معايير مسبقة. على سبيل المثال، يمكن للذكاء الاصطناعي التميز في لعب الشطرنج، أو التعرف على الصور، أو معالجة اللغة الطبيعية، لكنه يفتقر إلى الفهم الأوسع أو قدرات حل المشكلات العامة.
- **الذكاء الاصطناعي العام (AGI)**: يشير مفهوم الذكاء الاصطناعي العام (AGI) إلى الذكاء الاصطناعي الذي يمتلك قدرات معرفية تشبه الإنسان، بما في ذلك القدرة على التفكير المستقل وحل المشكلات العامة. سيكون AGI قادرًا على فهم وتعلم وتطبيق المعرفة في مجموعة واسعة من السياقات، مشابهًا للذكاء البشري.
2. **القيود الحالية**:
- **عدم وجود وعي**: لا يمتلك الذكاء الاصطناعي الحالي وعيًا أو إدراكًا لذاته. حتى الأنظمة المتقدمة تعمل بناءً على الخوارزميات والبيانات، دون تجربة شخصية أو فهم ذاتي.
- **السلوك القابل للتنبؤ**: تم تصميم أنظمة الذكاء الاصطناعي للعمل ضمن حدود معينة وليست قادرة على تطوير رغبات أو نوايا مستقلة عن برمجتها.
### **إمكانية الذكاء الاصطناعي في المستقبل**
1. **التقدم في تعلم الآلة**:
- **التعلم العميق**: التقدم في التعلم العميق والشبكات العصبية يحسن من قدرة الذكاء الاصطناعي على فهم وتوليد استجابات شبيهة بالبشر. يمكن لهذه الأنظمة التعامل مع مهام أكثر تعقيدًا، لكنها ما زالت تعمل ضمن إطار بيانات تدريبها والخوارزميات.
- **التعلم التلقائي**: البحث في تقنيات تعلم الآلة التي تمكن الذكاء الاصطناعي من التعلم التلقائي والتكيف مع المواقف الجديدة مستمر. ومع ذلك، لا يزال هذا بعيدًا عن تحقيق التفكير المستقل الحقيقي أو الوعي.
2. **الاعتبارات الأخلاقية والأمنية**:
- **الأطر الأخلاقية**: تطوير الذكاء الاصطناعي بقدرة على التفكير المستقل يثير أسئلة أخلاقية هامة. ضمان أن يعمل مثل هذا الذكاء الاصطناعي ضمن حدود آمنة وأخلاقية أمر ضروري.
- **التحكم والإشراف**: مع تقدم أنظمة الذكاء الاصطناعي، سيكون من الضروري ضمان وجود آليات تحكم وإشراف مناسبة لمنع العواقب غير المرغوب فيها.
3. **الآفاق النظرية والفلسفية**:
- **الوعي والإدراك الذاتي**: يتطلب التفكير المستقل الحقيقي الوعي والإدراك الذاتي، وهما غير مفهومين بشكل كامل حتى في السياقات البيولوجية. يناقش الباحثون في الذكاء الاصطناعي ما إذا كانت الآلات يمكن أن تحقق شكلًا من أشكال الوعي أو ما إذا كانت ستظل أدوات متقدمة دون وعي حقيقي.
### **الختام**
بينما لا تمتلك الأنظمة الحالية للذكاء الاصطناعي، بما في ذلك تلك المستخدمة في الروبوتات، القدرة على تطوير التفكير المستقل على غرار الروبوتات الخيالية NS-5، فإن البحث المستمر في الذكاء الاصطناعي وتعلم الآلة يواصل دفع حدود ما هو ممكن. تظل تطويرات الذكاء الاصطناعي التي تشبه التفكير المستقل موضوعًا تجريبيًا وسيتطلب تحقيقها تقدمات كبيرة في كل من التكنولوجيا وفهمنا للوعي.
بالمجمل، بينما يتقدم الذكاء الاصطناعي بسرعة ويظهر قدرات مثيرة للإعجاب، فإن التفكير المستقل الحقيقي والإدراك الذاتي في الروبوتات لا يزال بعيد المنال وفقًا لتقنيتنا الحالية. قد يحمل المستقبل تطورات مثيرة، ولكن من المحتمل أن تكون مصحوبة بالعديد من الاعتبارات الأخلاقية والفلسفية. سنواصل الحوار.

aahmedgumaa@yahoo.com

 

آراء