اليونسكو تصدر إرشادات للذّكاء الاصطناعي التّوليدي في التّعليم والبحث

من أجــل مستقـبل رقمي محـوره الإنسـان

أسامة إفراح

 بالتزامن مع عودة التلاميذ إلى صفوف الدراسة في معظم أرجاء العالم، نشرت منظمة اليونسكو إرشادات وصفتها منظمة الأمم المتحدة بأنّها “الأولى من نوعها بشأن الذكاء الاصطناعي التوليدي في التعليم والبحث”. وتتناول إرشادات اليونسكو ماهية الذكاء الاصطناعي التوليدي وآلية عمله، والجدل الدائر بشأن آثار الذكاء الاصطناعي التوليدي على التعليم، ودوره في اتساع الفجوات الرقمية وفجوات البيانات، داعية إلى وضع أطر سياسات تضمن استخدام الذكاء الاصطناعي على نحو أخلاقي في التعليم والبحث.

 تحت عنوان “إرشادات للذكاء الاصطناعي التوليدي في التعليم والبحث” (in education and research Guidance for generative AI)، نشرت اليونسكو، قبل شهر، تقريرا من 48 صفحة (باللغة الإنكَليزية) حول تنامي استعمال أدوات الذكاء الاصطناعي التوليدي، وبالأخص في التعليم والبحث العلمي، وآثاره المحتملة، والواجب فعله لمواجهتها.
وتهدف إرشادات اليونسكو إلى “التصدي لأوجه الخلل التي أحدثتها هذه التقنيات، وضمان اتباع نُهج تتمحور حول الإنسان”. من أجل ذلك، حثّت اليونسكو الحكومات على “اعتماد وتنفيذ لوائح ملائمة وتزويد المعلمين بالتدريب اللازم في هذا الصدد”.
وفي هذا السياق، قالت المديرة العامة لليونسكو، أودري أزولاي، إنّ الذكاء الاصطناعي التوليدي يمكن أن يمثل فرصة هائلة لتحقيق التنمية البشرية، ولكنه قد يسفر أيضاً عن الأذى والتحيز. وأضافت “لذا لا يمكن إدماجه في التعليم بغياب المشاركة العامة والضمانات واللوائح الحكومية اللازمة”. وقالت إنّ إرشادات اليونسكو ستساعد صنّاع السياسات والمدرسين “على استكشاف إمكانيات الذكاء الاصطناعي على نحو أفضل لتحقيق المصلحة الأساسية لطالبي العلم”.

”أخلقة” استخدام الذّكاء الاصطناعي

 تهدف هذه الإرشادات إلى تعزيز فاعلية الإنسان والإدماج والإنصاف والمساواة بين الجنسين والتنوع الثقافي واللغوي، وأصدرتها المنظمة الأممية بالتزامن مع إطلاق “أسبوع التعلم الرقمي”.
وتدعو اليونسكو إلى “استخدام أخلاقي للذكاء الاصطناعي”، حيث تحدّد إرشادات اليونسكو خطوات رئيسية يجب على الحكومات اتخاذها لتنظيم الذكاء الاصطناعي التوليدي، ووضع أطر سياسات تضمن استخدام الذكاء الاصطناعي على نحو أخلاقي في التعليم والبحث، وكذلك اعتماد معايير على الصعيد العالمي والإقليمي والوطني لحماية البيانات والخصوصية. كما تحدّد أيضاً الحد الأدنى للسن المسموح به لاستخدام أدوات الذكاء الاصطناعي في الفصل الدراسي، وهو 13 عاماً، وتدعو إلى تدريب المعلمين بهذا الخصوص.
يتطرق التقرير أولا إلى ماهية الذكاء الاصطناعي التوليدي وكيف يعمل، حيث يعرض التقنيات والنماذج المتنوعة المتاحة (القسم 1: ما هو الذكاء الاصطناعي التوليدي وكيف يعمل؟). قبل تحديد مجموعة من القضايا الأخلاقية والسياسية المثيرة للجدل حول كل من الذكاء الاصطناعي بشكل عام، والتوليدي على وجه التحديد (القسم 2: الجدل حول الذكاء الاصطناعي التوليدي وانعكاساته على التعليم). ويلي ذلك مناقشة الخطوات والعناصر الأساسية التي يجب فحصها عند السعي إلى تنظيم الذكاء الاصطناعي التوليدي بناءً على نهج يركز على الإنسان، وهو النهج الذي يضمن الاستخدام الأخلاقي والأمن والمنصف والهادف (القسم 3: تنظيم استخدام الذكاء الاصطناعي التوليدي في التعليم).
ويقترح القسم 4 (نحو إطار سياسي لاستخدام الذكاء الاصطناعي التوليدي في التعليم والبحث) التدابير التي يمكن اتخاذها لتطوير أطر سياسية متماسكة وشاملة لتنظيم استخدام الذكاء الاصطناعي التوليدي في التعليم والبحث، بينما يبحث القسم 5 (تسهيل الاستخدام الإبداعي لـ الذكاء الاصطناعي التوليدي في التعليم والبحث) في إمكانيات استخدام الذكاء الاصطناعي التوليدي بشكل إبداعي في تصميم المناهج الدراسية وأنشطة التدريس والتعلم والبحث. ويختتم القسم 6 (الذكاء الاصطناعي التوليدي ومستقبل التعليم والبحث) إرشادات مع اعتبارات حول الآثار طويلة المدى للذكاء الاصطناعي التوليدي على التعليم والبحث.

ما هو الذّكاء الاصطناعي التّوليدي؟

 الذّكاء الاصطناعي التوليدي (GenAI) هو تقنية ذكاء اصطناعي (Al) تقوم تلقائيا بإنشاء محتوى استجابة للمطالبات المكتوبة في واجهات المحادثة باللغة الطبيعية، بدلاً من مجرد تنظیم صفحات الويب الموجودة، من خلال الاعتماد على المحتوى الموجود. ينتج الذكاء الاصطناعي التوليدي بالفعل محتوى جديدا. يمكن أن يظهر المحتوى بتنسيقات تشتمل على جميع التمثيلات الرمزية للتفكير البشري: النصوص المكتوبة باللغة الطبيعية والصور (بما في ذلك الصور الفوتوغرافية واللوحات الرقمية والرسوم المتحركة) ومقاطع الفيديو والموسيقى ورموز البرامج. يتم تدريب الذكاء الاصطناعي التوليدي باستخدام البيانات التي تم جمعها من صفحات الويب ومحادثات وسائل التواصل الاجتماعي والوسائط الأخرى عبر الإنترنت. فهو ينشئ محتواه عن طريق التحليل الإحصائي لتوزيعات الكلمات أو وحدات البكسل أو العناصر الأخرى في البيانات التي استوعيها وتحديد الأنماط الشائعة وتكرارها (على سبيل المثال، ما هي الكلمات التي تتبع عادة أي الكلمات الأخرى).
بالمقابل، نجد في التقرير أنه، في حين أن الذكاء الاصطناعي التوليدي يمكنها إنتاج محتوى جديد، إلا أنها لا تستطيع توليد أفكار أو حلول جديدة لتحديات العالم الحقيقي، لأنها لا تفهم أشياء العالم الحقيقي أو العلاقات الاجتماعية التي تدعم اللغة. علاوة على ذلك، وعلى الرغم من إنتاجه السلس والمثير للإعجاب، لا يمكن الوثوق في دقة .الذكاء الاصطناعي التوليدي في الواقع، حتى مزود ChatGPT يقر بأن “بينما الأدوات مثل .ChatGPT يمكنها في كثير من الأحيان إنشاء إجابات تبدو معقولة، لا يمكن الاعتماد عليها لتكون دقيقة. وفي أغلب الأحيان، لن يتم ملاحظة الأخطاء إلا إذا كان لدى المستخدم معرفة قوية بالموضوع المعني.
كيفية عمل الذكاء الاصطناعي التوليدي: تعد التقنيات المحددة وراء الذكاء الاصطناعي التوليدي جزءاً من عائلة تقنيات الذكاء الاصطناعي التي تسمى التعلم الآلي (ML)، والتي تستخدم الخوارزميات لتمكينها من تحسين أدائها بشكل مستمر وتلقائي من البيانات. يعرف نوع التعلم الآلي الذي أدى إلى العديد من التطورات في الذكاء الاصطناعي التي شهدناها في السنوات الأخيرة، مثل استخدام الذكاء الاصطناعي للتعرف على الوجه، باسم الشبكات العصبية الاصطناعية (ANNS) وهي مستوحاة من كيفية عمل الدماغ البشري. يعمل واتصالاته المتشابكة بين الخلايا العصبية، هناك أنواع عديدة من .ANNS تعتمد كل من تقنيات الذكاء الاصطناعي المولدة للنصوص والصور على مجموعة من تقنيات الذكاء الاصطناعي التي كانت متاحة للباحثين لعدة سنوات. يستخدم ChatGPT على سبيل المثال، المحول التوليدي المدرب مسبقا (GPT).

موجات صادمة في أنحاء العالم

 أدّى إطلاق ChatGPT في أواخر عام 2022، وهي أول أداة ذكاء اصطناعي توليدي سهلة الاستخدام متاحة على نطاق واسع للجمهور، تليها إصدارات أكثر تطورا بشكل متكرر، إلى إرسال موجات صادمة في جميع أنحاء العالم، كما أدى إلى تأجيج السباق بين شركات التكنولوجيا الكبرى.
كان القلق الأولي في التعليم هو أن يتم استخدام ChatGPT وأدوات الذكاء الاصطناعي التوليدي المماثلة من قبل الطلاب للغش في واجباتهم، وبالتالي تقويض قيمة تقييم التعلم والشهادات والمؤهلات، في حين حظرت بعض المؤسسات التعليمية استخدام ChatGPT رحب آخرون بحذر بوصول الذكاء الاصطناعي التوليدي. على سبيل المثال، تبنت العديد من المدارس والجامعات نهجا تقدميا معتقدا أنه “بدلاً من السعي إلى حظر استخدامها، يحتاج الطلاب والموظفين إلى الدعم في استخدام أدوات الذكاء الاصطناعي التوليدي بشكل فعال وأخلاقي وشفاف”. ويعترف هذا النهج بأن الذكاء الاصطناعي التوليدي متاح على نطاق واسع، ومن المرجح أن يصبح أكثر تطوراً، وله إمكانات سلبية وإيجابية محددة وفريدة من نوعها للتعليم.
في الواقع، لدى الذكاء الاصطناعي التوليدي عدد لا يحصى من الاستخدامات المحتملة، يمكنه أتمتة معالجة المعلومات وعرض المخرجات عبر جميع التمثيلات الرمزية الرئيسية للتفكير البشري. إنه يتيح تسليم المخرجات النهائية من خلال تقديم منتجات معرفية نصف جاهزة، ومن خلال تحرير البشر من بعض فئات مهارات التفكير ذات الترتيب الأدنى، قد يكون لهذا الجيل الجديد من أدوات الذكاء الاصطناعي آثار عميقة على كيفية فهمنا للذكاء البشري والتعلم.
لكن الذكاء الاصطناعي التوليدي يثير أيضا العديد من المخاوف المباشرة المتعلقة بقضايا مثل السلامة وخصوصية البيانات وحقوق النشر والتلاعب.

 محاذير استعمال الذّكاء الاصطناعي التّوليدي في التّعليم

«قضايا أخلاقية مجهولة”..هو التعبير الذي استخدمه خبراء التقرير، قائلين إن أدوات الذكاء الاصطناعي التوليدي المتطورة بشكل متزايد سوف تثير مخاوف أخلاقية إضافية تحتاج إلى فحصها بالتفصيل. كما قد يكون لمحاكاة التفاعلات البشرية آثار نفسية غير معروفة على المتعلمين، ما يثير مخاوف بشأن تطورهم المعرفي ورفاههم العاطفي، وحول إمكانية التلاعب.
وقد تحد أنظمة الذكاء الاصطناعي التوليدي في التعليم من استقلالية المتعلمين وفاعليتهم من خلال توفير حلول محددة مسبقا أو تضييق نطاق خبرات التعلم المحتملة، ويجب دراسة تأثيرها على المدى الطويل على التطور الفكري للمتعلمين الصغار. وقد تؤدي أيضا إلى تفاقم الفوارق القائمة في الوصول إلى التكنولوجيا والموارد التعليمية، مما يزيد من تعميق عدم المساواة.
وفيما يتعلق بحقوق النشر والملكية الفكرية، يؤدي ظهور الذكاء الاصطناعي التوليدي إلى تغيير سريع في الطريقة التي يتم بها إنشاء الأعمال العلمية والفنية والأدبية وتوزيعها واستهلاكها. إن النسخ أو التوزيع أو الاستخدام غير المصرح به للأعمال المحمية بحقوق الطبع والنشر دون الحصول على إذن من صاحب حقوق الطبع والنشر ينتهك حقوقه الحصرية ويمكن أن يؤدي إلى عواقب قانونية.
على سبيل المثال، تم اتهام تدريب نماذج الذكاء الاصطناعي التوليدي بانتهاك حقوق النشر. وكواحدة من الحالات الأخيرة، وصلت أغنية أنشأها الذكاء الاصطناعي إلى ملايين المستمعين قبل أن يتم حذفها من الإنترنت بسبب النزاع على حقوق الطبع والنشر. في حين أن الأطر التنظيمية الناشئة تهدف إلى مطالبة موفري الذكاء الاصطناعي التوليدي بالاعتراف بالملكية الفكرية وحمايتها لأصحاب المحتوى الذي يستخدمه النموذج، فقد أصبح من الصعب بشكل متزايد تحديد ملكية وأصالة الكم الهائل من الأعمال التي تم إنشاؤها. ولا يثير هذا النقص في إمكانية التتبع المخاوف بشأن حماية حقوق المبدعين وضمان التعويض العادل عن مساهماتهم الفكرية فحسب، بل يطرح أيضا تحديات في السياقات التعليمية حول كيفية استخدام مخرجات أدوات الذكاء الاصطناعي التوليدي بشكل مسؤول.
تعمل أدوات الذكاء الاصطناعي التوليدي على تغيير الطريقة التي يمكن بها إنشاء محتوى التدريس والتعلم وتقديمه. في المستقبل، قد يصبح المحتوى الناتج عن محادثات الذكاء الاصطناعي البشري أحد المصادر الرئيسية لإنتاج المعرفة. ومن المرجح أن يؤدي ذلك إلى زيادة تقويض مشاركة المتعلمين المباشرة في المحتوى التعليمي القائم على الموارد والكتب المدرسية والمناهج الدراسية التي أنشأها البشر وتحقق من صحتها. قد يؤدي المظهر الرسمي لنص الذكاء الاصطناعي التوليدي إلى تضليل المتعلمين الصغار، الذين ليس لديهم معرفة مسبقة كافية حتى يتمكنوا من التعرف على عدم الدقة أو التشكيك فيها بشكل فعال. إذا كان ينبغي اعتبار تفاعل المتعلمين مع محتوى لم يتم التحقق منه بمثابة “تعلم”، فإن ذلك أيضا أمر مثير للجدل حسب التقرير.
كما اعتبر التقرير بأن المحتوى الناتج عن الذكاء الاصطناعي قد “يلوّث الإنترنت”، فنظرا لأن بيانات تدريب GPT يتم استخلاصها عادة من الإنترنت، والتي تتضمن في كثير من الأحيان لغة تمييزية وغيرها من اللغات غير المقبولة، فقد اضطر المطورون إلى تنفيذ ما يسمونه “حواجز الحماية” لمنع مخرجات GPT من أن تكون مسيئة و/أو غير أخلاقية، ومع ذلك، ونظرا لعدم وجود لوائح صارمة وآليات مراقبة فعالة، تنتشر المواد المتحيزة الناتجة عن الذكاء الاصطناعي التوليدي بشكل متزايد عبر الإنترنت. ممّا يؤدي إلى تلويث أحد المصادر الرئيسية للمحتوى أو المعرفة لمعظم المتعلمين في جميع أنحاء العالم. وهذا مهم بشكل خاص لأن المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي التوليدي يمكن أن تبدو دقيقة ومقنعة تماما، في حين أنها تحتوي في كثير من الأحيان على أخطاء وأفكار متحيزة. يشكّل هذا خطرا كبيرا على المتعلمين الصغار الذين ليس لديهم معرفة مسبقة قوية بالموضوع المعني. كما أنه يشكل خطرا متكررا على نماذج GPT المستقبلية التي سيتم تدريبها على النص المستخرج من الإنترنت، والذي أنشأته نماذج GPT بنفسها.

مركزية الإنسان
 فيما يخص المعرفة والمهارات التأسيسية، وحتى في مجالات الكفاءات حيث يمكن لأدوات الذكاء الاصطناعي التوليدي أن تعمل بشكل أفضل من البشر، سيظل المتعلمون بحاجة إلى المعرفة والمهارات التأسيسية السليمة. مثلا، ستظل معرفة القراءة والكتابة والحساب ومهارات القراءة والكتابة العلمية الأساسية، ستظل أساسية للتعليم في المستقبل. وسيتعين إعادة النظر بانتظام في نطاق وطبيعة هذه المهارات الأساسية لتعكس البيئات الغنية بالذكاء الاصطناعي التي نعيش فيها.
وخلص التقرير إلى أنه لكي يصبح الذكاء الاصطناعي موثوقا به، وجزءاً لا يتجزأ من التعاون بين الإنسان والآلة - على المستويات الفردية والمؤسساتية والنظامية - يجب تحديد النهج الذي يركز على الإنسان، والذي يسترشد بتوصية اليونسكو لعام 2021 بشأن أخلاقيات الذكاء الاصطناعي وتنفيذه وفقا للخصائص المحددة للتقنيات الناشئة مثل الذكاء الاصطناعي التوليدي. بهذه الطريقة فقط يمكننا ضمان أن تصبح الذكاء الاصطناعي التوليدي أداة جديرة بالثقة للباحثين والمعلمين والمتعلمين.
وأضاف خبراء اليونسكو أنّنا نحتاج جميعا إلى أن ندرك أن الذكاء الاصطناعي التوليدي قد يغير أيضا الأنظمة القائمة وأسسها في هذه المجالات. فالتحول في التعليم والبحث الذي ستطلقه مبادرة الذكاء الاصطناعي التوليدي، إن وجد، يجب أن تتم مراجعته بدقة وتوجيهه من خلال نهج يركز على الإنسان. ومن خلال القيام بذلك فقط يمكننا ضمان أن تعمل إمكانات الذكاء الاصطناعي، على وجه الخصوص، وجميع الفئات الأخرى من التقنيات المستخدمة في التعليم على نطاق أوسع، على تعزيز القدرات البشرية، لبناء مستقبل رقمي شامل للجميع.

رأيك في الموضوع

أرشيف النسخة الورقية

العدد 19480

العدد 19480

الأحد 26 ماي 2024
العدد 19479

العدد 19479

السبت 25 ماي 2024
العدد 19478

العدد 19478

الجمعة 24 ماي 2024
العدد 19477

العدد 19477

الأربعاء 22 ماي 2024