قامت OpenAI بمراجعة سياسات الاستخدام الخاصة بها لـ ChatGPT وخدمات الذكاء الاصطناعي الأخرى، وحظرت صراحة على المستخدمين الحصول على مشورة طبية أو قانونية أو مالية مُفصَّلة دون إشراف متخصص مرخص.
أثار التحديث، الذي دخل حيز التنفيذ في 29 أكتوبر 2025، جدلاً واسعاً وسوء فهم كبير، لكن OpenAI توضح أن هذه الخطوة تستهدف كيفية تطبيق المستخدمين للتكنولوجيا، وليس تغيير استجابات النموذج الأساسية. الدافع الأساسي هو تعزيز سلامة المستخدم والتخفيف من مخاوف المسؤولية القانونية للذكاء الاصطناعي المتصاعدة.
🛑 تحديث السياسة: ما هو المحظور فعلياً؟
يوحد إطار OpenAI المنقح سياسات الاستخدام عبر جميع منتجاتها. يركز الحظر الرئيسي على اعتماد المستخدم على الذكاء الاصطناعي، وليس قدرة الذكاء الاصطناعي على توليد المعلومات.
الحظر الرئيسي
قسم السياسة | القيد | الدلالة |
|---|---|---|
حماية الأشخاص | "توفير مشورة مُفصَّلة تتطلب ترخيصاً، مثل المشورة القانونية أو الطبية، دون مشاركة مناسبة من قبل متخصص مرخص." | يجب على المستخدمين عدم الاعتماد على ChatGPT للحصول على توصيات طبية أو قانونية شخصية ما لم يشرف عليها خبير مؤهل. |
تمكين الأشخاص | قيود على أتمتة القرارات عالية المخاطر (على سبيل المثال، في السياقات المالية، الائتمانية، القانونية، والطبية) دون مراجعة بشرية. | يغطي ضمنيًا المشورة المالية من خلال منع الأتمتة الكاملة في المجالات الحساسة. |
السياق: يعزز التحديث الإرشادات الموجودة، ويهدف بشكل أساسي إلى مساعدة OpenAI على فرض الانتهاكات وحماية نفسها من الدعاوى القضائية المحتملة الناشئة عن تصرف المستخدمين بناءً على مشورة الذكاء الاصطناعي المعيبة أو الضارة.
📢 سوء الفهم والتوضيح
في أعقاب الإعلان، غمرت وسائل التواصل الاجتماعي شائعات بأن ChatGPT سيرفض بشكل مطلق تقديم أي معلومات طبية أو قانونية.
الأسطورة: أشارت العناوين إلى أن الذكاء الاصطناعي "مُقيَّد" أو "ممنوع" من تقديم المشورة الصحية أو القانونية تمامًا، مما يوحي بتغيير برمجة النموذج نفسه.
الواقع: تكشف عمليات التحقق من الحقائق والاختبارات أن استجابات ChatGPT لم تتغير بشكل جوهري. لا يزال الذكاء الاصطناعي يولد معلومات عامة أو سيناريوهات افتراضية، ولكنه عادة ما يتضمن إخلاء مسؤولية يحث المستخدمين على استشارة المتخصصين.
التمييز: تتعلق السياسة بامتثال المستخدم — يمكن لـ OpenAI الآن فرض الإساءة في الاستخدام التي تستبدل الذكاء الاصطناعي بمتخصص مرخص بشكل أكثر صرامة. من المرجح أن يكون طلب "المفاهيم القانونية العامة" مقبولاً، بينما قد يؤدي طلب "مشورة شخصية بشأن عقدي" إلى إثارة علامات انتهاك السياسة.
📊 التداعيات على المستخدمين وصناعة الذكاء الاصطناعي
يعكس هذا التحول في السياسة نضجًا حاسمًا في مشهد الذكاء الاصطناعي التوليدي، وإعطاء الأولوية للمسؤولية على إمكانية الوصول غير المقيدة.
للمستخدمين والمتخصصين
المستخدمون العاديون: يظل ChatGPT أداة قوية للأغراض التعليمية أو الاستكشافية. ومع ذلك، فإن الاعتماد عليه في القرارات الشخصية عالية المخاطر في مجالات الصحة أو القانون أو التمويل هو أمر غير مُشجَّع بشكل صارم ويشكل انتهاكًا للسياسة.
المهنيون المرخصون: لا يزال بإمكان الخبراء دمج الذكاء الاصطناعي في سير عملهم — للمسودة أو البحث أو التلخيص — لكن السياسة تفرض المراجعة والإشراف البشري لجميع النصائح النهائية الموجهة للعملاء.
اتجاه الصناعة
سابقة المسؤولية: تحدد خطوة OpenAI سابقة أقوى للنشر المسؤول، وتؤثر على المنافسين مثل Google Gemini و Anthropic Claude، الذين لديهم إخلاءات مسؤولية مماثلة عن المشورة في المجالات الخاضعة للتنظيم.
مستقبل الذكاء الاصطناعي: يتحول التركيز نحو تعزيز التعاون القوي بين البشر والذكاء الاصطناعي، مما يضمن أن التكنولوجيا تُعزز الخبرة البشرية في المجالات المنظمة بدلاً من أن تحل محلها.
مع استمرار تطور الذكاء الاصطناعي، تؤكد هذه السياسة على نقطة حاسمة: الذكاء الاصطناعي هو أداة، وليس بديلاً للحكم المهني البشري.