لو مش عارف سر ChatGPT .. تفاصيل آلية عمل روبوتات الدردشة المدعمة بالذكاء الاصطناعى – شعاع نيوز

يقول الخبراء إن ChatGPT وغيره من برامج الدردشة الآلية التي تعتمد على الذكاء الاصطناعي يمكنها التحدث بجمل سليمة نحويًا بطلاقة، وقد يكون لها إيقاع طبيعي، ولكن لا تنخدع بالخلط بين هذا الكلام الذي يتم تنفيذه جيدًا والفكر أو العاطفة أو حتى النية.

وبحسب موقع Businessinsider الأمريكي، فإن روبوتات الدردشة في جوهرها ليست أكثر من مجرد آلة تقوم بإجراء حسابات رياضية وتحليلات إحصائية لاسترجاع الكلمات والجمل الصحيحة. يتم تدريب الروبوتات مثل ChatGPT على كميات كبيرة من النصوص، مما يسمح لها بالتفاعل مع المستخدمين البشريين بطريقة طبيعية. كما أن هناك الكثير من التمارين الرياضية التي يمارسها الإنسان، والتي تساعد في التخلص من أي تجاعيد.

تقول شركة OpenAI، الشركة التي تقف وراء ChatGPT، على موقعها الإلكتروني إن نماذجها تعتمد على معلومات من مجموعة من المصادر، بما في ذلك من مستخدميها والمواد التي رخصتها.

كيف تعمل روبوتات الدردشة المدعمة بالذكاء الاصطناعي

تعتمد روبوتات الدردشة القائمة على الذكاء الاصطناعي، مثل ChatGPT من OpenAI، على نماذج لغوية كبيرة، أو LLMs، وهي برامج مدربة على كميات كبيرة من النصوص التي يتم الحصول عليها من الكتابات والمعلومات المنشورة عبر الإنترنت، والتي ينتجها البشر بشكل عام.

يتم تدريب الأنظمة على سلسلة من الكلمات وتتعلم أهمية الكلمات في تلك السلسلة، لذا فإن كل هذه المعرفة المتشربة لا تقوم فقط بتدريب نماذج لغوية كبيرة على المعلومات الواقعية، ولكنها تساعدهم على أنماط الكلام الإلهية وكيفية استخدام الكلمات عادةً و وقال الخبراء مجتمعة.

يتم تدريب Chatbots بشكل أكبر من قبل البشر على كيفية تقديم الاستجابات المناسبة والحد من الرسائل الضارة.

مدرب بيانات الذكاء الاصطناعي الذي يعمل في Invisible Technologies، وهي شركة متعاقدة لتدريب ChatGPT، أخبر Insider سابقًا أنهم مكلفون بتحديد الأخطاء في العالم الحقيقي؛ الأخطاء الإملائية والنحوية، والإزعاجات عند اختبار استجابات chatbot.

وقال كريستيان هاموند، أستاذ علوم الكمبيوتر في جامعة نورث وسترن: “يمكنك أن تقول: هذا أمر سام، وهذا سياسي للغاية، وهذا رأي، وتضعه في إطار لا يولد تلك الأشياء”. يشغل هاموند أيضًا منصب مدير مركز الجامعة لتعزيز سلامة الذكاء الآلي.

عندما تطلب من روبوت الدردشة الإجابة على سؤال واقعي بسيط، يمكن أن تكون عملية الاستدعاء واضحة ومباشرة: فهي تنشر مجموعة من الخوارزميات لاختيار الجملة الأكثر احتمالية للرد عليها، وتختار أفضل الاستجابات الممكنة في غضون أجزاء من الثانية، ومن أفضل الاختيارات، يسلم واحدة عشوائيا. ، ولهذا السبب فإن طرح نفس السؤال بشكل متكرر يمكن أن يؤدي إلى إجابات مختلفة قليلاً.

يمكن لروبوتات الدردشة أيضًا تقسيم الأسئلة إلى أجزاء متعددة والإجابة على كل جزء بالتسلسل، كما لو كنت تفكر في السؤال.

لنفترض أنك طلبت من الروبوت تسمية رئيس أمريكي يحمل الاسم الأول للممثل الرئيسي في فيلم “كاميلوت”، وقد يجيب الروبوت أولاً بأن الممثل المعني هو ريتشارد هاريس. وقال هاموند: “سوف يستخدم بعد ذلك هذه الإجابة ليعطيك ريتشارد نيكسون كإجابة على سؤالك الأصلي”.

روبوتات الدردشة ليست مثالية

تواجه روبوتات الدردشة المدعمة بالذكاء الاصطناعي أكبر قدر من المشاكل عندما تُطرح عليها أسئلة ليس لديها إجابة عليها. إنهم ببساطة لا يعرفون ما لا يعرفونه، لذا بدلاً من رفض الإجابة، يقومون بالاستقراء بناءً على ما يعرفونه، ثم يقومون بالتخمين.

تكمن المشكلة في أنهم لا يخبرونك بأنهم يخمنون، بل قد يقدمون المعلومات على أنها حقيقة، وعندما يخترع برنامج الدردشة الآلي معلومات يقدمها للمستخدم على أنها حقيقة، يُطلق على ذلك اسم “الهلوسة”.

إن احتمال أن يصدر ChatGPT هلوسة هو، جزئيًا، السبب الذي يجعل بعض خبراء التكنولوجيا يحذرون مستخدمي chatbot من توخي الحذر، وفي دراسة حديثة أجرتها مجموعة بوسطن الاستشارية، وجد الباحثون أن الأشخاص الذين يستخدمون ChatGPT في العمل يمكن أن يكون أداؤهم أسوأ في بعض المهام. . إذا أخذوا مخرجات chatbot في ظاهرها ولم يتحققوا منها بحثًا عن الأخطاء.

وقال ويليام وانج، الأستاذ المشارك الذي يدرس علوم الكمبيوتر في جامعة كاليفورنيا، سانتا باربرا: “هذا ما نسميه نظرية المعرفة أو ما وراء المعرفة”. وهو أيضًا المدير المشارك لمجموعة معالجة اللغة الطبيعية بالجامعة. وقال “النموذج لا يفهم المجهول المعروف جيدا”.


المصدر

مقالات ذات صلة

زر الذهاب إلى الأعلى