مسرد مصطلحات تعلُم الآلة

يحدد مسرد المصطلحات هذا المصطلحات العامة للتعلم الآلي بالإضافة إلى المصطلحات الخاصة بـ TensorFlow.

جيم

الازدواج

أسلوب لتقييم أهمية ميزة أو مكوّن عن طريق إزالتها مؤقتًا من نموذج يمكنك بعد ذلك إعادة تدريب النموذج بدون تلك الميزة أو المكون، وإذا كان أداء النموذج المعاد تدريبه أسوأ بكثير، فمن المحتمل أن تكون الميزة أو المكون الذي تمت إزالته مهمًا.

على سبيل المثال، لنفترض أنّك تدرّب نموذج تصنيف على 10 ميزات وحققت دقة بنسبة% 88 في مجموعة الاختبار. للتحقق من أهمية الميزة الأولى، يمكنك إعادة تدريب النموذج باستخدام الميزات التسع الأخرى فقط. إذا كان أداء النموذج الذي تمت إعادة تدريبه أسوأ بكثير (دقة 55% مثلاً)، من المحتمل أن تكون الميزة التي تمت إزالتها مهمة. وبالعكس، إذا كان أداء النموذج المُعاد تدريبه جيدًا بالقدر نفسه، فربما لم تكن هذه الميزة مهمة.

يمكن أن يساعد الاكتئاب أيضًا في تحديد أهمية ما يلي:

  • المكونات الأكبر حجمًا، مثل نظام فرعي كامل لنظام تعلُّم الآلة الأكبر
  • العمليات أو التقنيات، مثل خطوة المعالجة المسبقة للبيانات

في كلتا الحالتين، ستلاحظ كيف يتغير (أو لا يتغير) أداء النظام بعد إزالة المكون.

اختبار A/B

طريقة إحصائية لمقارنة أسلوبين (أو أكثر) - أ وب. عادةً ما يكون الحرف A أسلوبًا حاليًا، بينما يمثّل B أسلوبًا جديدًا. لا يحدد اختبار A/B الأسلوب الأفضل أداءً فحسب، بل يحدد أيضًا ما إذا كان الفرق ذا دلالة إحصائية.

يقارن اختبار A/B عادةً مقياس واحد في طريقتين: على سبيل المثال، كيف يقارن اختبار دقة النموذج بأسلوبين؟ في المقابل، يمكن لاختبار A/B أيضًا مقارنة أي عدد محدود من المقاييس.

شريحة مسرِّعة

#GoogleCloud

يشير ذلك المصطلح إلى فئة من مكوّنات الأجهزة المتخصصة المصمّمة لإجراء العمليات الحسابية الرئيسية اللازمة لخوارزميات التعلّم المعمّق.

يمكن أن تؤدي شرائح مسرِّعة الأعمال (أو مسرِّعات الأعمال فقط باختصار) إلى زيادة سرعة وكفاءة مهام التدريب والاستنتاج بشكل كبير مقارنةً بوحدة المعالجة المركزية للأغراض العامة. وهي مثالية لتدريب الشبكات العصبية والمهام المشابهة من الناحية الحاسوبية.

تشمل الأمثلة على شرائح التسريع ما يلي:

  • وحدات معالجة Tensor من Google (TPU) مع أجهزة مخصّصة للتعليم المعمّق.
  • على الرغم من أن وحدات معالجة الرسومات التابعة لـ NVIDIA تم تصميمها في البداية لمعالجة الرسومات، فتم تصميمها لتفعيل المعالجة المتوازية، مما قد يؤدي إلى زيادة سرعة المعالجة بشكل كبير.

الدقة

#fundamentals

عدد توقّعات التصنيف الصحيحة مقسومًا على إجمالي عدد عبارات البحث المقترحة والمقصود:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

على سبيل المثال، فإن النموذج الذي يقدم 40 تنبؤًا صحيحًا و10 تنبؤات غير صحيحة ستكون له دقة:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

يوفّر التصنيف الثنائي أسماءً محددة للفئات المختلفة من التوقعات الصحيحة والتوقعات غير الصحيحة. إذًا، معادلة الدقة للتصنيف الثنائي هي كما يلي:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

حيث:

قارِن بين الدقة والدقة والاستدعاء.

إجراء

#rl

في التعلُّم المعزّز، الآلية التي يتّبعها الوكيل للانتقال بين حالات البيئة. يختار الوكيل الإجراء باستخدام سياسة.

دالّة التفعيل

#fundamentals

يشير ذلك المصطلح إلى دالة تتيح للشبكات العصبية تعلُّم العلاقات غير الخطية (المعقدة) بين العناصر والتصنيفات.

تشمل وظائف التفعيل الشائعة ما يلي:

لا تكون مخططات دوال التنشيط أبدًا خطوطًا مفردة مستقيمة. على سبيل المثال، يتكون مخطط دالة تفعيل ReLU من خطين مستقيمين:

مخطط الديكارتي مكون من سطرين. قيمة y ثابتة للسطر الأول، وهي 0، وتتراوح قيمة المحور x من -infinity,0 إلى 0-0.
          يبدأ السطر الثاني من 0.0. مقدار انحدار هذا الخط هو +1، لذا يمتد من 0,0 إلى +ما لا نهاية،+ما لا نهاية.

يبدو مخطط دالة التفعيل السيني على النحو التالي:

رسم بياني منحن ثنائي الأبعاد بقيم x تمتد من النطاق
 -infinity إلى +موجب، في حين تغطي قيم y النطاق
 ما بين 0
 و1 تقريبًا. عندما تساوي x 0، تكون y تساوي 0.5. يكون انحدار المنحنى دائمًا موجبًا، مع أعلى انحدار عند 0.0.5 وانخفاضًا تدريجيًا
 مع زيادة القيمة المطلقة لـ x.

التعلّم النشط

نهج تدريب يمكن فيه للخوارزمية اختيار بعض البيانات التي تتعلم منها. يكون التعلّم النشط مفيدًا بشكل خاص عندما يكون الحصول على أمثلة مصنَّفة قليل أو مكلفًا. بدلاً من البحث عشوائيًا عن مجموعة متنوعة من الأمثلة المصنفة، تبحث خوارزمية التعلم النشط بشكل انتقائي عن النطاق المحدد من الأمثلة التي تحتاجها للتعلم.

AdaGrad

يشير ذلك المصطلح إلى خوارزمية متطورة لخورازمية انحدار التدرج تعمل على إعادة ضبط تدرّجات كل مَعلمة، ما يمنح كل مَعلمة معدّل تعلُّم مستقلاً. للحصول على شرح كامل، يُرجى الاطّلاع على البحث في "آداغراد".

وكيل

#rl

في التعلُّم المعزّز، الكيان الذي يستخدم سياسة لزيادة العائد المتوقّع الذي يتم تحقيقه من الانتقال بين حالات البيئة

بشكل أكثر عمومية، الوكيل هو برنامج يخطط وينفذ سلسلة من الإجراءات بشكل مستقل سعيًا إلى تحقيق هدف ما، مع القدرة على التكيّف مع التغييرات في بيئته. على سبيل المثال، قد يستخدم الوكلاء المستنِدون إلى النموذج اللغوي الكبير (LLM) النموذج اللغوي الكبير لإنشاء خطة بدلاً من تطبيق سياسة تعلُّم تعزيز.

التجميع من الأسفل إلى الأعلى

#clustering

اطّلِع على التجميع الهرمي.

رصد القيم الشاذة

عملية تحديد القيم الشاذّة. على سبيل المثال، إذا كان المتوسط لميزة معيّنة هو 100 بانحراف معياري 10، من المفترض أن تضع ميزة "رصد القيم الشاذة" علامة على القيمة 200 على أنّها مريبة.

الأرجنتين

اختصار الواقع المعزّز.

المساحة تحت منحنى PR

يمكنك الاطّلاع على PR AUC (المنطقة التي تقع تحت منحنى PR).

المساحة تحت منحنى ROC

اطّلِع على المساحة أسفل منحنى خاصية تشغيل جهاز الاستقبال).

الذكاء الاصطناعي العام

آلية غير بشرية تُظهر مجموعة واسعة من حلّ المشاكل والإبداع والقدرة على التكيّف. على سبيل المثال، يمكن لبرنامج يسلّط الضوء على الذكاء الاصطناعي العام أن يترجم النصوص ويؤلف سيمفونيات ويبرع في ألعاب لم يتم اختراعها بعد.

الذكاء الاصطناعي

#fundamentals

برنامج غير بشري أو model يمكنه حلّ المهام المعقّدة. على سبيل المثال، يُظهر كل من البرنامج أو النموذج الذي يترجم نصًا أو برنامجًا أو نموذجًا يعرّف الأمراض من الصور الإشعاعية الذكاء الاصطناعي.

من الناحية الرسمية، يمثّل تعلُّم الآلة أحد المجالات الفرعية للذكاء الاصطناعي. ومع ذلك، بدأت بعض المؤسسات في السنوات الأخيرة في استخدام عبارتَي الذكاء الاصطناعي وتعلُّم الآلة بالتبادل.

تنبيه

#language

يشير ذلك المصطلح إلى آلية مستخدَمة في شبكة عصبية تشير إلى أهمية كلمة معيَّنة أو جزء معيّن من الكلمة. يقلل الانتباه كمية المعلومات التي يحتاجها النموذج للتنبؤ بالرمز/الكلمة التالية. قد تتألف آلية الانتباه النموذجية من مجموع مرجّح على مجموعة من الإدخالات، حيث يتم احتساب الوزن لكل إدخال من خلال جزء آخر من الشبكة العصبونية.

راجِع أيضًا ميزة الانتباه الذاتي والانتباه الذاتي المتعدّد الرؤوس، وهما اللبنات الأساسية المحوّلات.

سمة

#fairness

مرادف لـ feature.

في إنصاف التعلم الآلي، تشير السمات غالبًا إلى الخصائص المتعلقة بالأفراد.

تحليل عيّنات السمات

#df

يشير ذلك المصطلح إلى أسلوب لتدريب غابة القرارات التي تراعي فيها كل شجرة قرارات مجموعة فرعية عشوائية من الميزات الممكنة عند التعرّف على الشرط. بشكل عام، يتم استخدام عيّنة من مجموعة فرعية مختلفة من الميزات لكل عقدة. وفي المقابل، عند تدريب شجرة قرارات دون أخذ عينات السمات، تتم مراعاة جميع الميزات الممكنة لكل عقدة.

المساحة تحت منحنى ROC

#fundamentals

رقم بين 0.0 و1.0 يمثّل قدرة نموذج تصنيف ثنائي على فصل الفئات الإيجابية عن الفئات السالبة. فكلما اقتربت قيمة AUC من 1.0، زادت قدرة النموذج على فصل الفئات عن بعضها البعض.

على سبيل المثال، يوضح الرسم التوضيحي التالي نموذج المصنِّف الذي يفصل بشكل مثالي الفئات الإيجابية (الأشكال البيضاوية الخضراء) عن الفئات السالبة (المستطيلات الأرجوانية) تمامًا. بلغ حجم AUC لهذا النموذج غير الواقعي 1.0:

سطر أرقام يحتوي على 8 أمثلة موجبة على جانب واحد و9 أمثلة سلبية على الجانب الآخر.

وبالعكس، يعرض الرسم التوضيحي التالي نتائج نموذج المصنِّف الذي أنشأ نتائج عشوائية. تبلغ قيمة AUC لهذا النموذج 0.5:

سطر أرقام يحتوي على 6 أمثلة موجبة و6 أمثلة سلبية.
          الأمثلة التسلسلية هي موجب، سلبي، إيجابي، سالب، إيجابي، سالب، إيجابي، سالب، إيجابي، إيجابي، إيجابي، سالب.

نعم، تساوي قيمة AUC في النموذج السابق 0.5 وليس 0.0.

تقع معظم النماذج في مكان ما بين الطرفين. على سبيل المثال، يفصل النموذج التالي الإيجابيات عن السلبيات إلى حدٍ ما، وبالتالي يحتوي على قيمة AUC في مكان ما بين 0.5 و1.0:

سطر أرقام يحتوي على 6 أمثلة موجبة و6 أمثلة سلبية.
          الأمثلة ستكون سالبة وسلبية وسلبية وسلبية وإيجابية وإيجابية وإيجابية وسلبية وإيجابية وإيجابية وإيجابية.

وتتجاهل AUC أي قيمة تم ضبطها للحدّ الأدنى للتصنيف. بدلاً من ذلك، يراعي AUC جميع حدود التصنيف الممكنة.

الواقع المعزّز

#image

يشير ذلك المصطلح إلى تكنولوجيا يتم تركيبها على صورة تم إنشاؤها بواسطة الكمبيوتر من منظور المستخدم للعالم الواقعي، وبالتالي توفّر عرضًا مُركَّبًا.

برنامج ترميز تلقائي

#language
#image

يشير ذلك المصطلح إلى نظام يتعلّم كيفية استخراج أهم المعلومات من الإدخال. برامج الترميز التلقائي هي مزيج من برنامج ترميز وبرنامج فك ترميز. تعتمد برامج الترميز التلقائي على العملية التالية المؤلفة من خطوتَين:

  1. يربط برنامج الترميز الإدخال بتنسيق (عادي) ينقصه أبعاد أقل (متوسط).
  2. تعمل أداة فك الترميز على إنشاء نسخة مع فقدان البيانات من الإدخال الأصلي من خلال ربط التنسيق ذي الأبعاد الأقل بتنسيق الإدخال الأصلي ذي الأبعاد الأعلى.

يتم تدريب برامج الترميز التلقائي بشكل شامل من خلال محاولة فك الترميز بأقرب وقت ممكن لإعادة إنشاء الإدخال الأصلي من التنسيق المتوسط لبرنامج الترميز. بما أن التنسيق المتوسط أصغر (أقل أبعادًا) من التنسيق الأصلي، يتم إجبار برنامج الترميز التلقائي على معرفة المعلومات الضرورية في الإدخال، ولن يكون الناتج متطابقًا تمامًا مع الإدخال.

مثلاً:

  • إذا كانت بيانات الإدخال رسمية، فستكون النسخة غير الدقيقة مشابهة للرسم الأصلي، ولكن سيتم تعديلها إلى حد ما. ربما تزيل النسخة غير الدقيقة التشويش من الرسم الأصلي أو تملأ بعض وحدات البكسل المفقودة.
  • إذا كانت بيانات الإدخال نصية، فسينشئ برنامج الترميز التلقائي نصًا جديدًا يحاكي (ولكنه ليس مطابقًا) للنص الأصلي.

اطّلِع أيضًا على برامج الترميز التلقائية المختلفة.

الانحياز في التشغيل الآلي

#fairness

عندما يفضل صانع القرار البشري التوصيات المقدمة من خلال نظام آلي لاتخاذ القرار على المعلومات التي يتم تقديمها بدون التشغيل الآلي، حتى عندما يرتكب نظام اتخاذ القرار الآلي أخطاءً.

AutoML

أي عملية مبرمَجة لإنشاء نماذج لتعلُّم الآلة . يمكن أن تنفّذ AutoML مهامًا تلقائيًا مثل ما يلي:

تُعد ميزة AutoML مفيدة لعلماء البيانات لأنها يمكن أن توفر لهم الوقت والجهد في تطوير مسارات التعلم الآلي وتحسين دقة التنبؤ. وهو مفيد أيضًا لغير الخبراء، من خلال تسهيل الوصول إلى مهام التعلم الآلي المعقدة.

نموذج الانحدار التلقائي

#language
#image
#GenerativeAI

يشير ذلك المصطلح إلى model يستنتج توقّعًا استنادًا إلى توقّعاته السابقة. على سبيل المثال، تتوقّع النماذج اللغوية الانحدار التلقائي الرمز المميّز التالي استنادًا إلى الرموز المميّزة التي سبق توقّعها. تكون جميع النماذج اللغوية الكبيرة المستندة إلى المحوّلات تراجعية تلقائيًا.

وفي المقابل، لا تكون نماذج الصور المستنِدة إلى GAN انحدارية تلقائيًا لأنّها تنشئ صورة في تمريرة أمامية واحدة وليس بخطوات متكررة. مع ذلك، بعض نماذج إنشاء الصور تتحرك تلقائيًا لأنّها تنشئ صورة في خطوات.

الخسارة الإضافية

دالة فقدان - يتم استخدامها مع وظيفة الخسارة الرئيسية في الشبكة العصبونية للمساعدة في تسريع التدريب أثناء التكرارات المبكرة عندما يتم إعداد الأوزان بشكل عشوائي.

تدفع دوال الخسارة الإضافية التدرجات الفعّالة إلى الطبقات السابقة. يسهِّل ذلك التقارب أثناء التدريب من خلال مكافحة مشكلة التلاشي.

متوسط الدقة

مقياس لتلخيص أداء تسلسل نتائج مرتَّبة. يتم احتساب متوسط الدقة من خلال أخذ متوسط قيم الدقة لكل نتيجة ذات صلة (كل نتيجة في القائمة المرتبة التي تزداد فيها قيمة التذكر مقارنةً بالنتيجة السابقة).

يمكنك الاطّلاع أيضًا على المنطقة التي تقع أسفل "منحنى العلاقات العامة".

شرط محاذاة المحور

#df

في شجرة القرار، هو شرط يتضمّن ميزة واحدة فقط. على سبيل المثال، إذا كانت المساحة ميزة، فإن ما يلي عبارة عن شرط محاذاة المحور:

area > 200

التباين مع شرط المائل.

B

الانتشار العكسي

#fundamentals

يشير ذلك المصطلح إلى الخوارزمية التي تنفّذ خوارزمية انحدار التدرج في الشبكات العصبونية.

يتضمّن تدريب الشبكة العصبية العديد من التكرارات للدورة التدريبية المزدوجة التالية:

  1. خلال البداية والنهاية المبكرة، يعالج النظام مجموعة من الأمثلة للحصول على عبارات بحث مقترحة. يقارن النظام كل توقع بكل قيمة تصنيف. الفرق بين التنبؤ وقيمة التصنيف هو loss لهذا المثال. يقوم النظام بتجميع الخسائر لجميع الأمثلة لحساب إجمالي الخسارة للدُفعة الحالية.
  2. خلال البداية والنهاية المبكرة (الانتشار الخلفي)، يحد النظام من الخسارة من خلال ضبط القيم التقديرية لجميع الخلايا العصبية في جميع الطبقات المخفية.

غالبًا ما تحتوي الشبكات العصبية على العديد من الخلايا العصبية في العديد من الطبقات الخفية. كل خلية من تلك الخلايا العصبية تساهم في الخسارة الكلية بطرق مختلفة. يحدد الانتشار العكسي ما إذا كان سيتم زيادة أو خفض الوزن المطبق على خلايا عصبية معينة.

معدّل التعلّم هو مُضاعِف يتحكّم في درجة زيادة أو انخفاض كل وزن يتم تسجيله في كل مسار خلفي. سيؤدي معدل التعلم الكبير إلى زيادة أو خفض كل وزن أكثر من معدل التعلم الصغير.

في حساب التفاضل والتكامل، تنفِّذ عملية انعكاسية البيانات قاعدة السلسلة. من حساب التفاضل والتكامل. وهذا يعني أنّ عملية النشر العكسي تحتسب المشتق الجزئي للخطأ مع مراعاة كل معلَمة.

منذ سنوات، اضطر ممارسو تعلُّم الآلة إلى كتابة رموز برمجية لتنفيذ عملية انتشار العكس. تستخدم واجهات برمجة التطبيقات الحديثة لتعلُّم الآلة، مثل TensorFlow، عملية الانتشار العكسي لك. أخيرًا!

ملء الفراغات

#df

يشير ذلك المصطلح إلى طريقة لتدريب مجموعة يتم فيها تدريب كل نموذج مكوّن من مجموعة فرعية عشوائية من أمثلة التدريب المستندة إلى عيّنات مع الاستبدال. على سبيل المثال، غابة عشوائية هي مجموعة من أشجار القرارات المدرَّبة على استخدام الأكياس.

يشير المصطلح Burging إلى اختصار لـ agg (تجميع التجميع).

كيس من الكلمات

#language

تمثيل للكلمات في عبارة أو فقرة، بغض النظر عن الترتيب. على سبيل المثال، تمثل حقيبة الكلمات العبارات الثلاث التالية بشكل متماثل:

  • الكلب يقفز
  • تقفز الكلب
  • كلب يقفز

يتم تعيين كل كلمة إلى فهرس في متّجه متفرق، حيث يحتوي المتّجه على فهرس لكل كلمة في المفردات. على سبيل المثال، يتم ربط عبارة قفز الكلب في متجه خاصية بقيم غير صفرية في الفهارس الثلاثة المقابلة للكلمات the وdog وjumps. ويمكن أن تكون القيمة غير الصفرية أيًا مما يلي:

  • A 1 للإشارة إلى وجود كلمة.
  • عدد مرات ظهور كلمة في الحقيبة. على سبيل المثال، إذا كانت العبارة كلب كستنائي كلب بفرو كستنائي، سيتم تمثيل كل من الكستنائي والكلب بالرقم 2، بينما سيتم تمثيل الكلمات الأخرى على النحو 1.
  • بعض القيم الأخرى، مثل لوغاريتم عدد مرات ظهور كلمة في الحقيبة.

خط الأساس

يشير ذلك المصطلح إلى model يُستخدم كنقطة مرجعية لمقارنة مستوى أداء نموذج آخر (يكون عادةً أكثر تعقيدًا). على سبيل المثال، قد يكون نموذج الانحدار اللوجستي بمثابة أساس جيد لنموذج تفصيلي.

بالنسبة إلى مشكلة معيّنة، يساعد الخط الأساسي مطوّري النماذج على تحديد الحدّ الأدنى من الأداء المتوقّع الذي يجب أن يحقّقه النموذج الجديد حتى يكون النموذج الجديد مفيدًا.

مُجمَّع

#fundamentals

مجموعة الأمثلة المستخدمة في تكرار تدريبي واحد. ويحدِّد حجم المجموعة عدد الأمثلة المضمّنة في دفعة واحدة.

راجِع الحقبة للحصول على شرح حول كيفية ارتباط الدفعة بالحقبة.

استنتاج مجمّع

#TensorFlow
#GoogleCloud

يشير ذلك المصطلح إلى عملية استنتاج التوقّعات بشأن أمثلة غير مصنَّفة متعدّدة مقسَّمة إلى مجموعات فرعية أصغر ("دفعات").

يمكن للاستنتاج المجمَّع الاستفادة من ميزات التوازي المتوفّرة في شرائح المسرِّعة. ويعني ذلك أنّ بإمكان مسرِّعات متعدّدة استنتاج التوقعات على دفعات مختلفة من الأمثلة غير المصنّفة في الوقت نفسه، ما يزيد بشكل كبير من عدد الاستنتاجات في الثانية الواحدة.

تسوية الدفعات

تسوية مدخلات أو نتائج دوال التفعيل في طبقة مخفية: يمكن أن يوفر تسوية الدفعة الفوائد التالية:

حجم الدفعة

#fundamentals

عدد الأمثلة في مجموعة. على سبيل المثال، إذا كان حجم الدفعة هو 100، يعالج النموذج 100 مثال لكل تكرار.

في ما يلي استراتيجيات شائعة لحجم الدُفعة:

  • الهبوط المتدرج العشوائي (SGD)، حيث يكون حجم الدفعة 1.
  • الدُفعة الكاملة التي يكون حجم الدُفعة فيها هو عدد الأمثلة في مجموعة التدريب بالكامل على سبيل المثال، إذا كانت مجموعة التدريب تحتوي على مليون مثال، فسيكون حجم الدفعة مليون مثال. عادةً ما تكون الدفعة الكاملة استراتيجية غير فعالة.
  • دفعة صغيرة يتراوح فيها حجم الدُفعة عادةً بين 10 و1,000 دفعة. عادةً ما تكون الدفعة الصغيرة هي الاستراتيجية الأكثر فعالية.

شبكة بايزي العصبية

شبكة عصبية محتملة تراعي عدم اليقين في القيم المرجحة والمخرجات. عادةً ما يتنبأ نموذج انحدار الشبكة العصبية العادي بقيمة عددية. على سبيل المثال، يتنبأ النموذج العادي بسعر منزل يبلغ 853,000. وفي المقابل، تتنبأ شبكة بايز العصبية بتوزيع القيم؛ فعلى سبيل المثال، يتنبأ النموذج البايزي بسعر منزلٍ بـ 853000 بانحراف معياري يبلغ 67200.

تعتمد الشبكة العصبية في بايز على نظرية بايز لحساب الشكوك في الأوزان والتنبؤات. يمكن أن تكون الشبكة العصبية في بايز مفيدة عندما يكون من المهم قياس عدم اليقين، كما هو الحال في النماذج المتعلقة بالمستحضرات الصيدلانية. ويمكن أن تساعد الشبكات العصبية في بايز أيضًا في منع الإفراط في التوافق.

التحسين باستخدام بايز

يشير ذلك المصطلح إلى أسلوب نموذج الانحدار الاحتمالي لتحسين الدوال الهادفة ذات التكلفة الحاسوبية، وذلك من خلال تحسين قيمة بديلة تقيس مستوى عدم اليقين باستخدام أحد أساليب التعلُّم بايز. وبما أنّ تحسين Bayesian مكلف للغاية، يُستخدَم عادةً لتحسين المهام المكلفة للتقييم التي تحتوي على عدد صغير من المَعلمات، مثل اختيار المعلَمات الفائقة.

معادلة بيلمان

#rl

في التعلّم المعزّز، تتم الإشارة إلى الهوية التالية المُستخدمة من خلال دالة Q المثلى:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

تطبّق خوارزميات التعلّم المعزّز هذه الهوية لإنشاء تعلُّم كيو من خلال قاعدة التحديث التالية:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

بالإضافة إلى التعلم التعزز، فإن لمعادلة بيلمان تطبيقات للبرمجة الديناميكية. راجِع مقالة ويكيبيديا لمعادلة بيلمان.

برنامج الترميز الثنائي الاتجاه BERT (تمثيلات من المحولات)

#language

بنية نموذج تمثيل للنص. يمكن أن يعمل نموذج BERT المدرَّب كجزء من نموذج أكبر لتصنيف النص أو مهام تعلُّم الآلة الأخرى.

ويتميز نموذج BERT بالخصائص التالية:

تشمل صيغ BERT ما يلي:

  • ALBERT، وهو اختصار لعبارة A Light BERT.
  • LaBSE:

للحصول على نظرة عامة حول نماذج BERT، يمكنك الاطّلاع على Open Sourcing BERT: أحدث تدريبات مسبقة لمعالجة اللغات الطبيعية.

التحيز (الأخلاقيات/الإنصاف)

#fairness
#fundamentals

1- النماذج النمطية أو التحيز أو المحسوبية تجاه بعض الأشياء أو الأشخاص أو المجموعات على غيرها. يمكن أن تؤثر هذه التحيزات على جمع البيانات وتفسيرها وتصميم النظام وكيفية تفاعل المستخدمين مع النظام. تشمل أشكال هذا النوع من التحيز ما يلي:

‫2. يشير ذلك المصطلح إلى خطأ نظامي ناتج عن استخدام طريقة لجمع العيّنات أو الإبلاغ عن المحتوى. تشمل أشكال هذا النوع من التحيز ما يلي:

يجب عدم الخلط بينه وبين مصطلح الانحياز في نماذج تعلُّم الآلة أو الانحياز على التوقّعات.

تحيز (رياضيات) أو مصطلح تحيز

#fundamentals

اعتراض أو إزاحة من المصدر. التحيز هو معلمة في نماذج التعلم الآلي، والتي يرمز إليها بأي مما يلي:

  • b
  • w0

على سبيل المثال، الانحياز هو b في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في خط ثنائي الأبعاد بسيط، يعني التحيز فقط "تقاطع ص". على سبيل المثال، تحيز الخط في الرسم التوضيحي التالي هو 2.

رسم خط مستقيم ميله 0.5 وانحراف (تقاطع ص) 2.

يوجد التحيز لأن بعض النماذج لا تبدأ من الأصل (0,0). على سبيل المثال، لنفترض أن تكلفة الدخول إلى مدينة ملاهي هي 2 يورو و0.5 يورو مقابل كل ساعة يقيم فيها العميل. وبالتالي، يحتوي نموذج تعيين التكلفة الإجمالية على تحيز 2 لأن أقل تكلفة هي 2 يورو.

لا يجب الخلط بين التحيز والتحيز في الأخلاق والإنصاف أو التحيز في التنبؤ.

ثنائي الاتجاه

#language

يشير ذلك المصطلح إلى مصطلح يُستخدم لوصف نظام يقيّم النص الذي يسبق قسمًا مستهدفًا من النص ويتبعه في الوقت نفسه. في المقابل، يقيّم النظام أحادي الاتجاه النص الذي يسبق قسمًا مستهدفًا من النص فقط.

على سبيل المثال، يمكنك استخدام نموذج لغوي مقنَّع يجب أن يحدد احتمالات الكلمة أو الكلمات التي تمثِّل التسطير في السؤال التالي:

ما هو _____ معك؟

يجب أن يعتمد النموذج اللغوي أحادي الاتجاه احتمالاته فقط على السياق المقدم من الكلمات "ماذا" و"هو" و "الـ". وفي المقابل، يمكن أن يحصل النموذج اللغوي ثنائي الاتجاه أيضًا على سياق من "مع" و "أنت"، مما قد يساعد النموذج في تقديم توقّعات أفضل.

نموذج لغوي ثنائي الاتجاه

#language

نموذج لغوي يحدّد احتمالية توفُّر رمز مميّز معيّن في موقع جغرافي معيّن في مقتطف من النص استنادًا إلى النص السابق واللاحق.

بيغرام

#seq
#language

جرام n يكون فيه N=2.

التصنيف الثنائي

#fundamentals

نوع من مهام التصنيف تتنبأ بإحدى الفئتين المتنفيتين:

على سبيل المثال، يُجري نموذجا التعلم الآلي التاليان تصنيفًا ثنائيًا:

  • نموذج يحدِّد ما إذا كانت الرسائل الإلكترونية رسائل غير مرغوب فيها (الفئة الإيجابية) أو ليست رسائل غير مرغوب فيها (الفئة السلبية).
  • يشير ذلك المصطلح إلى نموذج يقيّم الأعراض الطبية لتحديد ما إذا كان الشخص مصابًا بمرض معيّن (الفئة الإيجابية) أو لا يعاني منه (الفئة السالبة).

تباين مع التصنيف متعدد الفئات.

راجِع أيضًا الانحدار اللوجستي والحد الأدنى للتصنيف.

شرط ثنائي

#df

في شجرة القرار، يشير ذلك المصطلح إلى شرط له نتيجتان محتملتان فقط، عادةً نعم أو لا. مثلاً، ما يلي شرط ثنائي:

temperature >= 100

التباين مع شرط غير ثنائي.

الربط

مرادف التجميع.

دراسة التقييم الثنائي اللغة (BLEU)

#language

درجة بين 0.0 و1.0 شاملة، تشير إلى جودة الترجمة بين لغتين بشريتين (على سبيل المثال، بين الإنجليزية والروسية). تشير درجة BLEU 1.0 إلى ترجمة مثالية؛ وتشير درجة BLEU 0.0 إلى ترجمة سيئة.

التعزيز

يشير ذلك المصطلح إلى أسلوب لتعلُّم الآلة يجمع بالتكرار بين مجموعة من المصنِّفات البسيطة وغير الدقيقة للغاية (يُشار إليها باسم المصنِّفات "الضعيفة") في مصنِّف ذي دقة عالية (مصنِّف "قوي") من خلال زيادة ترجيح الأمثلة التي يخطئ النموذج في تصنيفها حاليًا.

مربّع حدود

#image

في الصورة، إحداثيات (x وy) لمستطيل حول منطقة مهمة، مثل الكلب في الصورة أدناه.

صورة لكلب يجلس على أريكة يحيط بجسم الكلب مربع إحاطة أخضر مع إحداثيات أعلى اليسار (275، 1271) وإحداثيات أسفل يمين (2954 و2761)

بث عام

توسيع شكل المعامل في عملية حسابية بالمصفوفة إلى أبعاد متوافقة مع تلك العملية على سبيل المثال، يتطلب الجبر الخطي أن يكون للمعاملين في عملية إضافة المصفوفة نفس الأبعاد. وبالتالي، لا يمكنك إضافة مصفوفة شكل (m, n) إلى متجه الطول n. يمكّن البث هذه العملية من خلال توسيع الخط المتجه للطول n افتراضيًا إلى مصفوفة شكل (m، n) بتكرار القيم نفسها أسفل كل عمود.

على سبيل المثال، بناءً على التعريفات التالية، يحظر الجبر الخطي A+B لأن الأبعاد A وB لهما أبعاد مختلفة:

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

ومع ذلك، يمكّن البث العملية A+B من خلال توسيع B افتراضيًا إلى:

 [[2, 2, 2],
  [2, 2, 2]]

وبالتالي، أصبحت A+B الآن عملية صالحة:

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

راجع الوصف التالي حول البث في NumPy للحصول على مزيد من التفاصيل.

تجميع البيانات

#fundamentals

تحويل ميزة واحدة إلى ميزات ثنائية متعددة تُسمى الحزم أو السلال، استنادًا إلى نطاق القيمة عادةً. عادةً ما تكون الميزة المقطّعة ميزة مستمرة.

على سبيل المثال، بدلاً من تمثيل درجة الحرارة كميزة نقطة عائمة واحدة مستمرة، يمكنك تقسيم نطاقات درجات الحرارة إلى دلاء منفصلة، مثل:

  • <= 10 درجات مئوية قد تكون مجموعة البيانات "الباردة".
  • درجات الحرارة المعتدلة من 11 إلى 24 درجة مئوية
  • >= 25 درجة مئوية ستكون "دافئة".

سيتعامل النموذج مع كل قيمة في مجموعة البيانات نفسها تماثلاً. على سبيل المثال، القيمتان 13 و22 كلاهما في مجموعة البيانات المعتدلة، ولذلك يتعامل النموذج مع القيمتين بشكل متماثل.

C

طبقة المعايرة

تعديل ما بعد التنبؤ، عادةً لمراعاة تحيز التوقع. يجب أن تتطابق التوقعات والاحتمالات المعدّلة مع توزيع مجموعة مرصودة من التسميات.

الجيل المرشّح

#recsystems

المجموعة الأولية من الاقتراحات التي يختارها نظام الاقتراحات. على سبيل المثال، ضع في اعتبارك متجر كتب يقدم 100000 كتاب. تنشئ مرحلة إنشاء المرشحين قائمة أصغر بكثير من الكتب المناسبة لمستخدم معين، لنفترض 500. ولكن حتى 500 كتاب يعد عددًا كبيرًا جدًا بحيث لا يمكن اقتراحه على المستخدم. وعند اتّباع مراحل لاحقة من نظام اقتراحات (مثل النتائج وإعادة الترتيب)، يتم تقليل تلك المراحل الـ 500 لتصبح مجموعة من الاقتراحات أصغر حجمًا وأكثر فائدة.

تحليل العيّنات المرشّحة

يشير ذلك المصطلح إلى تحسين وقت التدريب يحتسب الاحتمالية لجميع التصنيفات الإيجابية، باستخدام مثلاً softmax، ولكن لعيّنة عشوائية من التصنيفات السلبية فقط. على سبيل المثال، باستخدام مثال يحمل الاسم beagle وdog، تحسب عينات العينات المرشحة الاحتمالات المتوقعة وعبارات الخسارة المقابلة لكل من:

  • بيغل
  • كلب
  • مجموعة فرعية عشوائية من الفئات السالبة المتبقية (على سبيل المثال، قطة، مصاصة، سور).

والفكرة هي أنّ الفئات السلبية يمكن أن تتعلّم من التعزيزات السلبية الأقل تكرارًا طالما تحصل الفئات الإيجابية دائمًا على تعزيزات إيجابية مناسبة، ويلاحظ ذلك بالفعل بشكل تجريبي.

يعتبر تحليل عيّنات المرشّحين أكثر فعالية من الناحية الحسابية من خوارزميات التدريب التي تحتسب التوقّعات لجميع الفئات السلبية، لا سيما عندما يكون عدد الفئات السالبة كبيرًا جدًا.

بيانات فئوية

#fundamentals

الميزات التي تحتوي على مجموعة محددة من القيم المحتملة. على سبيل المثال، ضع في الاعتبار خاصية فئوية تسمى traffic-light-state، والتي لا يمكن أن تحتوي إلا على إحدى القيم الثلاث التالية:

  • red
  • yellow
  • green

من خلال تمثيل traffic-light-state كميزة فئوية، يمكن أن يتعرَّف النموذج على التأثيرات المختلفة لـ red وgreen وyellow على سلوك السائق.

تُسمى الميزات الفئوية أحيانًا الميزات المنفصلة.

التباين مع البيانات الرقمية.

نموذج لغوي سببي

#language

مرادف للنموذج اللغوي أحادي الاتجاه.

اطّلِع على النموذج اللغوي الثنائي الاتجاه لمقارنة المناهج المختلفة الاتجاهية في النمذجة اللغوية.

نقطة مركزية

#clustering

يشير ذلك المصطلح إلى مركز مجموعة عنقودية يتم تحديده من خلال خوارزمية الخوارزمية التصنيفية أو الخوارزمية التصنيفية. على سبيل المثال، إذا كانت ك 3، فإن الخوارزمية التصنيفية أو الخوارزمية المتوسطة تُوجد 3 نقاط مركزية.

التجميع العنقودي القائم على النقاط المركزية

#clustering

يشير ذلك المصطلح إلى فئة من خوارزميات التجميع التي تنظّم البيانات في مجموعات عنقودية غير هرمية. الخوارزمية التصنيفية هي خوارزمية التجميع العنقودي المستند إلى النقاط المركزية الأكثر استخدامًا على نطاق واسع.

التباين مع خوارزميات التجميع الهرمي.

سلسلة التفكير

#language
#GenerativeAI

يشير ذلك المصطلح إلى أسلوب هندسة الطلبات يشجّع على نموذج لغوي كبير (LLM) لتوضيح أسبابه خطوة بخطوة. على سبيل المثال، ضع في اعتبارك المطالبة التالية، مع إيلاء اهتمام خاص للجملة الثانية:

كم عدد القوى التي سيختبرها السائق في سيارة تمتد من 0 إلى 60 ميلاً في الساعة في 7 ثوانٍ؟ في الإجابة، اعرض جميع العمليات الحسابية ذات الصلة.

من المرجّح أن يكون ردّ النموذج اللغوي الكبير:

  • اعرض سلسلة من المعادلات الفيزيائية، مع توصيل القيم 0 و60 و7 في الأماكن المناسبة.
  • اشرح سبب اختيارها لهذه المعادلات وما الذي تعنيه المتغيرات المختلفة.

إنّ سلسلة التفكير التي تفرض على النموذج اللغوي الكبير إجراء جميع العمليات الحسابية، ما قد يؤدي إلى إجابة أكثر دقة. بالإضافة إلى ذلك، إنّ الطلبات المستندة إلى سلسلة تفكير تتيح للمستخدم مراجعة خطوات النموذج اللغوي الكبير لتحديد ما إذا كانت الإجابة منطقية أم لا.

محادثة

#language
#GenerativeAI

تعرض هذه السمة محتوى حوار متبادل مع نظام تعلُّم الآلة، والذي يكون عادةً نموذجًا لغويًا كبيرًا. يصبح التفاعل السابق في المحادثة (ما كتبته وكيف استجاب النموذج اللغوي الكبير) هو سياق الأجزاء اللاحقة من المحادثة.

إنّ الدردشة المبرمجة عبارة عن تطبيق لنموذج لغوي كبير.

نقطة تفتيش

يشير ذلك المصطلح إلى البيانات التي تسجّل حالة معلَمات أحد النماذج في تكرار تدريبي معيّن. تتيح نقاط التحقق تصدير أوزان للنموذج أو إجراء تدريب في جلسات متعددة. تتيح نقاط التفتيش أيضًا التدريب لمواصلة الأخطاء السابقة (على سبيل المثال، الاستباقي للوظيفة).

في حال الضبط الدقيق، ستكون نقطة البداية من أجل تدريب النموذج الجديد هي نقطة تفتيش محدّدة في النموذج المدرَّب مسبقًا.

صنف

#fundamentals

فئة يمكن أن ينتمي إليها تصنيف. مثلاً:

  • في نموذج التصنيف الثنائي الذي يرصد المحتوى غير المرغوب فيه، قد يكون الفئتان محتوى غير مرغوب فيه وغير مرغوب فيه.
  • في نموذج التصنيف متعدد الفئات الذي يحدد سلالات الكلاب، يمكن أن تكون الفئات بودل وبيغل وباك وما إلى ذلك.

يتوقّع نموذج التصنيف فئة معيّنة. في المقابل، يتنبأ نموذج الانحدار برقم وليس فئة.

نموذج التصنيف

#fundamentals

model يكون توقّعه model فعلى سبيل المثال، فيما يلي جميع نماذج التصنيف:

  • يشير ذلك المصطلح إلى نموذج يتنبأ بلغة الجملة المُدخَلة (الفرنسية؟ الإسبانية؟ الإيطالية؟).
  • نموذج للتنبؤ بأنواع الأشجار (القيقب؟ Oak? باوباب؟).
  • يشير ذلك المصطلح إلى نموذج يتوقّع الفئة الإيجابية أو السالبة لحالة طبية معيّنة.

في المقابل، تتنبأ نماذج الانحدار بالأرقام بدلاً من الفئات.

هناك نوعان شائعان من نماذج التصنيف هما:

حد التصنيف

#fundamentals

في التصنيف الثنائي، يكون رقم بين 0 و1 يحوِّل الناتج الأولي لنموذج الانحدار اللوجستي إلى توقع إما للفئة الإيجابية أو الفئة السالبة. تجدر الإشارة إلى أنّ حدّ التصنيف هو قيمة يختارها الشخص، وليست قيمة يختارها تدريب النموذج.

ينتج عن نموذج الانحدار اللوجستي قيمة أولية تتراوح بين 0 و1. بعد ذلك:

  • إذا كانت هذه القيمة الأولية أكبر من حد التصنيف، يتم توقُّع الفئة الموجبة.
  • إذا كانت هذه القيمة الأولية أقل من حد التصنيف، يتم توقُّع الفئة السالبة.

لنفترض على سبيل المثال أن الحد الأدنى للتصنيف هو 0.8. إذا كانت القيمة الأولية 0.9، فإن النموذج يتنبأ بالفئة الموجبة. وإذا كانت القيمة الأولية 0.7، فإن النموذج يتنبأ بالفئة السالبة.

يؤثر اختيار حد التصنيف بشدة في عدد النتائج الموجبة الخاطئة والنتائج السالبة الخاطئة.

مجموعة بيانات غير متوازنة الفئات

#fundamentals

يشير ذلك المصطلح إلى مجموعة بيانات لمشكلة تصنيف يختلف فيها العدد الإجمالي للتصنيفات لكل فئة بشكل كبير. على سبيل المثال، ضع في الاعتبار مجموعة بيانات التصنيف الثنائي التي يتم تقسيم تصنيفاتها على النحو التالي:

  • 1,000,000 تصنيف سلبي
  • 10 تصنيفات إيجابية

نسبة التسميات السالبة إلى التصنيفات الموجبة هي 100000 إلى 1، لذا فإن هذه مجموعة بيانات غير متوازنة في الفئة.

في المقابل، ليست مجموعة البيانات التالية غير متوازنة في الفئات لأن نسبة التسميات السالبة إلى التصنيفات الموجبة قريبة نسبيًا من 1:

  • 517 تصنيفًا سلبيًا
  • 483 تصنيفًا إيجابيًا

يمكن أيضًا أن تكون مجموعات البيانات متعددة الفئات غير متوازنة في الفئات. على سبيل المثال، مجموعة بيانات التصنيف متعدد الفئات التالية غير متوازنة أيضًا لأن إحدى التسميات تحتوي على أمثلة أكثر بكثير من التصنيفين الآخرين:

  • 1,000,000 تصنيف بالفئة "أخضر"
  • 200 تصنيف بفئة "أرجواني"
  • 350 تصنيفًا بالفئة "برتقالي"

اطّلِع أيضًا على القصور وفئة الأغلبية وفئة الأقل.

اقتصاص

#fundamentals

أسلوب للتعامل مع القيم الشاذّة من خلال تنفيذ أحد الإجراءين التاليين أو كليهما:

  • تقليل قيم الميزة التي تزيد عن الحدّ الأقصى إلى هذا الحدّ الأقصى
  • زيادة قيم الميزات التي تقل عن الحد الأدنى وتصل إلى ذلك الحد الأدنى.

لنفترض مثلاً أنّ نسبة أقل من% 0.5 من قيم ميزة معيّنة تقع خارج النطاق بين 40 و60. في هذه الحالة، يمكنك إجراء ما يلي:

  • يُرجى اقتصاص جميع القيم التي تزيد عن 60 (الحدّ الأقصى) لتكون 60 بالضبط.
  • يُرجى اقتصاص جميع القيم التي تقلّ عن 40 (الحدّ الأدنى) لتكون 40 بالضبط.

يمكن أن تتسبب القيم الاستثنائية في إتلاف النماذج، وقد تتسبب أحيانًا في تجاوز الأوزان أثناء التدريب. ويمكن أن تفسد بعض القيم الاستثنائية المقاييس بشكل كبير، مثل الدقة. يعتبر الاقتصاص أسلوبًا شائعًا للحد من الضرر.

يفرض الاقتصاص المتدرج قيم التدرج ضمن نطاق معيّن أثناء التدريب.

Cloud TPU

#TensorFlow
#GoogleCloud

هو مسرِّع متخصص للأجهزة تم تصميمه لتسريع أعباء التعلم الآلي على Google Cloud.

التجميع العنقودي

#clustering

تجميع الأمثلة ذات الصلة معًا، خاصةً أثناء التعلّم غير الخاضع للإشراف. بمجرد تجميع كل الأمثلة في مجموعات، يمكن للإنسان تقديم معنى لكل مجموعة عنقودية بشكل اختياري.

هناك العديد من خوارزميات التجميع العنقودي. على سبيل المثال، أمثلة على مجموعات الخوارزمية الخوارزمية التصنيفية بناءً على قربها من النقطة المركزية، كما في المخطّط البياني التالي:

رسم بياني ثنائي الأبعاد يتم فيه تصنيف المحور &quot;س&quot; بعرض الشجرة،
          ويتم تصنيف المحور &quot;ص&quot; على ارتفاع الشجرة. يتضمّن الرسم البياني
          نقطة مركزية وعدة عشرات من نقاط البيانات. ويتم تصنيف نقاط البيانات
          استنادًا إلى قربها. وهذا يعني أنّه يتم تصنيف نقاط البيانات
          الأقرب إلى نقطة مركزية بالمجموعة العنقودية 1، في حين يتم تصنيف النقاط
          الأقرب إلى النقطة المركزية الأخرى بالمجموعة العنقودية 2.

ويمكن للباحث البشري بعد ذلك مراجعة المجموعات العنقودية، على سبيل المثال، تصنيف المجموعة 1 على أنها "أشجار قزمة" والمجموعة 2 بوصفها "أشجار بالحجم الكامل".

كمثال آخر، يمكنك استخدام خوارزمية التجميع العنقودي بناءً على مسافة أحد الأمثلة من النقطة المركزية، كما هو موضح على النحو التالي:

يتم ترتيب عشرات من نقاط البيانات في دوائر متحدة المركز، تشبه تقريبًا
          الثقوب حول مركز رمي السهام. يتم تصنيف الحلقة الأعمق
          لنقاط البيانات على أنها المجموعة 1، وتُصنف الحلقة الوسطى
          بالمجموعة العنقودية 2، والحلقة الخارجية على أنها
          المجموعة 3.

التكيّف مع الآخرين

عندما تتنبأ الخلايا العصبية بالأنماط في بيانات التدريب من خلال الاعتماد حصريًا تقريبًا على مخرجات خلايا عصبية أخرى محدّدة بدلاً من الاعتماد على سلوك الشبكة ككل. عندما لا تكون الأنماط التي تسبب التكيف المشترك في بيانات التحقق، فإن التكيّف المشترك يتسبب في فرط التخصيص. تنظيم حالات الانسحاب من المنزل يحدّ من التكيّف المشترك لأنّ الانقطاع يضمن أن الخلايا العصبية لا يمكنها الاعتماد فقط على خلايا عصبية معيّنة أخرى.

الفلترة حسب الاهتمامات الجماعية

#recsystems

إجراء توقّعات بشأن اهتمامات أحد المستخدمين استنادًا إلى مصالح العديد من المستخدمين الآخرين غالبًا ما تُستخدم التصفية التعاونية في أنظمة التوصية.

مفهوم الحركة

يشير ذلك المصطلح إلى تغيير في العلاقة بين العناصر والتسمية. وبمرور الوقت، يقلل انحراف المفهوم من جودة النموذج.

أثناء التطبيق، يتعلم النموذج العلاقة بين الخصائص وتسمياتها في مجموعة التطبيق. إذا كانت التصنيفات الموجودة في مجموعة التدريب هي خوادم وكيلة جيدة للواقع، ينبغي أن يقدم النموذج تنبؤات جيدة في العالم الحقيقي. ومع ذلك، بسبب انحراف المفهوم، تميل توقّعات النموذج إلى التدهور بمرور الوقت.

على سبيل المثال، ضع في الاعتبار نموذج التصنيف الثنائي الذي يتنبأ بما إذا كان طراز معيّن من السيارات "موفرًا للوقود" أم لا. وهذا يعني أن الميزات يمكن أن تكون:

  • وزن السيارة
  • ضغط المحرّك
  • نوع ناقل الحركة

في حين أن التصنيف إما:

  • موفّر للوقود
  • غير موفّر للوقود

ومع ذلك، فإن مفهوم "السيارة الفعّالة في استهلاك الوقود" يتغيّر باستمرار. من المؤكّد أنّ طراز السيارة الذي تم تصنيفه على أنّه موفر للوقود في عام 1994 سيتم تصنيفه على أنّه غير موفّر للوقود في عام 2024. يميل النموذج الذي يعاني من انحراف المفاهيم إلى تقديم تنبؤات أقل وأقل فائدة بمرور الوقت.

تحديد أوجه الاختلاف والتشابه مع عدم الحركة

الشرط

#df

في شجرة القرار، أي عقدة تقيّم تعبيرًا. على سبيل المثال، يحتوي الجزء التالي من شجرة القرار على شرطين:

شجرة قرارات تتكون من شرطين: (x > 0) و(y > 0).

ويسمى الشرط أيضًا التقسيم أو الاختبار.

حالة التباين باستخدام ورقة الشجر.

انظر أيضًا:

محادثة

#language

مرادف لكلمة هالوس.

قد يكون التخمين عبارة عن مصطلح أكثر دقة من الناحية الفنية من الهلوسة. ومع ذلك، أصبحت الهلوسة شائعة في المقام الأول.

الإعدادات

يشير ذلك المصطلح إلى عملية تعيين القيم الأولية للسمات المستخدَمة لتدريب نموذج، ومنها:

في مشروعات تعلُّم الآلة، يمكن إجراء الإعداد من خلال ملف إعداد خاص أو باستخدام مكتبات ضبط، مثل ما يلي:

الانحياز التأكيدي

#fairness

الميل للبحث عن المعلومات وتفسيرها وتفضيلها وتذكّرها بطريقة تؤكد على المعتقدات أو الفرضيات الموجودة مسبقًا للفرد. قد يجمع مطوّرو برامج تعلُّم الآلة البيانات أو يصنّفونها بدون قصد بطرق تؤثر في نتيجة تدعم معتقداتهم الحالية. الانحياز التأكيدي هو شكل من الانحياز الضمني.

انحياز المجرّب هو شكل من أشكال الانحياز التأكيدي الذي يواصل فيه المُختبَر تدريب النماذج حتى يتم تأكيد فرضية موجودة مسبقًا.

مصفوفة التشويش

#fundamentals

يشير ذلك المصطلح إلى جدول NxN يلخص عدد التوقّعات الصحيحة وغير الصحيحة التي أجراها نموذج التصنيف. على سبيل المثال، يمكنك الاطّلاع على مصفوفة التشويش التالية لنموذج تصنيف ثنائي:

الورم (المتوقَّع) غير ورم (المتوقَّعة)
الورم (الحقيقة الأرضية) 18 سنة (TP) 1 (FN)
غير الورم (الحقيقة الواقعية) 6 (FP) 452 (TN)

توضح مصفوفة التشويش السابقة ما يلي:

  • من بين 19 توقعًا كانت الحقيقة الأساسية فيها هي Tumor، تم تصنيف النموذج 18 بشكل صحيح وتصنيف 1 بشكل غير صحيح.
  • من بين 458 تنبؤًا كانت الحقيقة الأساسية فيها غير ورم، صنف النموذج 452 بشكل صحيح وصنف 6 منها بشكل غير صحيح.

يمكن أن تساعدك مصفوفة الالتباس لمشكلة تصنيف متعدد الفئات في تحديد أنماط الأخطاء. على سبيل المثال، ضع في اعتبارك مصفوفة التشويش التالية لنموذج تصنيف متعدد الفئات من 3 فئات يصنف ثلاثة أنواع مختلفة من قزحية العين (فيرجينيكا، وفيرسيلون، وسيتوزا). عندما كانت الحقيقة الواقعية هي فيرجينيكا، تُظهر مصفوفة الارتباك أن النموذج كان من المرجح أن يتوقع عن طريق الخطأ Versicolor من سيتوسا:

  سيتوسا (المتوقَّعة) Versicolor (المتوقع) فيرجينيكا (المتوقَّعة)
سيتوسا (الحقيقة الواقعية) 88 12 0
Versicolor (الحقيقة الواقعية) 6 141 7
فيرجينيكا (الحقيقة) 2 27 109

كمثال آخر، يمكن أن تكشف مصفوفة التشويش أن النموذج المُدرَّب على التعرف على الأرقام المكتوبة بخط اليد يميل عن طريق الخطأ إلى التنبؤ بالرقم 9 بدلاً من 4، أو التنبؤ عن طريق الخطأ بالعدد 1 بدلاً من 7.

تحتوي مصفوفات التشويش على معلومات كافية لحساب مجموعة متنوعة من مقاييس الأداء، بما في ذلك الدقة والاستدعاء.

تحليل الدوائر الانتخابية

#language

تقسيم جملة إلى هياكل نحوية أصغر ("المكونات"). ويمكن للجزء اللاحق من نظام تعلُّم الآلة، مثل نموذج فهم اللغة الطبيعية، تحليل المكوّنات بسهولة أكبر من الجملة الأصلية. على سبيل المثال، فكر في الجملة التالية:

تبنت صديقتي قطتَين.

يمكن للمحلل اللغوي للدائرة تقسيم هذه الجملة إلى المكونين التاليين:

  • صديقي هي عبارة اسمية.
  • تبني قطتين هي عبارة فعلية.

ويمكن تقسيم هذه العناصر بشكل فرعي إلى مكوّنات أصغر. على سبيل المثال، عبارة الفعل

تم تبني قطتين

يمكن تقسيمها بشكل فرعي إلى:

  • adopted هي فعل.
  • قطتان هي عبارة اسمية أخرى.

تضمين لغة مستندة إلى السياق

#language
#GenerativeAI

تضمين محتوى يقترب من "فهم" الكلمات والعبارات بطرق يمكن للمتحدثين الأصليين بها يمكن أن تفهم عمليات تضمين اللغة ذات السياق البنية المعقدة والدلالات والسياق.

على سبيل المثال، ننصحك بتضمين كلمة cow باللغة الإنجليزية. بالنسبة إلى التضمينات القديمة، مثل word2vec، يمكن أن تمثّل الكلمات الإنجليزية، بحيث تكون المسافة في مساحة التضمين من بقرة إلى ثور مشابهة للمسافة من ewe (أنثى خروف) إلى كبش (ذكر من الخراف) أو من أنثى إلى ذكر. إنّ تضمين الكلمات ذات المحتوى السياقي يمكن أن يساعد في تحقيق نتائج أفضل من خلال معرفة أنّ المتحدثين باللغة الإنجليزية يستخدمون أحيانًا كلمة بقرة للإشارة إلى بقرة أو ثور.

نافذة السياق

#language
#GenerativeAI

عدد الرموز المميّزة التي يمكن أن يعالجها نموذج في طلب معيّن. كلما زادت نافذة السياق، زادت المعلومات التي يمكن أن يستخدمها النموذج لتقديم ردود متماسكة ومتسقة على المطالبة.

خاصية مستمرة

#fundamentals

هي ميزة نقطة عائمة تحتوي على نطاق غير محدود من القيم المحتملة، مثل درجة الحرارة أو الوزن.

تباين مع الميزة المنفصلة.

عينة عشوائية

استخدام مجموعة بيانات لم يتم جمعها علميًا لإجراء تجارب سريعة. ولاحقًا، من الضروري التبديل إلى مجموعة بيانات مجمّعة علميًا.

التقارب

#fundamentals

يتم الوصول إلى حالة عندما تتغيّر قيم الخسارة بشكل ضئيل جدًا أو لا تتغير على الإطلاق مع كل تكرار. على سبيل المثال، يشير منحنى الخسارة التالي إلى التقارب عند حوالي 700 تكرار:

المخطط الديكارتي. المحور س هو الخسارة. المحور Y هو عدد التكرارات التطبيقية. تكون نسبة الخسارة مرتفعة جدًا خلال التكرارات القليلة الأولى، لكنّها تنخفض بشكل كبير. وبعد 100 تكرار تقريبًا، لا تزال الخسارة
          هبوطية ولكن بشكل تدريجي أكثر. وبعد 700 تكرار، تظل الخسارة ثابتة.

يتقارب النموذج عندما لا يؤدي التدريب الإضافي إلى تحسين النموذج.

في التعلم العميق، تظل قيم الخسارة ثابتة في بعض الأحيان أو تقريبًا للعديد من التكرارات قبل أن تتراجع في النهاية. خلال فترة طويلة من قيم الخسارة الثابتة، قد تحصل مؤقتًا على إحساس زائف بالتقارب.

يمكنك أيضًا الاطّلاع على الإيقاف المبكر.

دالة محدّبة

دالة تكون فيها المنطقة أعلى الرسم البياني للدالة مجموعة محدبة. تكون دالة المحدبة النموذجية على شكل شيء مثل الحرف U. على سبيل المثال، في ما يلي جميع الدوال المحدبة:

منحنيات على شكل حرف U، ولكل منها نقطة دنيا واحدة.

في المقابل، الدالة التالية ليست محدبة. لاحظ كيف أن المنطقة فوق الرسم البياني ليست مجموعة محدّبة:

منحنى على شكل حرف W يتضمن نقطتَين دنيا محليتين مختلفتين.

تتضمن الدالة المحدبة بدقة حدًّا أدنى محليًا واحدًا فقط، وهي أيضًا الحد الأدنى العام. الدوال الكلاسيكية على شكل حرف U هي دوال محدّبة بشدة. ومع ذلك، فإن بعض الدوال المحدبة (على سبيل المثال، الخطوط المستقيمة) ليست على شكل حرف U.

تحسين الدالّة المحدّبة

عملية استخدام الأساليب الحسابية مثل خوارزمية انحدار التدرج لإيجاد الحدّ الأدنى من دالة محدّبة. وقد ركز قدر كبير من الأبحاث في مجال تعلُّم الآلة على صياغة مسائل مختلفة مثل مسائل تحسين مُحدبة وحلها بكفاءة أكبر.

لمعرفة التفاصيل الكاملة، يُرجى الاطّلاع على "بويد" و"فاندنبيرغ" "تحسين الصوت" (Compex).

مجموعة محدّبة

مجموعة فرعية من المساحة الإقليدية بحيث يكون الخط المرسوم بين أي نقطتين في المجموعة الفرعية يظل تمامًا داخل المجموعة الفرعية. على سبيل المثال، الشكلان التاليان هما مجموعات محدبة:

صورة توضيحية واحدة لمستطيل رسم توضيحي آخر لشكل بيضاوي

في المقابل، لا يشكّل الشكلان التاليان مجموعات محدّبة:

صورة توضيحية واحدة لرسم بياني دائري مع شريحة مفقودة
          صورة توضيحية أخرى لمضلّع غير منتظم إلى حدٍ كبير

التفاف

#image

في الرياضيات، بمعنى آخر، مزيج من دالتين. وفي مجال تعلُّم الآلة، يمزج الالتفاف فلتر الالتفاف مع مصفوفة الإدخال بهدف تطبيق الأوزان.

مصطلح "الالتفاف" في تعلُّم الآلة هو في الغالب طريقة مختصرة للإشارة إلى العملية الالتفافية أو الطبقة الالتفافية.

بدون الالتفاف، يجب أن تتعلّم خوارزمية تعلُّم الآلة وزنًا منفصلاً لكل خلية في Tenor كبير. على سبيل المثال، عندما يتم تدريب خوارزمية التعلم الآلي على الصور بدقة 2K × 2K، سيتم إجبار 4M على إيجاد أوزان منفصلة. بفضل التطورات، لا تحتاج خوارزمية التعلم الآلي إلا إلى إيجاد قيم ترجيح لكل خلية في الفلتر الالتفافي، ما يقلل بشكل كبير من الذاكرة اللازمة لتدريب النموذج. عند تطبيق عامل التصفية الالتفافية، يتم تكراره عبر الخلايا بحيث يتم ضرب كل فلتر في عامل التصفية.

فلتر التفافي

#image

أحد الممثلين في عملية التفافية. (المنفِّذ الآخر هو شريحة من مصفوفة إدخال). عامل التصفية الالتفافية عبارة عن مصفوفة لها الترتيب نفسه كمصفوفة الإدخال، ولكنها ذات شكل أصغر. على سبيل المثال، بناءً على مصفوفة إدخال بحجم 28x28، يمكن أن يكون عامل التصفية أي مصفوفة ثنائية الأبعاد أصغر من 28x28.

في معالجة التصوير الفوتوغرافي، يتم تعيين جميع الخلايا في فلتر التفافي عادةً على نمط ثابت من الآحاد والأصفار. في تعلُّم الآلة، عادةً ما تستند الفلاتر الالتفافية إلى أرقام عشوائية، ثم تدرِّب القيم المثالية على الشبكة.

طبقة التفافية

#image

يشير ذلك المصطلح إلى طبقة من الشبكة العصبية العميقة التي يمر فيها فلتر التفافي على طول مصفوفة إدخال. على سبيل المثال، ضع في الاعتبار الفلتر الالتفافي التالي 3×3:

مصفوفة 3×3 بالقيم التالية: [[0,1,0] و[1,0,1] و[0,1,0]]

توضح الصورة المتحركة التالية طبقة التفافية تتكون من 9 عمليات التفافية تشتمل على مصفوفة إدخال بحجم 5×5. لاحظ أن كل عملية التفافية تعمل على شريحة 3×3 مختلفة من مصفوفة الإدخال. تتكون مصفوفة 3×3 الناتجة (على اليمين) من نتائج عمليات الالتفاف التسع:

صورة متحركة تعرض مصفوفة واحدة. المصفوفة الأولى هي المصفوفة 5×5
 [[128,97,53,201,198], [35,22,25,200,195],
 [37,24,28,197,182], [33,28,92,195,179], [35,22,25,200,195]

          والمصفوفة الثانية هي مصفوفة 3×3: [[181,303,618] و[115,338,605] و[169,351,560]].
          يتم احتساب المصفوفة الثانية من خلال تطبيق فلتر الالتفاف [[0, 1, 0], [1, 0, 1], [0, 1, 0]] على
 مجموعات فرعية 3x3 مختلفة في مصفوفة 5x5.

شبكة عصبية التفافية

#image

يشير ذلك المصطلح إلى شبكة عصبية تكون فيها طبقة واحدة على الأقل طبقة التفافية. تتكون الشبكة العصبية الالتفافية النموذجية من مزيج من الطبقات التالية:

حققت الشبكات العصبية الالتفافية نجاحًا كبيرًا في أنواع معينة من المشكلات، مثل التعرف على الصور.

عملية التفافية

#image

العملية الحسابية التالية المكوَّنة من خطوتين:

  1. يشير ذلك المصطلح إلى عملية ضرب العناصر في الفلتر الالتفافي وشريحة من مصفوفة الإدخال. (شريحة مصفوفة الإدخال لها نفس الرتبة والحجم كفلتر الالتفاف.)
  2. مجموع كل القيم في مصفوفة المنتجات الناتجة.

على سبيل المثال، ضع في الاعتبار مصفوفة الإدخال 5×5 التالية:

المصفوفة 5×5: [[128,97,53,201,198]، [35,22,25,200,195]،
          [37,24,28,197,182]، [33,28,92,195,179]، [31,79].

تخيل الآن عامل التصفية الالتفافية 2×2:

المصفوفة 2×2: [[1، 0]، [0، 1]]

تتضمن كل عملية التفافية شريحة 2×2 واحدة من مصفوفة الإدخال. على سبيل المثال، لنفترض أننا نستخدم شريحة 2×2 في أعلى يسار مصفوفة الإدخال. إذًا، تبدو عملية الالتفاف على هذه الشريحة على النحو التالي:

يتم تطبيق الفلتر الالتفافي [[1, 0], [0, 1]] على قسم
          2×2 في أعلى يسار الصفحة في مصفوفة الإدخال، أي [[128,97] و[35,22]].
          ويترك فلتر الالتفاف 128 و22 بدون تغيير، لكنّه يُزيل صفرًا
          من 97 و35. وبالتالي، نتج عن عملية الالتفاف
          القيمة 150 (128+22).

تتكون الطبقة الالتفافية من سلسلة من العمليات الالتفافية، تعمل كل منها على شريحة مختلفة من مصفوفة الإدخال.

التكلفة

مرادف loss.

التدريب المشترك

يُعدّ نهج التعلّم شبه الخاضع للإشراف مفيدًا بشكل خاص عند استيفاء جميع الشروط التالية:

يضخم التدريب المشترك بشكل أساسي الإشارات المستقلة للحصول على إشارة أقوى. على سبيل المثال، يمكنك استخدام نموذج تصنيف يصنّف السيارات المستعمَلة الفردية على أنّها جيدة أو سيئة. قد تركز مجموعة واحدة من الميزات التنبؤية على الخصائص الإجمالية مثل السنة والعلامة التجارية وطراز السيارة؛ وقد تركز مجموعة أخرى من الميزات التنبؤية على سجل القيادة السابق للمالك وتاريخ صيانة السيارة.

المقالة الأساسية حول التدريب المشترك هي الجمع بين البيانات المصنفة والبيانات غير المصنفة مع التدريب المشترك من تأليف بلوم وميتشل.

الإنصاف المغاير

#fairness

مقياس إنصاف يتحقّق مما إذا كان المصنِّف ينتج النتيجة نفسها لفرد معيّن كما هو الحال مع فرد آخر مطابق للنتيجة الأولى، ويُستثنى من ذلك سمة حساسة واحدة أو أكثر. إن تقييم المصنِّف من أجل الإنصاف المتناقض هو إحدى طرق إبراز المصادر المحتملة للتحيز في نموذج.

راجِع المقالة "When Worlds Collide: Integدمج مختلف الافتراضات المضادة في الإنصاف" للاطّلاع على مناقشة أكثر تفصيلاً حول الإنصاف المعارضة.

انحياز في التغطية

#fairness

راجِع انحياز الاختيار.

زهرة متلازمة

#language

جملة أو عبارة ذات معنى غامض. تمثّل أزهار الأعطال مشكلة كبيرة في فهم اللغة الطبيعية. على سبيل المثال، العنوان الرئيسي الشريط الأحمر يحمل سكاي سكريبر هو زهر كبير، لأنّ نموذج NLU يمكنه تفسير العنوان الرئيسي حرفيًا أو مجازيًا.

ناقد

#rl

مرادف لـ Deep Q-Network.

الإنتروبيا المختلفة

تعميم فقدان السجلات إلى مشكلات التصنيف متعدد الفئات. يحدد القصور المتقاطع الفرق بين توزيعين للاحتمالية. راجِع أيضًا المرونة.

التحقّق المتبادل

آلية لتقدير مدى تعميم model على البيانات الجديدة من خلال اختبار النموذج مقابل مجموعة فرعية واحدة أو أكثر من البيانات غير المتداخلة التي يتم اقتطاعها من model.

دالة التوزيع التراكمي (CDF)

دالة تحدد تكرار العينات الأقل من أو تساوي القيمة المستهدفة. على سبيل المثال، بالنظر إلى التوزيع الطبيعي للقيم المستمرة. يخبرك مقياس CDF أن حوالي 50٪ من العينات يجب أن تكون أقل من أو تساوي المتوسط وأن ما يقرب من 84٪ من العينات يجب أن تكون أقل من أو تساوي انحرافًا معياريًا واحدًا فوق المتوسط.

D

تحليل البيانات

الحصول على فهم للبيانات من خلال النظر في العينات والقياس والتصور. يمكن أن يكون تحليل البيانات مفيدًا بشكل خاص عند تلقّي مجموعة بيانات لأول مرة، قبل إنشاء model الأول. وهو أمر بالغ الأهمية أيضًا لفهم التجارب وتصحيح الأخطاء في النظام.

زيادة البيانات

#image

التحسين المصطنَع لنطاق أمثلة التدريب وعدد هذه الأمثلة من خلال تحويل الأمثلة الحالية لإنشاء أمثلة إضافية على سبيل المثال، لنفترض أنّ الصور هي إحدى الميزات التي توفّرها، لكن مجموعة البيانات لا تحتوي على أمثلة صور كافية للنموذج لتعلّم الارتباطات المفيدة. من الناحية المثالية، ستضيف عددًا كافيًا من الصور المُصنَّفة إلى مجموعة البيانات لكي يتدرب النموذج بشكلٍ صحيح. وإذا لم يكن ذلك ممكنًا، يمكن تدوير كل صورة وتمديدها وعكسها لإنتاج العديد من المتغيرات للصورة الأصلية، ما قد ينتج عنه بيانات مصنَّفة كافية لتوفير تدريب ممتاز.

DataFrame

#fundamentals

نوع بيانات شائع من pandas لتمثيل مجموعات البيانات في الذاكرة.

DataFrame مماثل لجدول أو جدول بيانات. كل عمود في DataFrame له اسم (عنوان)، ويتم تحديد كل صف برقم فريد.

تتم هيكلة كل عمود في DataFrame مثل صفيف ثنائي الأبعاد، باستثناء أنه يمكن تعيين نوع بيانات خاص لكل عمود.

اطّلِع أيضًا على صفحة pandas.DataFrame المرجعية الرسمية.

موازاة البيانات

هي طريقة لتوسيع نطاق التدريب أو الاستنتاج الذي ينسخ نموذجًا كاملاً على أجهزة متعددة ثم يمرر مجموعة فرعية من بيانات الإدخال إلى كل جهاز. يمكن أن يتيح موازاة البيانات التدريب والاستنتاج على أحجام مجموعات كبيرة جدًا، ولكن يتطلب توازي البيانات أن يكون النموذج صغيرًا بما يكفي ليناسب جميع الأجهزة.

عادة ما يعمل موازاة البيانات على تسريع التدريب والاستنتاج.

راجِع أيضًا التوازي النموذجي.

مجموعة بيانات أو مجموعة بيانات

#fundamentals

مجموعة من البيانات الأولية، والتي يتم تنظيمها بشكل شائع (وليس حصريًا) بأحد التنسيقات التالية:

  • جدول بيانات
  • ملف بتنسيق CSV (قيم مفصولة بفواصل)

واجهة برمجة تطبيقات مجموعة البيانات (tf.data)

#TensorFlow

يشير ذلك المصطلح إلى واجهة برمجة تطبيقات TensorFlow عالية المستوى لقراءة البيانات وتحويلها إلى نموذج تتطلّبه خوارزمية تعلُّم الآلة. يمثل الكائن tf.data.Dataset تسلسلاً من العناصر، حيث يحتوي كل عنصر على واحد أو أكثر من أداة الاستشعار. يوفّر كائن tf.data.Iterator إمكانية الوصول إلى عناصر Dataset.

للحصول على تفاصيل حول Dataset API، يُرجى الاطّلاع على tf.data: إنشاء مسارات إدخال TensorFlow في دليل مبرمج TensorFlow.

حدود القرار

تمثّل هذه السمة الفاصل بين الفئات التي تم تعلُّمها باستخدام نموذج في فئة ثنائية أو مسائل التصنيف المتعدد الفئات. على سبيل المثال، في الصورة التالية التي تمثل مشكلة تصنيف ثنائي، يكون حدود القرار هي الحدود بين الفئة البرتقالية والفئة الزرقاء:

يشير ذلك المصطلح إلى حدود محدَّدة بوضوح بين فئة وأخرى.

غابة القرارات

#df

يشير ذلك المصطلح إلى نموذج يتم إنشاؤه من عدة أشجار قرارات. تقوم غابة القرارات بالتنبؤ من خلال تجميع التنبؤات بأشجار القرارات الخاصة بها. تشمل الأنواع الرائجة من غابات اتخاذ القرار الغابات العشوائية والأشجار المعزَّزة المتدرجة.

الحد الأدنى لاتخاذ القرار

مرادف الحد الأدنى للتصنيف.

شجرة القرارات

#df

يشير ذلك المصطلح إلى نموذج تعلُّم خاضع للإشراف مؤلّف من مجموعة من conditions وconditions جدولاً هرميًا. على سبيل المثال، في ما يلي شجرة قرارات:

شجرة قرارات تتألف من أربعة شروط مرتّبة بشكل هرمي، تؤدي إلى خمس أوراق.

برنامج فك الترميز

#language

بشكل عام، أي نظام لتعلُّم الآلة يتحوّل من تمثيل داخلي تمت معالجته أو كثيف أو داخلي إلى تمثيل أكثر أوّلاً أو متفرقًا أو خارجيًا.

غالبًا ما تكون برامج فك الترميز مكوّنًا من نموذج أكبر، حيث يتم إقرانها بشكل متكرر ببرنامج ترميز.

في مهام التسلسل إلى التسلسل، تبدأ أداة فك الترميز الحالة الداخلية التي تم إنشاؤها بواسطة برنامج الترميز لتوقّع التسلسل التالي.

يُرجى الرجوع إلى Transformer للاطّلاع على تعريف أداة فك الترميز ضمن بنية المحوِّل.

نموذج عميق

#fundamentals

شبكة عصبية تحتوي على أكثر من طبقة مخفية

ويسمى النموذج العميق أيضًا الشبكة العصبونية العميقة.

التباين مع النموذج العريض.

شبكة عصبية عميقة

مرادف لـ النموذج العميق.

شبكة Deep QNetwork (DQN)

#rl

في Q-تعلم، وهي شبكة عصبية عميقة يمكنها توقُّع دوال Q.

ناقد هو مرادف لـ Deep Q-Network.

التكافؤ الديموغرافي

#fairness

مقياس إنصاف تتم معالجته إذا كانت نتائج تصنيف نموذج لا تعتمد على سمة حساسة محدّدة.

على سبيل المثال، إذا تقدم كل من Lilliputians وBrobdingnagians لجامعة Glubbdubdrib، يتم تحقيق التكافؤ الديموغرافي إذا كانت النسبة المئوية للمشاركين هي نفسها النسبة المئوية لسكان مدينة ليليبوتن، بغض النظر عما إذا كانت مجموعة واحدة في المتوسط أكثر تأهيلاً من الأخرى.

تباين مع الاحتمالات المتساوية وتكافؤ الفرص، اللتين تسمحان للتصنيف برمته بالاعتماد على سمات حساسة، ولكنه لا يسمح باعتماد نتائج التصنيف لبعض تصنيفات الحقيقة الأساسية المحددة. يمكنك مراجعة "مهاجمة التمييز من خلال تعلُّم الآلة الأكثر ذكاءً" للاطّلاع على تمثيل مرئي يستكشف الإيجابيات والسلبيات عند تحسين الأداء من أجل تحقيق التكافؤ الديموغرافي.

إزالة الضوضاء

#language

أسلوب شائع لاستخدام التعلّم الذاتي، حيث:

  1. تتم إضافة الضوضاء بشكل زائف إلى مجموعة البيانات.
  2. يحاول model إزالة التشويش.

تتيح إزالة التشويش التعلُّم من أمثلة غير مصنَّفة. تعمل مجموعة البيانات الأصلية كهدف أو تصنيف والبيانات الصاخبة كمدخلات.

تستخدم بعض النماذج اللغوية المقنَّعة ميزة إزالة التشويش على النحو التالي:

  1. تتم إضافة التشويش بشكل مصطنع إلى جملة غير مصنَّفة من خلال إخفاء بعض الرموز المميّزة.
  2. يحاول النموذج التنبؤ بالرموز المميزة الأصلية.

خاصية كثيفة

#fundamentals

ميزة تكون فيها معظم القيم أو جميعها غير صفرية، وعادةً ما تكون أداة الاستشعار لقيم النقاط العائمة. على سبيل المثال، قيمة Tensor التالية المكونة من 10 عناصر كثيفة لأنّ 9 من قيمها غير صفرية:

8 3 7 5 2 4 0 4 9 6

التباين مع الميزة المتفرقة.

طبقة كثيفة

يشير ذلك المصطلح إلى الطبقة المتصلة بالكامل.

العمق

#fundamentals

مجموع ما يلي في شبكة عصبية:

فعلى سبيل المثال، يبلغ عمق الشبكة العصبية المكونة من خمس طبقات مخفية وطبقة إخراج واحدة 6.

يُرجى العلم أنّ طبقة الإدخال لا تؤثر في العمق.

الشبكة العصبية الالتفافية القابلة للفصل بين العمق (sepCNN)

#image

هي بنية للشبكة العصبية الالتفافية تستند إلى Inception، ولكن يتم فيها استبدال وحدات Inception بثوبات قابلة للفصل بعمق. تُعرف أيضًا باسم Xception.

يعمل الالتفاف القابل للفصل بعمق 1 (ويُختصَر أيضًا على أنه التفاف قابل للفصل) في عامل التفاف ثلاثي الأبعاد عادي في عمليتَي التفاف منفصلتين أكثر فعالية من الناحية الحاسوبية: أولاً، التفاف العمق، بعمق 1 (n عدد مرات x x 1)، ثم عمقه 1 (الالتفاف 1××××):

للحصول على مزيد من المعلومات، يمكنك الاطّلاع على Xception: التعلم المتعمق مع الالتفافات الفصلية المتعمقة.

تصنيف مشتق

مرادف تصنيف الخادم الوكيل.

الجهاز

#TensorFlow
#GoogleCloud

يشير ذلك المصطلح إلى عبارة عن حمل زائد مع التعريفَين التاليَين:

  1. فئة من الأجهزة التي يمكنها تشغيل جلسة TensorFlow، بما في ذلك وحدات المعالجة المركزية (CPU) ووحدات معالجة الرسومات (GPU) ووحدات معالجة الموتّرات.
  2. عند تدريب نموذج تعلُّم الآلة على شرائح مسرِّعة البيانات (وحدات معالجة الرسومات أو وحدات معالجة الموتّرات)، يشير ذلك إلى جزء النظام الذي يعالج فعليًا عوامل التعريض وعمليات التضمين. يعمل الجهاز على شرائح مسرِّعة. في المقابل، يعمل المضيف عادةً على وحدة معالجة مركزية (CPU).

الخصوصية التفاضلية

يشير ذلك المصطلح إلى أسلوب إخفاء الهوية في تكنولوجيا تعلُّم الآلة لحماية أي بيانات حسّاسة (مثل المعلومات الشخصية لأحد الأفراد) مضمّنة في مجموعة تدريب النموذج. ويضمن هذا النهج أنّ model لا يتعلّم أو يتذكّر الكثير عن فرد معيّن. ويتم تحقيق ذلك عن طريق أخذ العينات وإضافة التشويش أثناء تدريب النموذج لإخفاء نقاط البيانات الفردية والحد من خطر الكشف عن بيانات التدريب الحساسة.

ويتم أيضًا استخدام الخصوصية التفاضلية خارج نطاق تعلُّم الآلة. على سبيل المثال، يستخدم علماء البيانات أحيانًا الخصوصية التفاضلية لحماية الخصوصية الفردية عند حساب إحصاءات استخدام المنتج للفئات الديموغرافية المختلفة.

تقليل الأبعاد

خفض عدد الأبعاد المستخدمة لتمثيل ميزة معينة في متجه الميزة، عادة عن طريق التحويل إلى متّجه تضمين.

الأبعاد

العبارة التي تحمل بشكلٍ زائد أيًّا من التعريفات التالية:

  • عدد مستويات الإحداثيات في Tensor على سبيل المثال:

    • ليس للعدد القياسي أي أبعاد. على سبيل المثال، ["Hello"].
    • المتجه له بُعد واحد، على سبيل المثال [3, 5, 7, 11].
    • للمصفوفة بُعدان، مثل [[2, 4, 18], [5, 7, 14]].

    يمكنك تحديد خلية معينة بشكل فريد في متجه أحادي البعد مع إحداثي واحد؛ تحتاج إلى إحداثياتتين لتحديد خلية معينة بشكل فريد في مصفوفة ثنائية الأبعاد.

  • عدد الإدخالات في متّجه الميزة.

  • عدد العناصر في طبقة تضمين.

طلب مباشر

#language
#GenerativeAI

مرادف لطلب بدون لقطة.

خاصية منفصلة

#fundamentals

يشير ذلك المصطلح إلى ميزة تتضمّن مجموعة محدودة من القيم المحتمَلة. على سبيل المثال، تُعدّ الميزة التي قد تكون قيمها حيوانًا أو نباتًا أو معدنًا عنصرًا منفصلاً (أو فئويًا).

التباين مع الميزة المستمرة.

نموذج تمييزي

model يتوقّع model من خلال مجموعة من model أو أكثر. من الناحية الرسمية، تحدِّد النماذج التمييزية الاحتمالية المشروطة لمخرج معيّن وفقًا للخصائص والقيم المرجحة، وهي:

p(output | features, weights)

على سبيل المثال، فإن النموذج الذي يتنبأ بما إذا كانت الرسالة الإلكترونية هي رسالة غير مرغوب فيها من الميزات والأوزان هو نموذج تمييزي.

الغالبية العظمى من نماذج التعلم المُوجّه، بما في ذلك نماذج التصنيف والانحدار، هي نماذج تمييزية.

التباين مع النموذج التوليدي.

أداة تمييز

نظام يحدِّد ما إذا كانت الأمثلة حقيقية أم مزيّفة

يمكن بدلاً من ذلك استخدام النظام الفرعي ضمن شبكة خداعية من إنشاء الذكاء الاصطناعي التوليدي يحدّد ما إذا كانت الأمثلة التي أنشأها منشئ المحتوى حقيقية أم مزيّفة.

تأثير متباين

#fairness

اتخاذ القرارات بشأن الأشخاص الذين يؤثرون في مجموعات فرعية مختلفة من السكان بشكل غير متناسب. يشير هذا عادةً إلى المواقف التي تؤدي فيها عملية اتخاذ القرار الخوارزمية ضررًا أو تفيد بعض المجموعات الفرعية أكثر من غيرها.

فعلى سبيل المثال، لنفترض أن إحدى الخوارزمية التي تحدد أهلية ليليبوتيان للحصول على قرض منزل مصغر من المرجح أن تصنفها على أنها "غير مؤهلة" إذا كان عنوانها البريدي يحتوي على رمز بريدي معين. إذا كان من المرجح أن يكون لدى Big-Endian Lilliputians عناوين بريدية بهذا الرمز البريدي أكثر من Little-Endian Lilliputians، فقد ينتج عن هذه الخوارزمية تأثير متفاوت.

تباين مع المعالجة المتباينة التي تركز على الاختلافات التي تنتج عندما تكون خصائص المجموعات الفرعية هي مدخلات واضحة في عملية اتخاذ قرار خوارزمية.

العلاج المتباين

#fairness

تحليل السمات الحسّاسة الخاصة بالمواضيع إلى عملية خوارزمية لاتخاذ القرار يتم التعامل معها بشكل مختلف في مجموعات فرعية مختلفة من الأشخاص

على سبيل المثال، ضع في اعتبارك خوارزمية تحدد أهلية ليليبوتيان للحصول على قرض منزل مصغر بناءً على البيانات التي يقدمونها في طلب القروض. إذا كانت الخوارزمية تستخدم ارتباط Lilliputian كـ Big-Endian أو Little-Endian كمدخل، فإنها تعرض معالجة متباينة على طول هذا البعد.

تباين مع التأثير المتباين الذي يركّز على الفوارق في التأثيرات المجتمعية للقرارات الخوارزمية على المجموعات الفرعية، بصرف النظر عمّا إذا كانت هذه المجموعات الفرعية مدخلات إلى النموذج أم لا.

التقطير

#GenerativeAI

يشير ذلك المصطلح إلى عملية تقليل حجم model واحد (يُعرف باسم model) إلى نموذج أصغر حجمًا (يُعرف باسم model) يحاكي توقّعات النموذج الأصلي بأكبر قدر ممكن من الدقة. يُعد الاستخلاص مفيدًا لأن النموذج الأصغر له فائدتان رئيسيتان مقارنةً بالنموذج الأكبر (المعلم):

  • وقت استنتاج أسرع
  • انخفاض استخدام الذاكرة والطاقة

ومع ذلك، لا تكون تنبؤات الطالب عادةً جيدة مثل تنبؤات المعلم.

تدرّب عملية الاستخلاص نموذج الطالب لتقليل دالة الخسارة استنادًا إلى الفرق بين مخرجات النتائج المتوقَّعة لنموذج الطالب والمعلّم.

تحديد أوجه الاختلاف والتشابه بين الاستخلاص والمصطلحات التالية:

distribution

تمثّل هذه السمة معدّل التكرار ونطاق القيم المختلفة لميزة أو تصنيف معيّنة. يشير التوزيع إلى مدى احتمالية وجود قيمة معينة.

توضح الصورة التالية المدرجات التكرارية لتوزيعين مختلفين:

  • على اليسار، توزيع قانون السلطة للثروة مقابل عدد الأشخاص الذين يمتلكون تلك الثروة.
  • على اليمين، توزيع طبيعي للطول مقابل عدد الأشخاص الذين يمتلكون هذا الطول.

مدرجان تكراريان. يوضّح أحد المدرّجات التكرارية توزيع قانون القوة مع وجود الثروة على المحور السيني وعدد الأشخاص الذين يملكون هذه الثروة على المحور الصادي. يمتلك معظم الناس ثروة ضئيلة، وقلة قليلة يمتلكان ثروة كبيرة. يوضّح المدرّج التكراري الآخر توزيعًا طبيعيًا بالارتفاع على المحور &quot;س&quot; وعدد الأشخاص الذين لديهم هذا الارتفاع على المحور &quot;ص&quot;. يتم تجميع معظم الأشخاص في مكان ما بالقرب من المتوسط.

يمكن أن يساعدك فهم توزيع كل ميزة وتصنيف في تحديد كيفية تسوية القيم واكتشاف القيم الخارجية.

تشير عبارة خارج التوزيع إلى قيمة لا تظهر في مجموعة البيانات أو تكون نادرة جدًا. على سبيل المثال، قد يُعتبَر صورة لكوكب زحل غير موزّعة في مجموعة بيانات تتألّف من صور لقطط.

التجميع العنقودي التقسيمي

#clustering

اطّلِع على التجميع الهرمي.

تصغير نطاق العيّنات

#image

عبارة التحميل الزائد والتي قد تعني أيًا مما يلي:

  • خفض كمية المعلومات في ميزة من أجل تدريب نموذج بشكل أكثر كفاءة. على سبيل المثال، قبل تدريب نموذج التعرّف على الصور، يتم تقليل عيّنات الصور العالية الدقة إلى تنسيق أقل دقة.
  • التدريب على نسبة منخفضة بشكل غير متناسب من أمثلة الصفوف الممثلة بشكل زائد من أجل تحسين تدريب النموذج على الصفوف محدودة التمثيل على سبيل المثال، في مجموعة بيانات غير متوازنة في الفئات، تميل النماذج إلى تعلُّم الكثير عن الفئة العمرية الأكبر، وليس بدرجة كافية عن فئة الأقل. يساعد تقليص العينات في تحقيق التوازن بين مقدار التدريب على فئات الأغلبية والأقليات.

DQN

#rl

اختصار Deep Q-Network

تسوية الإسقاط

هو شكل من أشكال التنظيم يفيد في تدريب الشبكات العصبونية. تزيل تسوية إسقاط القائمة مجموعة عشوائية لعدد ثابت من الوحدات في إحدى طبقات الشبكة لخطوة تدرج واحدة. كلما زاد عدد الوحدات التي تم استبعادها، زادت التسوية. ويشبه ذلك تدريب الشبكة على محاكاة مجموعة كبيرة للغاية من الشبكات الأصغر. للحصول على التفاصيل الكاملة، يُرجى الاطّلاع على إسقاط: طريقة بسيطة لمنع الشبكات العصبية من فرط التخصيص.

ديناميكي

#fundamentals

حدث شيء ما بشكل متكرر أو مستمر. المصطلحان ديناميكي وعلى الإنترنت مرادفان لمصطلح "تعلُّم الآلة". في ما يلي الاستخدامات الشائعة الديناميكية وعلى الإنترنت في تقنية تعلُّم الآلة:

  • النموذج الديناميكي (أو النموذج على الإنترنت) هو نموذج تتم إعادة تدريبه بشكلٍ متكرّر أو مستمر.
  • التدريب الديناميكي (أو التدريب على الإنترنت) هو عملية تدريب متكرّرة أو مستمرة.
  • الاستنتاج الديناميكي (أو الاستنتاج على الإنترنت) هو عملية إنشاء توقّعات عند الطلب.

نموذج ديناميكي

#fundamentals

model تتم إعادة تدريبه بشكل متكرر (ربما بشكل مستمر) النموذج الديناميكي هو "متعلم مدى الحياة" يتكيف باستمرار مع البيانات المتطورة. يُعرف النموذج الديناميكي أيضًا باسم النموذج على الإنترنت.

التباين مع النموذج الثابت.

E

التنفيذ بشغف

#TensorFlow

بيئة برمجة TensorFlow التي يتم فيها تشغيل operations على الفور. في المقابل، لا يتم تنفيذ العمليات التي يتم استدعاؤها في تنفيذ الرسم البياني إلى أن يتم تقييمها بشكل صريح. التنفيذ السريع هو واجهة ضرورية تشبه إلى حدّ كبير الرمز البرمجي في معظم لغات البرمجة. وعادةً ما تكون برامج التنفيذ الحرجة أسهل في تصحيح الأخطاء من برامج تنفيذ الرسم البياني.

إيقاف مبكر

#fundamentals

يشير ذلك المصطلح إلى طريقة لتنظيم التدريب تتضمّن إنهاء التدريب قبل انخفاض معدّل فقدان التدريب. في مرحلة الإيقاف المبكر، يتم عمدًا إيقاف تدريب النموذج عندما يبدأ زيادة الخسارة في مجموعة بيانات التحقق، أي عندما يتفاقم أداء التعميم.

مسافة محرِّك الأرض (EMD)

مقياس للتشابه النسبي لاثنين من توزيعات. وكلما انخفضت مسافة محرِّك الأرض، زادت تشابه التوزيعات.

تعديل المسافة

#language

يشير ذلك المصطلح إلى قياس لمدى تشابه سلسلتَين نصيتَين مع بعضهما. في مجال تعلُّم الآلة، يُعدّ تعديل المسافة مفيدًا لأنه سهل الحوسبة، ويُعدّ وسيلة فعّالة للمقارنة بين سلسلتَين معروفتَين بأنّهما متشابهتان أو للعثور على سلاسل مشابهة لسلسلة معيَّنة.

هناك العديد من التعريفات لتعديل المسافة، وكل منها يستخدم عمليات سلسلة مختلفة. على سبيل المثال، تأخذ مسافة Levenshtein في الاعتبار أقل عمليات حذف وإدراج واستبدال.

على سبيل المثال، قيمة مسافة ليفنشتين بين الكلمتين "قلب" و "رمي السهام" هي 3 لأن التعديلات الثلاثة التالية هي أقل التغييرات لتحويل كلمة إلى كلمة أخرى:

  1. قلب ← قلب (استبدل "ع" بـ "د")
  2. deart → dart (حذف "e")
  3. dart → darts (إدراج "s")

رمز Einsum

تمثّل هذه السمة ترميزًا فعّالاً لوصف طريقة جمع عاملَي متوترَين. يتم الجمع بين المضاعفات من خلال ضرب عناصر أحد المتسابقات في عناصر المتسابق الآخر ثم جمع النواتج. يستخدم تدوين Einsum الرموز لتحديد محاور كل متسابق، وتتم إعادة ترتيب هذه الرموز نفسها لتحديد شكل متوتر الناتج الجديد.

توفّر NumPy طريقة شائعة لتنفيذ Einsum.

طبقة التضمين

#language
#fundamentals

طبقة مخفية خاصة يتم تدريبها على ميزة فئوية ذات أبعاد عالية لتعلُّم متّجه تضمين منخفض تدريجيًا. وتمكّن طبقة التضمين الشبكة العصبية من التدريب بكفاءة أكبر بكثير من التدريب فقط على الميزة الفئوية عالية الأبعاد.

على سبيل المثال، يدعم تطبيق Earth حاليًا حوالي 73000 نوع من الأشجار. لنفترض أنّ أنواع الأشجار هي ميزة في نموذجك، لذا تتضمّن طبقة الإدخال في نموذجك متّجه واحد شديد الارتفاع يبلغ طوله 73,000 عنصر. على سبيل المثال، قد يتم تمثيل السمة baobab على النحو التالي:

مصفوفة مكونة من 73,000 عنصر. تحتوي العناصر الـ 6,232 الأولى على القيمة
     0. يحمل العنصر التالي القيمة 1. وتحتوي العناصر النهائية البالغ عددها 66,767 على القيمة صفر.

الصفيفة المكونة من 73000 عنصر طويلة جدًا. إذا لم تقم بإضافة طبقة تضمين إلى النموذج، فسيستغرق التدريب وقتًا طويلاً للغاية بسبب ضرب 72999 صفرًا. وربما تختار طبقة التضمين التي تتكون من 12 بُعدًا. وبالتالي، تتعلم طبقة التضمين تدريجيًا متّجه تضمين جديدًا لكل نوع من أنواع الأشجار.

في بعض الحالات، يكون التجزئة بديلاً معقولاً لطبقة التضمين.

مساحة التضمين

#language

مساحة الخط المتجه ذي الأبعاد د التي تتميز من مساحة متجهة ذات أبعاد أعلى. ومن الناحية المثالية، تحتوي مساحة التضمين على بنية ينتج عنها نتائج رياضية ذات مغزى. فعلى سبيل المثال، في مساحة تضمين مثالية، يمكن أن يؤدي جمع التضمينات وطرحها إلى حل مهام تشبيه الكلمات.

إنّ منتج النقاط المؤلف من تضمينَين هو مقياس للتشابه.

تضمين متجه

#language

بشكل عام، هي مصفوفة من أرقام النقاط العائمة مأخوذة من أي طبقة مخفية تصف مدخلات تلك الطبقة المخفية. غالبًا ما يكون متجه التضمين هو مصفوفة أرقام النقطة العائمة المدربة في طبقة تضمين. على سبيل المثال، لنفترض أن طبقة التضمين يجب أن تتعلم متجهًا مضمنًا لكل نوع من أنواع الأشجار البالغ عددها 73000 نوع على الأرض. ربما الصفيفة التالية هي متّجه التضمين لشجرة الباوباب:

مصفوفة من 12 عنصرًا، يحتوي كل منها على رقم نقطة عائمة بين 0.0 و1.0.

متجه التضمين ليس مجموعة من الأرقام العشوائية. تحدد طبقة التضمين هذه القيم من خلال التطبيق، وهي تشبه الطريقة التي تتعلم بها الشبكة العصبية الأوزان الأخرى أثناء التدريب. كل عنصر من عناصر المصفوفة عبارة عن تصنيف إلى جانب بعض خصائص أنواع الأشجار. أي عنصر يمثل سمة أنواع الأشجار؟ من الصعب جدًا على البشر تحديده.

الجزء المميز من الناحية الرياضية من متجه التضمين هو أن العناصر المتشابهة تحتوي على مجموعات متشابهة من أرقام النقطة العائمة. على سبيل المثال، تحتوي أنواع الأشجار المتشابهة على مجموعة أكثر تشابهًا من أعداد النقاط العائمة مقارنةً بأنواع الأشجار المختلفة. تُعد الخشب الأحمر والسيكويا من أنواع الأشجار المرتبطة، لذلك سيكون لها مجموعة متشابهة من الأرقام العائمة أكثر من الخشب الأحمر ونخيل جوز الهند. ستتغير الأرقام في متجه التضمين في كل مرة تقوم فيها بإعادة تدريب النموذج، حتى إذا أعدت تدريب النموذج ذات المدخلات المتماثلة.

دالة التوزيع التراكمي التجريبية (eCDF أو EDF)

دالة توزيع تراكمي تستند إلى القياسات التجريبية من مجموعة بيانات حقيقية. قيمة الدالة عند أي نقطة على طول المحور x هي جزء من الملاحظات في مجموعة البيانات التي تقل عن القيمة المحددة أو تساويها.

تقليص المخاطر التجريبية (ERM)

اختيار الدالة التي تقلل من الخسارة في مجموعة التدريب. التباين مع تقليل المخاطر الهيكلية.

برنامج تشفير

#language

بشكل عام، أي نظام لتعلُّم الآلة يتحوّل من تمثيل أولي أو متفرق أو خارجي إلى تمثيل داخلي أكثر معالجة أو كثافة أو أكثر.

غالبًا ما تكون برامج الترميز مكوّنًا من نموذج أكبر، ويتم إقرانها بشكل متكرر ببرنامج فك الترميز. تعمل بعض المحوّلات على إقران برامج الترميز مع برامج فك الترميز، علمًا أنّ أدوات التحوّل الأخرى تستخدم برنامج الترميز فقط أو برنامج فك الترميز فقط.

وتستخدم بعض الأنظمة مخرجات برنامج الترميز كإدخال لشبكة التصنيف أو الانحدار.

في مهام التسلسل إلى التسلسل، يتخذ برنامج الترميز تسلسل إدخال ويعرض حالة داخلية (متّجه). وبعد ذلك، يستخدم برنامج فك الترميز هذه الحالة الداخلية لتوقّع التسلسل التالي.

يُرجى مراجعة Transformer للاطّلاع على تعريف برنامج الترميز في بنية المحوِّل.

مجموعة موحدة

مجموعة من النماذج التي يتم تدريبها بشكل مستقل والتي يتم حساب متوسط توقعاتها أو تجميعها. في كثير من الحالات، تنتج المجموعة الموحدة تنبؤات أفضل من نموذج واحد. على سبيل المثال، الغابة العشوائية هي مجموعة مبنية من عدة أشجار قرارات. يُرجى العلم أنّ غابات القرار ليست كلّها مجموعات متنوّعة.

الإنتروبيا

#df

تمثّل نظرية المعلومات وصفًا لمدى عدم إمكانية توقُّع توزيع الاحتمالات، أو يُعرَّف القصور أيضًا بمقدار مقدار المعلومات التي يتضمّنها كل مثال. يشتمل التوزيع على أعلى قصور ممكن عندما تكون جميع قيم المتغير العشوائي متساوية.

قصور مجموعة بقيمتين محتملتين "0" و "1" (على سبيل المثال، التسميات التي تندرج ضمن مشكلة التصنيف الثنائي) لها الصيغة التالية:

  H = -p log p - q log q = -p log p - (1-p) * log (1-p)

حيث:

  • H هو القصور.
  • p هو الكسر من أمثلة "1".
  • q هو كسر أمثلة "0". لاحظ أن q = (1 - p)
  • log بشكل عام هو السجلّ2. في هذه الحالة، تكون وحدة القصور قليلاً.

على سبيل المثال، لنفترض ما يلي:

  • هناك 100 مثال تحتوي على القيمة "1"
  • 300 مثال تحتوي على القيمة "0"

وبالتالي، تكون قيمة القصور هي:

  • p = 0.25
  • q = 0.75
  • H = (-0.25)log2(0.25) - (0.75)log2(0.75) = 0.81 بت لكل مثال

فالمجموعة المتوازنة بشكل مثالي (على سبيل المثال، 200 "0" و200 "1"s) سيكون لها قصور يبلغ 1.0 بت لكل مثال. وعندما تصبح المجموعة أكثر غير متوازن، ينتقل القصور باتجاه 0.0.

في أشجار القرارات، يساعد القصور في صياغة تحصيل المعلومات لمساعدة البيانات المقسّمة على اختيار الشروط أثناء نمو شجرة قرارات التصنيف.

مقارنة القصور مع:

غالبًا ما يطلق على القصور قصور شانون.

بيئة

#rl

في مجال التعلّم المعزّز، يشير ذلك إلى العالم الذي يحتوي على الوكيل ويسمح للوكيل بمراقبة الدولة في العالم. على سبيل المثال، يمكن أن يكون العالم الممثل لعبة مثل الشطرنج، أو عالمًا ماديًا مثل المتاهة. عندما يطبّق الوكيل إجراء على البيئة، تنتقل البيئة بين الحالات.

حلقة

#rl

في مرحلة التعلّم المعزّز، كل محاولة من المحاولات المتكررة التي يحاولها الوكيل للتعرّف على بيئة

حقبة

#fundamentals

هو اجتياز تدريب كامل على مجموعة التدريب بحيث تتم معالجة كل مثال مرة واحدة.

تمثل الفترة N/حجم المجموعة التكرارات للتدريب، حيث N هو إجمالي عدد الأمثلة.

على سبيل المثال، لنفترض أن ما يلي:

  • تتكون مجموعة البيانات من 1000 مثال.
  • حجم الدفعة هو 50 مثالاً.

وبالتالي، تتطلب الحقبة الواحدة 20 تكرارًا:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

سياسة إبسيلون الجشع

#rl

في مجال التعلّم المعزّز، هي سياسة تتّبع سياسة عشوائية تتضمّن احتمالية استخدام إبسيلون أو سياسة طمعة بخلاف ذلك. على سبيل المثال، إذا كان إبسيلون يساوي 0.9، تتبع السياسة سياسة عشوائية بنسبة% 90 من الوقت وسياسة طمعة% 10 من الوقت.

في الحلقات المتتالية، تقلّل الخوارزمية قيمة إبسيلون بهدف الانتقال من اتّباع سياسة عشوائية إلى سياسة طمعة. من خلال تغيير السياسة، يستكشف الوكيل أولاً البيئة بشكل عشوائي ثم يستغل نتائج الاستكشاف العشوائي بشراسة.

تكافؤ الفرص

#fairness

مقياس إنصاف لتقييم ما إذا كان أحد النماذج يتوقّع النتيجة المرجوة بشكل متساوٍ لجميع قيم السمة الحسّاسة بمعنى آخر، إذا كانت النتيجة المرجوة من أحد النماذج هي الفئة الموجبة، سيكون الهدف هو الحفاظ على المعدّل الإيجابي الصحيح لجميع المجموعات.

ترتبط تكافؤ الفرص بالاحتمالات المتساوية، ما يتطلّب أن تكون كل من النسب الموجبة الصائبة والنسب الموجبة الخاطئة متطابقة في جميع المجموعات.

لنفترض أن جامعة Glubbdubdrib تشترِط كلاً من فريقَي ليليبوتيان وبروبيدناجيان في برنامج رياضيات دقيق. تقدم مدارس ليليبوتيانز الثانوية منهجًا قويًا لدروس الرياضيات، والغالبية العظمى من الطلاب مؤهلون للانضمام إلى برنامج الجامعة. مدرسة Brobdingnagians الثانوية لا تقدم دروسًا في الرياضيات على الإطلاق، ونتيجةً لذلك، هناك عدد أقل بكثير من طلابها المؤهلين. تتم تلبية تكافؤ الفرص للتصنيف المفضل "مقبول" في ما يتعلق بالجنسية (Lilliputian أو Brobdingnagian) إذا كان من المرجّح قبول الطلاب المؤهّلين بغضّ النظر عمّا إذا كانوا ليليبوتيين أو من ذوي البشرة السوداء.

على سبيل المثال، لنفترض أن 100 شخص من Lilliputian و100 من سكان مجتمع Probdingnagis قد تقدموا بطلب للاشتراك في جامعة Glubbdubdrib، ويتم اتخاذ القرارات المتعلقة بالقبول على النحو التالي:

الجدول 1. المتقدمون من Lilliputian (%90 مؤهلون)

  مؤهَّل غير معرَّف
تم السماح بالانضمام 45 3
تم الرفض 45 7
المجموع 90 10
النسبة المئوية للطلاب المؤهلين المسموح بهم: 45/90 = 50%
النسبة المئوية للطلاب غير المؤهلين الذين تم رفضهم: 7/10 = 70%
النسبة المئوية الإجمالية للطلاب من مدينة ليليبوتية المتاحين فيها: (45 + 3)/100 = 48%

 

الجدول 2. مقدمو طلبات الانضمام إلى برنامج Brobdingnagian (%10 مؤهلون):

  مؤهَّل غير معرَّف
تم السماح بالانضمام 5 9
تم الرفض 5 81
المجموع 10 90
النسبة المئوية للطلاب المؤهلين المسموح بهم: 5/10 = 50%
النسبة المئوية للطلاب غير المؤهلين الذين تم رفضهم: 81/90 = 90%
النسبة المئوية الإجمالية للطلاب في مؤسسة Brobdingnagian المقبولة: (5+9)/100 = 14%

تلبي الأمثلة السابقة تكافؤ فرص قبول الطلاب المؤهلين لأن لدى كل من ليليبوتين وبروبيدينغينيا المؤهلين فرصة 50٪ في القبول.

بينما تتم تلبية تكافؤ الفرص، لا تتم تلبية مقياسَي الإنصاف التاليَين:

  • التكافؤ الديمغرافي: ينتمي سكان ليليبوتيون وسكان برودديناغيا الديمقراطية إلى الجامعة بمعدلات مختلفة، بينما يتم قبول 48% من طلاب مدينة ليليبوتيَن، ولكن بنسبة 14% فقط من طلاب منطقة بروبددناجيال مُلتحق بها.
  • الاحتمالات المتساوية: على الرغم من أنّ فرص الانضمام إلى كل من طالبَي ليليبوتي وبروبيدينغناجيا المؤهلين لديهم نفس الفرصة، إلا أنّ هناك قيدًا إضافيًا يفرض على كل من مدينة ليليبوتين غير مؤهّلين وسكان برودديناجينيا غير المؤهلين رفض طلبهم. يتم رفض إعلانات ليليبوتيتين غير مؤهلين بنسبة% 70، في حين أنّ نسبة الرفض تصل إلى% 90 في ما يخص الأخوين غير المؤهلين.

راجِع المقالة "تكافؤ الفرص في التعلّم المُوجّه" للحصول على مناقشة أكثر تفصيلاً حول مساواة الفرص. يمكنك أيضًا الاطّلاع على القسم "هجوم على التمييز باستخدام تعلُّم الآلة الأكثر ذكاءً" لعرض مرئيات لاستكشاف المفاضلات عند التحسين من أجل تكافؤ الفرص.

الاحتمالات المتساوية

#fairness

يشير ذلك المصطلح إلى مقياس إنصاف لتقييم ما إذا كان أحد النماذج يتنبأ بالنتائج بشكل متساوٍ لجميع قيم السمة الحسّاسة مع مراعاة الفئة الموجبة والفئة السالبة، وليس فئة واحدة فقط أو الفئة الأخرى. بعبارة أخرى، يجب أن تكون قيمة كل من معدّل الموجب الصحيح ومعدّل السالب الخاطئ متطابقة لجميع المجموعات.

ترتبط الاحتمالات المتساوية ب تكافؤ الفرص، التي تركز فقط على معدلات الخطأ لفئة واحدة (إيجابية أو سالبة).

على سبيل المثال، لنفترض أن جامعة Glubbdubdrib تشترِط كلاً من فريقَي Lilliputians وBrobdingnagis على برنامج رياضيات صارم. تقدم مدارس ليليبوتيانز الثانوية منهجًا قويًا لدروس الرياضيات، والغالبية العظمى من الطلاب مؤهلون لبرنامج الجامعة. لا تقدم مدارس Brobdingnagians الثانوية دروسًا في الرياضيات على الإطلاق، ونتيجةً لذلك، يقل عدد طلابها المؤهلين. تتم التأكد من الاحتمالات المتساوية بشرط ألا يكون مقدم الطلب من ليليبوتيا أو من ذوي البشرة السوداء، فإذا كانوا مؤهلين، يزيد احتمال قبولهم في البرنامج سواء كانوا غير مؤهلين، وإذا كانوا غير مؤهلين، يزيد احتمال رفضهم بالدرجة نفسها.

لنفترض أنّ 100 شخص من Lilliputian و100 من سكان Brobdingnagis قد وافقوا على التسجيل في جامعة Glubbdubdrib، ويتم اتّخاذ قرارات قبول الطلبات على النحو التالي:

الجدول 3. المتقدمون من Lilliputian (%90 مؤهلون)

  مؤهَّل غير معرَّف
تم السماح بالانضمام 45 2
تم الرفض 45 8
المجموع 90 10
النسبة المئوية للطلاب المؤهلين المقبولين: 45/90 = 50%
النسبة المئوية للطلاب غير المؤهلين الذين تم رفضهم: 8/10 = 80%
النسبة المئوية الإجمالية للطلاب في ليليبوتيا المتاحين فيها: (45 + 2)/100 = 47%

 

الجدول 4. مقدمو طلبات الانضمام إلى برنامج Brobdingnagian (%10 مؤهلون):

  مؤهَّل غير معرَّف
تم السماح بالانضمام 5 18
تم الرفض 5 72
المجموع 10 90
النسبة المئوية للطلاب المؤهلين المسموح بهم: 5/10 = 50%
النسبة المئوية للطلاب غير المؤهلين الذين تم رفضهم: 72/90 = 80%
النسبة المئوية الإجمالية للطلاب في مؤسسة Brobdingnagian المقبولة: (5+18)/100 = 23%

تتم تلبية الاحتمالات المتساوية لأن طلاب ليليبوتي وبروبوديناجيان المؤهلين لديهم فرصة 50% للقبول، بينما تكون فرص رفض انضمام ليلبوتيان وبرودديناجيان غير المؤهلين بنسبة 80%.

يتم تعريف الاحتمالات المتساوية رسميًا في "تساوي الفرص في التعلم المُوجّه" على النحو التالي: "يفي المتنبأ "و" بالاحتمالات المتساوية في ما يتعلق بالسمة المحمية A والنتيجة Y إذا كانت à وA مستقلة ومشروطة على Y."

مقدِّر

#TensorFlow

واجهة برمجة تطبيقات TensorFlow نهائيًا استخدِم tf.keras بدلاً من المقدِّرين.

التقييم

يشير ذلك المصطلح إلى عملية قياس جودة توقّعات نموذج تعلُّم الآلة. أثناء تطوير نموذج، يتم عادةً تطبيق مقاييس التقييم، ليس فقط على مجموعة التدريب، ولكن أيضًا على مجموعة التحقّق ومجموعة الاختبار. يمكنك أيضًا استخدام مقاييس التقييم لمقارنة النماذج المختلفة ببعضها البعض.

على سبيل المثال

#fundamentals

قيم صف واحد من الميزات وربما تصنيف. تندرج الأمثلة في التعلّم الخاضع للإشراف ضمن فئتَين عامتَين:

  • يتكون المثال المصنَّف من ميزة واحدة أو أكثر وتصنيف. يتم استخدام الأمثلة المصنفة أثناء التدريب.
  • يتألف المثال غير المصنَّف من ميزة واحدة أو أكثر ولكن من دون تصنيف. يتم استخدام الأمثلة غير المصنفة أثناء الاستنتاج.

على سبيل المثال، افترض أنك تقوم بتدريب نموذج لتحديد تأثير ظروف الطقس على درجات اختبار الطلاب. فيما يلي ثلاثة أمثلة مصنفة:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 جيد
19 34 1020 ممتاز
18 92 1012 سيئ

في ما يلي ثلاثة أمثلة غير مصنّفة:

درجة الحرارة الرطوبة الضغط  
12 62 1014  
21 47 1017  
19 41 1021  

عادةً ما يكون صف مجموعة البيانات هو المصدر الأولي للمثال. وهذا يعني أن المثال يتكون عادةً من مجموعة فرعية من الأعمدة في مجموعة البيانات. إضافةً إلى ذلك، يمكن أن تتضمّن الميزات المذكورة في المثال أيضًا ميزات اصطناعية، مثل تجاوزات الميزات.

إعادة تشغيل التجربة

#rl

في التعلّم المعزّز، هو أسلوب DQN يُستخدَم لتقليل الارتباطات الزمنية في بيانات التدريب. يخزِّن الوكيل عمليات الانتقال في مخزن مؤقت لإعادة التشغيل، ثم ينشئ عيّنات من عمليات الانتقال من المخزن المؤقت لإعادة التشغيل لإنشاء بيانات التدريب.

انحياز المُختبِر

#fairness

راجِع الانحياز التأكيدي.

مشكلة التدرّج المتفجر

#seq

ميل التدرجات في الشبكات العصبونية العميقة (وخاصة الشبكات العصبونية المتكررة) إلى أن تصبح شديدة الانحدار (مرتفعة) بشكل مدهش غالبًا ما تؤدي التدرجات الحادة إلى إجراء تعديلات كبيرة جدًا على القيم المرجحة لكل عقدة في شبكة عصبية عميقة.

فالنماذج التي تعاني من مشكلة التدرج المتفجر يصبح من الصعب أو المستحيل تدريبها. يمكن أن يساعد اقتصاص التدرج في الحد من هذه المشكلة.

قارِن بينها وبين مشكلة التلاشي للتدرّج.

F

سيارات F1

مقياس تصنيف ثنائي يستند إلى "البيانات المجمّعة" يعتمد على كلّ من الدقة والاستدعاء. فيما يلي المعادلة:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

على سبيل المثال، في ما يلي:

  • الدقة = 0.6
  • التذكُّر = 0.4
$$F{_1} = \frac{\text{2 * 0.6 * 0.4}} {\text{0.6 + 0.4}} = 0.48$$

عندما تكون الدقة والتذكر متشابهتين إلى حد ما (كما في المثال السابق)، تكون البيانات 1 قريبة من المتوسط. عندما تختلف الدقة والتذكر بشكل كبير، تكون قيمة F1 أقرب إلى القيمة الأقل. مثلاً:

  • الدقة = 0.9
  • التذكُّر = 0.1
$$F{_1} = \frac{\text{2 * 0.9 * 0.1}} {\text{0.9 + 0.1}} = 0.18$$

قيد الإنصاف

#fairness
تطبيق قيد على خوارزمية لضمان تلبية تعريف واحد أو أكثر للإنصاف. تشمل أمثلة قيود الإنصاف ما يلي:

مقياس الإنصاف

#fairness

تعريف رياضي لمصطلح "الإنصاف" قابل للقياس. تتضمن بعض مقاييس الإنصاف الشائعة الاستخدام ما يلي:

تكون العديد من مقاييس الإنصاف غير شاملة، لذا يُرجى الاطّلاع على عدم توافق مقاييس الإنصاف.

سالب خاطئ (FN)

#fundamentals

يشير ذلك المصطلح إلى مثال يتوقّع فيه النموذج عن طريق الخطأ الفئة السالبة. على سبيل المثال، يتنبأ النموذج بأن رسالة إلكترونية معيّنة ليست رسالة غير مرغوب فيها (الفئة السلبية)، ولكن هذه الرسالة الإلكترونية ليست رسالة غير مرغوب فيها فعلاً.

معدل سالب خاطئ

يشير ذلك المصطلح إلى نسبة الأمثلة الإيجابية الفعلية التي توقّع فيها النموذج عن طريق الخطأ الفئة السالبة. تحسب المعادلة التالية المعدل السالب الخاطئ:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

موجب خاطئ (FP)

#fundamentals

يشير ذلك المصطلح إلى مثال يتوقّع فيه النموذج عن طريق الخطأ الفئة الموجبة. على سبيل المثال، يتوقّع النموذج أنّ رسالة إلكترونية معيّنة هي رسالة غير مرغوب فيها (الفئة الإيجابية)، لكن هذه الرسالة الإلكترونية ليست في الواقع رسالة غير مرغوب فيها.

معدّل الموجب الخاطئ (FPR)

#fundamentals

يشير ذلك المصطلح إلى نسبة الأمثلة السلبية الفعلية التي توقّع فيها النموذج عن طريق الخطأ الفئة الموجبة. تحسب المعادلة التالية المعدل الإيجابي الخاطئ:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

معدّل الموجب الخاطئ هو المحور "س" في منحنى RoC.

عنصر

#fundamentals

يشير ذلك المصطلح إلى متغيّر إدخال في نموذج تعلُّم الآلة. يتألف المثال من ميزة واحدة أو أكثر. على سبيل المثال، افترض أنك تقوم بتدريب نموذج لتحديد تأثير ظروف الطقس على درجات اختبار الطلاب. يعرض الجدول التالي ثلاثة أمثلة، يحتوي كلٌ منها على ثلاث ميزات وتصنيف واحد:

الميزات التصنيف
درجة الحرارة الرطوبة الضغط نتيجة الاختبار
15 47 998 92
19 34 1020 84
18 92 1012 87

تباين مع label.

تقاطع الخصائص

#fundamentals

ميزة اصطناعية تم إنشاؤها من خلال ميزات فئوية أو مجمّعة.

على سبيل المثال، ضع في اعتبارك نموذج "توقع الحالة المزاجية" الذي يمثل درجة الحرارة في إحدى المجموعات الأربع التالية:

  • freezing
  • chilly
  • temperate
  • warm

ويمثّل سرعة الرياح في إحدى المجموعات الثلاث التالية:

  • still
  • light
  • windy

بدون تداخل الخصائص، يتم تدريب النموذج الخطي بشكل مستقل على كل مجموعة من المجموعات السبع المختلفة السابقة. إذًا، يتدرب النموذج مثلاً على freezing بشكل مستقل عن التدريب الذي يتم تطبيقه على windy مثلاً.

بدلاً من ذلك، يمكنك إنشاء عرض تقاطعي لدرجة الحرارة وسرعة الرياح. سيكون لهذه الميزة الاصطناعية القيم الـ 12 المحتملة التالية:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

بفضل الروابط المتقاطعة بين الخصائص، يمكن أن يتعرّف النموذج على الاختلافات المزاجية بين يوم واحد (freezing-windy) ويوم freezing-still.

إذا أنشأت ميزة اصطناعية من ميزتَين يتضمّن كلّ منهما مجموعة مختلفة من العناصر، سيتضمّن رابط الميزة الناتج عددًا كبيرًا من المجموعات المحتمَلة. على سبيل المثال، إذا كانت إحدى الميزات تحتوي على 1,000 مجموعة بيانات وكانت الميزة الأخرى تحتوي على 2,000 مجموعة بيانات، فسيحتوي تقاطع الميزة الناتج على 2,000,000 مجموعة بيانات.

من الناحية الرسمية، يمثّل الصليب منتجًا الديكارتيًا.

تُستخدم تداخل الخصائص في الغالب مع النماذج الخطية ونادرًا ما تُستخدم مع الشبكات العصبية.

هندسة الخصائص

#fundamentals
#TensorFlow

عملية تتضمن الخطوات التالية:

  1. تحديد الميزات التي يمكن أن تكون مفيدة في تدريب نموذج.
  2. تحويل البيانات الأولية من مجموعة البيانات إلى إصدارات فعالة من تلك الميزات.

على سبيل المثال، يمكنك معرفة أنّ temperature قد تكون ميزة مفيدة. بعد ذلك، يمكنك تجربة التجميع لتحسين المعلومات التي يمكن أن يتعلّمها النموذج من نطاقات temperature المختلفة.

تُسمّى هندسة الميزات أحيانًا استخراج الميزات أو تحسين الميزات.

استخراج الميزات

العبارة التي تم تحميلها بشكل زائد وتتضمّن أحد التعريفات التالية:

أهمية الميزات

#df

مرادف للأهمية المتغيرة.

مجموعة الخصائص

#fundamentals

مجموعة الميزات التي يتدرب عليها نموذج تعلُّم الآلة على استخدامها. على سبيل المثال، قد يشتمل الرمز البريدي وحجم العقار وحالة العقار على مجموعة خصائص بسيطة لنموذج يتنبأ بأسعار المساكن.

مواصفات الميزات

#TensorFlow

يصف المعلومات المطلوبة لاستخراج بيانات الميزات من المخزن المؤقت لبروتوكول tf.Example. بما أنّ المخزن المؤقت للبروتوكول tf.Example هو مجرّد حاوية للبيانات، عليك تحديد ما يلي:

  • البيانات المطلوب استخراجها (أي مفاتيح الميزات)
  • نوع البيانات (مثلاً، float أو int)
  • الطول (ثابت أو متغيّر)

خط متجه الخصائص

#fundamentals

يشير ذلك المصطلح إلى مصفوفة قيم feature التي تشمل مثالاً. يتم إدخال متّجه الميزة أثناء التدريب وأثناء الاستنتاج. على سبيل المثال، قد يكون متجه الميزة لنموذج بميزتين منفصلتين:

[0.92, 0.56]

أربع طبقات: طبقة إدخال وطبقتين مخفيتين وطبقة إخراج واحدة.
          تحتوي طبقة الإدخال على عقدتين، إحداهما تحتوي على القيمة 0.92 والأخرى تحتوي على القيمة 0.56.

يوفر كل مثال قيمًا مختلفة لمتجه الميزة، لذلك يمكن أن يكون متجه الميزة للمثال التالي شيئًا مثل:

[0.73, 0.49]

تحدد هندسة الميزات كيفية تمثيل الميزات في متجه الميزة. على سبيل المثال، قد يتم تمثيل خاصية فئوية ثنائية تحتوي على خمس قيم محتملة باستخدام ترميز واحد فعال. في هذه الحالة، سيتكون جزء متجه الميزة لمثال معين من أربعة أصفار و1.0 مفرد في الموضع الثالث، على النحو التالي:

[0.0, 0.0, 1.0, 0.0, 0.0]

ومثال آخر على ذلك، لنفترض أن نموذجك يتكون من ثلاث ميزات:

  • سمة فئوية ثنائية تحتوي على خمس قيم محتملة ممثلة بترميز واحد فعال، على سبيل المثال: [0.0, 1.0, 0.0, 0.0, 0.0]
  • خاصية فئوية ثنائية أخرى تتضمن ثلاث قيم محتملة ممثلة بترميز واحد فعال، مثل: [0.0, 0.0, 1.0]
  • إحدى ميزات النقطة العائمة، مثلاً: 8.3.

في هذه الحالة، سيتم تمثيل متجه الميزة لكل مثال في تسع قيم. بالنظر إلى قيم الأمثلة في القائمة السابقة، سيكون متجه الميزة:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

تشبع اللون

عملية استخراج الميزات من مصدر إدخال، مثل مستند أو فيديو، وربط هذه الميزات في متّجه الميزات

يستخدم بعض خبراء تعلُّم الآلة ميزة التميّز كمرادف لـ هندسة الميزات أو استخراج الميزات.

التعلّم الموحّد

هو نهج موزّع لتعلُّم الآلة يدرّب نماذج تعلُّم الآلة باستخدام أمثلة لامركزية مضمّنة في أجهزة مثل الهواتف الذكية. في التعلّم الموحّد، تُنزِّل مجموعة فرعية من الأجهزة النموذج الحالي من خادم تنسيق مركزي. تستخدم الأجهزة الأمثلة المخزنة على الأجهزة لإجراء تحسينات على النموذج. وتُحمِّل الأجهزة بعد ذلك تحسينات النموذج (وليس أمثلة التدريب) على خادم التنسيق، حيث يتم تجميعها مع التحديثات الأخرى للحصول على نموذج عام مُحسَّن. بعد التجميع، لم تعُد هناك حاجة إلى تحديثات النموذج التي تحتسبها الأجهزة، ويمكن تجاهلها.

بما أنّه لا يتم تحميل أمثلة التدريب أبدًا، يتّبع التعلّم الموحّد مبادئ الخصوصية التي تحدّد مبادئ الخصوصية وجمع البيانات المركّزة وتضييق نطاق جمع البيانات.

لمزيد من المعلومات عن التعلّم الموحّد، يُرجى الاطّلاع على هذا الدليل التوجيهي.

حلقة الملاحظات

#fundamentals

يشير ذلك المصطلح إلى حالة في تعلُّم الآلة تؤثر فيها توقّعات النموذج على بيانات التدريب للنموذج نفسه أو نموذج آخر. على سبيل المثال، سيؤثر النموذج الذي يوصي بالأفلام في الأفلام التي يشاهدها الأشخاص، مما سيؤثر بعد ذلك على نماذج توصية الأفلام اللاحقة.

الشبكة العصبونية الموجزة (FFN)

شبكة عصبية بدون توصيلات دائرية أو متكررة. على سبيل المثال، الشبكات العصبونية العميقة التقليدية هي شبكات عصبية لتقديمها. التباين مع الشبكات العصبية المتكررة، الدورية.

التعلّم بلقطات قصيرة

يشير ذلك المصطلح إلى طريقة لتدريب المصنِّفات الفعّالة، والتي غالبًا ما تُستخدم لتصنيف الأجسام، من عدد صغير فقط من أمثلة التدريب.

يمكنك أيضًا الاطّلاع على التعلّم بلقطة واحدة والتعلّم بدون مباشرةً.

مطالبات بلقطات قليلة

#language
#GenerativeAI

طلب يتضمّن أكثر من مثال واحد ("بضعة") يوضّح كيفية استجابة النموذج اللغوي الكبير لهذا الطلب. على سبيل المثال، يحتوي الطلب المطول التالي على مثالين يوضحان نموذجًا لغويًا كبيرًا لكيفية الإجابة عن استعلام.

أجزاء من طلب واحد Notes
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عليه النموذج اللغوي الكبير
فرنسا: EUR مثال واحد.
المملكة المتحدة: جنيه إسترليني مثال آخر.
الهند: الاستعلام الفعلي.

عادةً ما تؤدي الطلبات باستخدام لقطات قليلة إلى الحصول على نتائج مرغوبة أكثر من الطلب بدون لقطة والطلب بلقطة واحدة. ومع ذلك، فإن المطالبة بلقطات قليلة تتطلب مطالبة أطول.

الطلبات السريعة هي شكل من أشكال التعلّم السريع الذي يتم تطبيقه على التعلّم المستند إلى الطلبات.

كمنجة

#language

يشير ذلك المصطلح إلى مكتبة إعداد تركّز على Python أولاً تحدّد قيم الدوال والفئات بدون رموز برمجية أو بنية أساسية عدوانية. في حال استخدام Pax، وقواعد رموز تعلُّم الآلة الأخرى، تمثّل هذه الدوال والفئات نماذج وتدريب مَعلمات فرعية.

يفترض Fiddle أن قواعد رموز التعلم الآلي تنقسم عادةً إلى:

  • رمز المكتبة الذي يحدّد الطبقات والمحسّنات.
  • يشير هذا المصطلح إلى الرمز البرمجي "اللاصق" لمجموعة البيانات، الذي يستدعي المكتبات والأسلاك معًا.

يلتقط Fiddle هيكل استدعاء التعليمات البرمجية الملتصق بشكل غير مقيّم وقابل للتغيير.

توليف دقيق

#language
#image
#GenerativeAI

يشير ذلك المصطلح إلى دورة تدريبية ثانية مخصّصة للمهمة يتم تنفيذها على نموذج مدرَّب مسبقًا لتحسين معلَماته وفقًا لحالة استخدام معيّنة. على سبيل المثال، في ما يلي التسلسل الكامل للتدريب لبعض النماذج اللغوية الكبيرة:

  1. التدريب المُسبَق: يمكنك تدريب نموذج لغوي كبير على مجموعة بيانات عامة كبيرة، مثل جميع صفحات ويكيبيديا باللغة الإنجليزية.
  2. الضبط الدقيق: يمكنك تدريب النموذج المدرَّب مسبقًا على تنفيذ مهمة محددة، مثل الاستجابة لطلبات البحث الطبية. يتضمن الضبط الدقيق عادةً مئات أو آلاف الأمثلة التي تركز على المهمة المحددة.

وكمثال آخر، يكون تسلسل التدريب الكامل لنموذج الصورة الكبيرة كما يلي:

  1. التدريب المسبق: يمكنك تدريب نموذج صورة كبير على مجموعة بيانات صور عامة واسعة، مثل جميع الصور في "ويكيميديا كومنز".
  2. الضبط الدقيق: يمكنك تدريب النموذج المدرَّب مسبقًا على تنفيذ مهمة محددة، مثل إنشاء صور حيتان قاتلة.

يمكن أن يستلزم الضبط الدقيق أي مزيج من الاستراتيجيات التالية:

  • تعديل جميع مَعلمات النموذج المدرّب مسبقًا ويُسمى هذا أحيانًا الضبط الدقيق الكامل.
  • تعديل بعض المَعلمات الحالية للنموذج المدرَّب مسبقًا (عادةً، الطبقات الأقرب إلى طبقة إخراج)، مع الحفاظ على المَعلمات الأخرى الحالية بدون تغيير (عادةً ما تكون الطبقات الأقرب إلى طبقة الإدخال اطّلِع على ضبط فعالية المَعلمات.
  • إضافة المزيد من الطبقات، عادةً فوق الطبقات الموجودة الأقرب إلى طبقة إخراج البيانات.

تُعدّ ميزة التوليف الدقيق أحد أشكال نقل التعلُّم. وبناءً على ذلك، قد يستخدم الضبط دالة فقدان مختلفة أو نوع نموذج مختلف عن تلك المستخدَمة لتدريب النموذج المدرَّب مسبقًا. على سبيل المثال، يمكنك ضبط نموذج صورة كبير مدرب مسبقًا لإنتاج نموذج انحدار يعرض عدد الطيور في صورة المدخلة.

حدِّد أوجه التشابه والاختلاف بين الضبط الدقيق والمصطلحات التالية:

كتان

#language

مكتبة مفتوحة المصدر ذات مستوى أداء عالٍ للاستفادة من التعليم المتعمّق استنادًا إلى JAX يوفّر Flax وظائف لتدريب الشبكات العصبونية بالإضافة إلى طرق لتقييم أدائها.

فلاكسفورم

#language

مكتبة Transformer مفتوحة المصدر تم تصميمها استنادًا إلى Flax، وهي مصمَّمة أساسًا بهدف معالجة اللغة الطبيعية والأبحاث المتعددة الوسائط.

نسيان البوابة

#seq

جزء من خلية ذاكرة قصيرة المدى ينظم تدفق المعلومات في الخلية. انسَ أنّ البوابات تحافظ على السياق عن طريق تحديد المعلومات التي يجب تجاهلها من حالة الخلية.

مَعلمة softmax الكاملة

مرادف لـ softmax.

التباين مع عينات المرشّحين.

طبقة متّصلة بالكامل

طبقة مخفية تتصل فيها كل عقدة بكل عقدة في الطبقة المخفية اللاحقة

تُعرف الطبقة المتصلة بالكامل أيضًا باسم الطبقة الكثيفة.

تحويل الدوال

يشير ذلك المصطلح إلى دالة تستخدم دالة كمدخل وتعرِض دالة محوّلة كإخراج. تستخدِم JAX عمليات تحويل الدوال.

G

شبكة Google الإعلانية

اختصار الشبكة الخادعة التوليدية.

تعميم

#fundamentals

قدرة النموذج على تقديم توقعات صحيحة بشأن البيانات الجديدة غير المرئية سابقًا. أي نموذج يمكن تعميمه هو عكس نموذج فرط التخصيص.

منحنى التعميم

#fundamentals

رسم بياني لكل من فقدان التدريب وفقدان التحقق كدالة لعدد التكرارات.

يمكن أن يساعدك منحنى التعميم في رصد الفرط في التخصيص. على سبيل المثال، يشير منحنى التعميم التالي إلى فرط التخصيص لأن خسارة التحقق من الصحة تصبح في النهاية أعلى بكثير من فقدان التدريب.

رسم بياني الديكارتي يُسمّى فيه المحور &quot;ص&quot; الخسارة ويسمى المحور &quot;س&quot; بالتكرارات. يظهر اثنين من المخططات. يشير أحدهما إلى نقص التدريب
          والآخر يعرض نقص التحقق من الصحة.
          يبدأ الرسمان بشكل مشابه، لكن خسارة التدريب تقل كثيرًا عن خسارة التحقق من الصحة.

نموذج خطي معمم

هي عملية تعميم لنماذج انحدار المربعات الصغرى، المستنِدة إلى الضوضاء الجاوسية، إلى أنواع أخرى من النماذج استنادًا إلى أنواع أخرى من التشويش، مثل ضوضاء بواسون أو الضوضاء الفئوية. تشمل أمثلة النماذج الخطية المعممة ما يلي:

يمكن العثور على معلَمات النموذج الخطي العام من خلال تحسين الخط المحدَّب.

تُظهر النماذج الخطية المعممة الخصائص التالية:

  • إن متوسط التنبؤ بنموذج انحدار التربيعات الصغرى الأمثل يساوي تصنيف المتوسط في بيانات التطبيق.
  • فمتوسط الاحتمالية المتنبأ بها لنموذج الانحدار اللوجستي الأمثل يساوي التصنيف المتوسط في بيانات التطبيق.

تتقيد قوة النموذج الخطي المعمم بميزاته. على عكس النموذج العميق، لا يمكن للنموذج الخطي المعمم أن "يتعلم ميزات جديدة".

الشبكة الخادعة التوليدية (GAN)

يشير ذلك المصطلح إلى نظام لإنشاء بيانات جديدة ينشئ فيها منشئ البيانات البيانات، ويحدّد أداة التمييز ما إذا كانت تلك البيانات التي تم إنشاؤها صالحة أم غير صالحة.

الذكاء الاصطناعي التوليدي

#language
#image
#GenerativeAI

مجال تحويلي ناشئ بدون تعريف رسمي. مع ذلك، يتفق معظم الخبراء على أنّ نماذج الذكاء الاصطناعي التوليدي يمكنها إنشاء ("إنشاء") محتوى يتضمّن كل ما يلي:

  • معقد
  • متماسكة
  • الصورة الأصلية

على سبيل المثال، يمكن أن ينشئ نموذج الذكاء الاصطناعي التوليدي مقالات أو صورًا معقّدة.

ويمكن لبعض التكنولوجيات السابقة، بما في ذلك LSTMs وRNN، إنشاء محتوى أصلي ومتماسك. يرى بعض الخبراء أنّ هذه التكنولوجيات السابقة هي الذكاء الاصطناعي التوليدي، في حين يرى البعض الآخر أنّ الذكاء الاصطناعي التوليدي الحقيقي يتطلّب مخرجات أكثر تعقيدًا مما يمكن أن تنتجه تلك التكنولوجيات السابقة.

التباين مع تعلُّم الآلة القائم على التوقّعات.

نموذج توليدي

من الناحية العملية، يشير النموذج إلى إجراء أي مما يلي:

  • تنشئ (تنشئ) أمثلة جديدة من مجموعة بيانات التدريب. على سبيل المثال، يمكن أن يُنشئ النموذج التوليدي الشعر بعد التدرّب على مجموعة بيانات من القصائد. تندرج ضمن هذه الفئة الجزء المنشئ الخاص بشبكة عدائية توليدية.
  • تحدد احتمالية أن يأتي مثال جديد من مجموعة التدريب، أو تم إنشاؤه من نفس الآلية التي أنشأت مجموعة التدريب. على سبيل المثال، بعد التدريب على مجموعة بيانات تتكون من جمل باللغة الإنجليزية، يمكن أن يحدد النموذج التوليدي احتمالية أن يكون الإدخال الجديد جملة إنجليزية صالحة.

يستطيع النموذج التوليدي أن يميز نظريًا توزيع الأمثلة أو ميزات معينة في مجموعة بيانات. والمقصود:

p(examples)

نماذج التعلّم غير الخاضعة للإشراف هي نماذج توليدية.

التباين مع النماذج التمييزية.

منشئ

يشير هذا المصطلح إلى النظام الفرعي ضمن شبكة خداعية خادعة تنشئ أمثلة جديدة.

التباين مع النموذج التمييزي.

خطأ جيني

#df

مقياس مشابه لـ القصور. تستخدم القواطع القيم المشتقة من العلل الجيني أو القصور لإنشاء شروط لتصنيف أشجار القرارات. تحصيل المعلومات مشتق من القصور. لا يتوفّر مصطلح مكافئ مقبول عالميًا للمقياس المستمد من العلل الجيني، إلا أنّ هذا المقياس غير المُسمّى له نفس أهمية كسب المعلومات.

ويُطلق على نقص جيني أيضًا اسم مؤشر جيني، أو ببساطة جيني.

مجموعة البيانات الذهبية

مجموعة من البيانات المنظّمة يدويًا تسجّل الحقائق الواقعية. يمكن للفرق استخدام مجموعة بيانات ذهبية أو أكثر لتقييم جودة النموذج.

تلتقط بعض مجموعات البيانات الذهبية نطاقات فرعية مختلفة من الواقع. على سبيل المثال، قد تلتقط مجموعة البيانات الذهبية لتصنيف الصور ظروف الإضاءة ودرجة دقة الصورة.

GPT (التحويل التوليدي المُدرَّب مسبقًا)

#language

مجموعة من النماذج اللغوية الكبيرة المستندة إلى Transformer التي طوّرتها شركة OpenAI.

يمكن تطبيق صيغ علامة "علامة ناشر Google" (GPT) على العديد من الوسائط، بما في ذلك:

  • إنشاء الصور (مثل ImageGPT)
  • تحويل النص إلى صورة (على سبيل المثال، DALL-E).

متدرج

خط متجه المشتقات الجزئية فيما يتعلق بجميع المتغيرات المستقلة. في التعلم الآلي، يكون التدرج هو متجه المشتقات الجزئية لدالة النموذج. نقاط التدرج في اتجاه الصعود الأكثر انحدارًا.

تجميع التدرج

يشير ذلك المصطلح إلى أسلوب back postagation الذي يعدِّل المَعلمات مرة واحدة في كل فترة بدلاً من مرة واحدة لكل تكرار. بعد معالجة كل مجموعة صغيرة، يعمل تجميع التدرجات على تعديل إجمالي التدرجات الحالية. وبعد معالجة الدفعة الصغيرة الأخيرة في الحقبة، يُحدِّث النظام أخيرًا المعاملات استنادًا إلى إجمالي التغييرات في التدرج.

ويكون التراكم المتدرج مفيدًا عندما يكون حجم المجموعة كبيرًا جدًا مقارنةً بحجم الذاكرة المتاحة للتدريب. عندما تكون هناك مشكلة في الذاكرة، يكون الميل الطبيعي هو تقليل حجم الدُفعة. ومع ذلك، يؤدي تقليل حجم الدفعة في عملية النشر العكسي العادية إلى زيادة عدد تحديثات المعلمات. ويتيح التراكم المتدرج النموذج تجنب مشكلات الذاكرة مع الاستمرار في التدريب بكفاءة.

أشجار التدرج المعزز (القرار) (GBT)

#df

نوع من غابات القرارات التي:

تعزيز التدرّج

#df

يشير ذلك المصطلح إلى خوارزمية تدريب يتم فيها تدريب النماذج الضعيفة على تحسين جودة نموذج قوي (تقليل نسبة فقدانه). على سبيل المثال، يمكن أن يكون النموذج الضعيف نموذج شجرة قرارات خطي أو صغير. ويصبح النموذج القوي مجموع جميع النماذج الضعيفة التي تم تدريبها مسبقًا.

وفي أبسط أشكال خوارزمية تعزيز التدرج، يتم تدريب نموذج ضعيف في كل تكرار على التنبؤ بالتدرج الخسارة في النموذج القوي. وبعد ذلك، يتم تعديل مخرجات النموذج القوي عن طريق طرح التدرج المتوقّع، بطريقة مماثلة لميزة خوارزمية انحدار التدرج.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

حيث:

  • $F_{0}$ هو النموذج القوي البداية.
  • $F_{i+1}$ هو النموذج القوي التالي.
  • $F_{i}$ هو النموذج القوي الحالي.
  • $\xi$ هو قيمة تتراوح بين 0.0 و1.0 تُسمى الانكماش، وهي تشبه معدّل التعلّم في خوارزمية انحدار التدرج.
  • $f_{i}$ هو النموذج الضعيف المدرَّب على توقُّع تدرج الخسارة $F_{i}$.

وتشمل الاختلافات الحديثة في خوارزمية تعزيز التدرج المشتق الثاني (هيسي) لفقدان البيانات في العمليات الحسابية.

تُستخدم أشجار القرار عادةً كنماذج ضعيفة في تعزيز التدرج. اطّلِع على أشجار اتخاذ القرارات المتدرجة.

اقتصاص التدرّج

#seq

هذه الآلية شائعة الاستخدام للحدّ من مشكلة التدرج المتفجر عن طريق الحدّ بشكل مصطنع (من) أقصى قيمة للتدرجات عند استخدام خوارزمية انحدار التدرج من أجل تدريب نموذج.

انحدار تدرّجي

#fundamentals

أسلوب رياضي لتقليل الخسارة. تضبط خوارزمية انحدار التدرج النسب والانحيازات بشكل متكرّر، ما يؤدي إلى العثور تدريجيًا على أفضل تركيبة للحدّ من الخسارة.

أما انحدار التدرج، فهو أقدم، أقدم بكثير، من تعلُّم الآلة.

رسم بياني

#TensorFlow

في TensorFlow، وهي مواصفات حسابية. تمثل العُقد في الرسم البياني العمليات. يتم توجيه الحواف وتمثل تمرير نتيجة عملية (أداة الاستشعار) كمعامل لعملية أخرى. استخدِم TensorBoard لعرض رسم بياني.

تنفيذ الرسم البياني

#TensorFlow

هي بيئة برمجة TensorFlow ينشئ فيها البرنامج أولاً رسمًا بيانيًا ثم ينفّذ هذا الرسم البياني بالكامل أو جزءًا منه. تنفيذ الرسم البياني هو وضع التنفيذ التلقائي في TensorFlow 1.x.

تباين الألوان مع التنفيذ السريع.

سياسة طمعة

#rl

في مجال التعلُّم المعزّز، يشير ذلك إلى سياسة تختار دائمًا الإجراء الذي يحقّق أعلى عائد متوقّع.

معلومات فعلية

#fundamentals

الواقع.

الشيء الذي حدث بالفعل.

على سبيل المثال، ضع في الاعتبار نموذج التصنيف الثنائي الذي يتنبأ بما إذا كان الطالب في السنة الأولى من الجامعة سيتخرج في غضون ست سنوات أم لا. الحقيقة الأساسية لهذا النموذج هي ما إذا كان هذا الطالب قد تخرج بالفعل في غضون ست سنوات أم لا.

الانحياز في تحديد المصدر على مستوى المجموعة

#fairness

لنفترض أن ما هو صحيح بالنسبة للفرد ينطبق أيضًا على الجميع في تلك المجموعة. يمكن أن تتفاقم آثار انحياز تحديد المصدر إلى المجموعة في حال استخدام العيّنات العشوائية لجمع البيانات. في عينة غير تمثيلية، قد يتم تحديد مراجع لا تعكس الواقع.

راجِع أيضًا انحياز التجانس خارج المجموعة والانحياز داخل المجموعة.

H

الهلوسة

#language

يشير هذا المصطلح إلى إنتاج محتوى يبدو منطقيًا ولكنه غير صحيح من خلال نموذج الذكاء الاصطناعي التوليدي الذي يدّعي أنّه يقدّم تأكيدًا على العالم الحقيقي. على سبيل المثال، نموذج الذكاء الاصطناعي التوليدي الذي يدّعي أنّ باراك أوباما توفي عام 1865، يشكّل هلوسة.

تجزئة

في تعلُّم الآلة، هناك آلية لتجميع البيانات الفئوية، خاصةً عندما يكون عدد الفئات كبيرًا، إلا أنّ عدد الفئات التي تظهر فعليًا في مجموعة البيانات صغير نسبيًا.

على سبيل المثال، موطن الأرض هو موطن لحوالي 73000 نوع من الأشجار. يمكنك تمثيل كل نوع من أنواع الأشجار البالغ عددها 73,000 نوع في 73,000 دلاء فئوي منفصل. بدلاً من ذلك، إذا ظهر 200 نوع فقط من هذه الأشجار في مجموعة بيانات، يمكنك استخدام التجزئة لتقسيم أنواع الأشجار إلى 500 مجموعة بيانات ربما.

يمكن أن يحتوي مجموعة واحدة على عدة أنواع من الأشجار. على سبيل المثال، يمكن أن تؤدي التجزئة إلى وضع الباوباب والقيقب الأحمر، وهما نوعان مختلفان وراثيًا، في المجموعة نفسها. وبغض النظر عن ذلك، لا تزال التجزئة طريقة جيدة لتعيين مجموعات فئوية كبيرة في عدد المجموعات المحدد. تحول التجزئة ميزة فئوية تحتوي على عدد كبير من القيم المحتملة إلى عدد أقل بكثير من القيم عن طريق تجميع القيم بطريقة حتمية.

إرشادات

يشير ذلك المصطلح إلى حلّ بسيط وسريع تم تنفيذه لحلّ مشكلة ما. على سبيل المثال، "باستخدام الإرشاد، حققنا دقة بنسبة 86%. وعندما تحولنا إلى شبكة عصبية عميقة، ارتفعت الدقة إلى 98%".

طبقة مخفية

#fundamentals

يشير ذلك المصطلح إلى طبقة في الشبكة العصبونية بين طبقة الإدخال (السمات) وطبقة إخراج البيانات (التوقّع). وتتكون كل طبقة مخفية من خلية عصبية واحدة أو أكثر. على سبيل المثال، تحتوي الشبكة العصبية التالية على طبقتين مخفيتين، الأولى تحتوي على ثلاث خلايا عصبية والثانية تحتوي على خليتين عصبيتين:

أربع طبقات. الطبقة الأولى هي طبقة إدخال تحتوي على سمتَين. الطبقة الثانية هي طبقة مخفية تحتوي على ثلاث خلايا عصبية. الطبقة الثالثة هي طبقة مخفية تحتوي على خليتين عصبيتين. الطبقة الرابعة هي طبقة الإخراج. تحتوي كل عنصر
          على ثلاث حواف، ويشير كل منها إلى خلية عصبية مختلفة
          في الطبقة الثانية. وتحتوي كل خلية عصبية في الطبقة الثانية على حافتين، تشير كل منهما إلى خلية عصبية مختلفة في الطبقة الثالثة. وتحتوي كل خلية عصبية في الطبقة الثالثة على حافة واحدة تشير كل خلية إلى الطبقة النهائية.

تحتوي الشبكة العصبية العميقة على أكثر من طبقة مخفية. على سبيل المثال، الرسم التوضيحي السابق هو شبكة عصبية عميقة لأن النموذج يحتوي على طبقتين مخفيتين.

التجميع الهرمي

#clustering

يشير ذلك المصطلح إلى فئة من خوارزميات التجميع العنقودي التي تنشئ شجرة من المجموعات العنقودية. يكون التجميع الهرمي مناسبًا للبيانات الهرمية، مثل التصنيفات النباتية. هناك نوعان من خوارزميات التجميع الهرمي:

  • يعيّن التجميع التراكمي أولاً كل مثال إلى مجموعته العنقودية الخاصة به، ويدمج تكرارًا أقرب المجموعات العنقودية لإنشاء شجرة هرمية.
  • يعمل التجميع العنقودي أولاً على تجميع جميع الأمثلة في مجموعة عنقودية واحدة ثم يقسم المجموعة بالتكرار إلى شجرة هرمية.

التباين مع التجميع العنقودي القائم على النقطة المركزية.

الخسارة المفصلية

مجموعة من دوال الخسارة للتصنيف التي تم تصميمها للتوصّل إلى حدود القرار قدر الإمكان من خلال كل مثال تدريبي، ما يؤدي إلى زيادة الهامش بين الأمثلة والحدود. تستخدم KSVMs فقدان المفصّلة (أو دالة ذات صلة، مثل فقدان المفصّلات التربيعية). بالنسبة إلى التصنيف الثنائي، يتم تعريف دالة فقدان المفصل على النحو التالي:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

حيث يكون y هو التصنيف الصحيح، إما -1 أو +1، وy' هو الناتج الأولي لنموذج المصنِّف:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

وبالتالي، يبدو مخطط الخسارة المفصلية مقابل (y * y') على النحو التالي:

مخطط الديكارتي يتكون من مقطعين مستقيمين متصلين. يبدأ جزء السطر الأول بـ (-3، 4) وينتهي عند (1، 0). ويبدأ جزء السطر الثاني عند (1، 0) ويستمر إلى أجل غير مسمى بمنحدر
 0.

انحياز تاريخي

#fairness

نوع من التحيز موجود بالفعل في العالم وقد أصبح طريقه إلى مجموعة بيانات. تميل هذه التحيزات إلى إظهار الصور النمطية الثقافية الحالية والتباينات الديموغرافية والتحيزات ضد مجموعات اجتماعية معينة.

على سبيل المثال، يمكنك تجربة نموذج تصنيف يتنبأ بما إذا كان مقدِّم الطلب قد يتخلف عن سداد قرضه أم لا، حيث تم تدريبه على البيانات السابقة للتخلف عن سداد القروض من ثمانينيات القرن الماضي من المصارف المحلية في مجتمعين مختلفين. إذا كان احتمال التخلف عن سداد قروضهم بست مرات أكثر بست مرات من المتقدمين من المجتمع ب، قد يتبيّن للنموذج أن هناك تحيزًا تاريخيًا يؤدي إلى تقليل احتمال موافقة النموذج على القروض في المجتمع (أ)، حتى لو لم تعد الظروف السابقة التي نتج عنها ارتفاع معدلات التخلف عن سداد هذه المجتمعات ذات صلة.

بيانات محتجزة

أمثلة عن المحتوى الذي لا يتم استخدامه عمدًا ("يتم عرضه") أثناء التدريب تُعد مجموعة بيانات التحقق من الصحة ومجموعة بيانات الاختبار أمثلة على البيانات الخاضعة للرقابة. تساعد بيانات التحفظ على المعلومات في تقييم قدرة نموذجك على التعميم على البيانات بخلاف البيانات التي تم التدريب عليها. توفر الخسارة في مجموعة الانتظار تقديرًا أفضل للخسارة في مجموعة بيانات غير مرئية مقارنة بالخسارة في مجموعة التدريب.

مضيف

#TensorFlow
#GoogleCloud

عند تدريب نموذج تعلُّم الآلة على شرائح مسرِّعة البيانات (وحدات معالجة الرسومات أو وحدات معالجة الموتّرات)، يكون هذا هو جزء النظام الذي يتحكّم في كلّ مما يلي:

  • التدفق العام للتعليمة البرمجية.
  • استخراج وتحويل مسار الإدخال.

يعمل المضيف عادةً على وحدة معالجة مركزية (CPU)، وليس على شريحة مسرِّعة، ويعالج الجهاز وحدات العرض على شرائح المسرِّع.

معلَمة فائقة

#fundamentals

يشير ذلك المصطلح إلى المتغيّرات التي يتم ضبطها أنت أو خدمة ضبط المعلَمة الفائقة أثناء تشغيل النماذج المتتالية لتدريب أحد النماذج. على سبيل المثال، معدّل التعلّم هو معلَمة فائقة. يمكنك تعيين معدل التعلم على 0.01 قبل جلسة تدريبية واحدة. إذا حددت أن 0.01 مرتفع جدًا، فيمكنك تعيين معدل التعلم على 0.003 لجلسة التدريب التالية.

في المقابل، المَعلمات هي القيم المرجحة والانحياز المختلفة التي يتعلّمها النموذج أثناء التدريب.

مستوى فائق

يشير ذلك المصطلح إلى الحد الذي يفصل المساحة إلى مسافتين فرعيَين. على سبيل المثال، الخط هو مستوى فائق في بُعدين والمستوى هو مستوى فائق في ثلاثة أبعاد. المستوى الفائق هو الحد الذي يفصل بين أي مساحة ذات أبعاد عالية، بشكل أكثر شيوعًا في التعلم الآلي. تستخدم آلات متجه دعم النواة المستوى العلائقي لفصل الفئات الإيجابية عن الفئات السالبة، وغالبًا ما تكون في مساحة عالية الأبعاد للغاية.

I

موزّعة بشكل مستقل

اختصار موزَّعة بشكل مستقل ومتماثل.

التعرّف على الصورة

#image

يشير ذلك المصطلح إلى عملية تصنّف عناصر أو أنماطًا أو مفاهيم في صورة معيّنة. تُعرف ميزة التعرّف على الصور أيضًا باسم تصنيف الصور.

لمزيد من المعلومات، يُرجى الاطّلاع على التدريب على تعلُّم الآلة: تصنيف الصور.

مجموعة بيانات غير متوازنة

مرادف مجموعة بيانات غير متوازنة في الفئة.

انحياز ضمني

#fairness

إجراء ارتباط أو افتراض تلقائيًا بناءً على النماذج الذهنية والذكريات. يمكن أن يؤثر التحيز الضمني في ما يلي:

  • كيفية جمع البيانات وتصنيفها.
  • كيفية تصميم وتطوير أنظمة تعلُّم الآلة.

على سبيل المثال، عند إنشاء مصنِّف لتحديد صور الزفاف، قد يستفيد المهندس من ظهور فستان أبيض في الصورة كميزة. ومع ذلك، كانت الفساتين البيضاء مألوفة فقط خلال عصور معينة وفي بعض الثقافات.

راجِع أيضًا الانحياز التأكيدي.

الاحتساب

شكل قصير من احتساب القيم

عدم توافق مقاييس الإنصاف

#fairness

فكرة أن بعض مفاهيم الإنصاف غير متوافقة معًا ولا يمكن تلبيتها في وقت واحد. ونتيجةً لذلك، لا يوجد مقياس عام واحد لقياس الإنصاف الذي يمكن تطبيقه على جميع مشاكل تعلُّم الآلة.

على الرغم من أنّ هذا الأمر قد يبدو محبطًا، إلّا أنّ عدم توافق مقاييس الإنصاف لا يشير إلى أنّ جهود الإنصاف غير مثمرة. بدلاً من ذلك، تشير إلى أنّه يجب تحديد الإنصاف ضمن السياق لمشكلة معيّنة في تكنولوجيا تعلُّم الآلة، بهدف منع الأضرار المرتبطة بحالات الاستخدام الخاصة بها.

راجِع المقالة "حول إمكانية الإنصاف" للاطّلاع على مناقشة أكثر تفصيلاً لهذا الموضوع.

التعلّم ضمن السياق

#language
#GenerativeAI

مرادف لطلب من بضع لقطات.

موزّعة بشكل مستقل ومتماثل (أي)

#fundamentals

البيانات المأخوذة من توزيع لا تتغير، وحيث لا تعتمد كل قيمة مرسومة على القيم التي تم رسمها مسبقًا. يمثل الاسم المعروف اختصارًا باسم الغاز المثالي للتعلم الآلي، وهو عبارة عن بنية رياضية مفيدة ولكنها غالبًا ما لا يتم العثور عليها بالضبط في العالم الحقيقي. على سبيل المثال، قد يكون توزيع الزوّار على صفحة ويب على مدار فترة زمنية قصيرة، ويعني هذا أنّ التوزيع لا يتغيّر خلال تلك الفترة القصيرة، وتكون زيارة أحد المستخدمين بشكل عام مستقلة عن زيارة شخص آخر. مع ذلك، في حال توسيع هذه الفترة الزمنية، قد تظهر اختلافات موسمية في عدد زوّار صفحة الويب.

راجِع أيضًا المقالة عدم ثبات الأداء.

الإنصاف الفردي

#fairness

مقياس إنصاف يتحقق مما إذا كان تم تصنيف الأفراد المشابهين بشكل مشابه. على سبيل المثال، قد ترغب أكاديمية Brobdingnagian في تحقيق الإنصاف الفردي من خلال التأكد من احتمال حصول طالبين لهما درجات متطابقة ودرجات اختبار موحدة على قبول متساوي.

تجدر الإشارة إلى أنّ الإنصاف الفردي يعتمد كليًا على كيفية تحديد "التشابه" (في هذه الحالة، الدرجات ودرجات الاختبار)، وقد تخاطر بإدخال مسائل جديدة متعلّقة بالإنصاف إذا كان مقياس التشابه يفوته معلومات مهمة (مثل دقة منهج الطالب الدراسي).

راجِع المقالة "الإنصاف من خلال الوعي" للاطّلاع على مناقشة أكثر تفصيلاً حول الإنصاف الفردي.

استنتاج

#fundamentals

في تعلُّم الآلة، عملية تقديم التوقّعات من خلال تطبيق نموذج مدرَّب على أمثلة غير مصنَّفة.

للاستنتاج معنى مختلف بعض الشيء في الإحصاءات. يمكنك مراجعة مقالة ويكيبيديا حول الاستنتاج الإحصائي لمعرفة التفاصيل.

مسار الاستنتاج

#df

في شجرة القرار، خلال الاستنتاج، يسلك المسار مثال معيّنًا من الجذر إلى شروط أخرى، وينتهي بـ ورقة شجر. على سبيل المثال، في شجرة القرار التالية، تُظهر الأسهم الأكثر سمكًا مسار الاستنتاج لمثال بقيم الخصائص التالية:

  • x = 7
  • y = 12
  • z = -3

ينتقل مسار الاستنتاج في الرسم التوضيحي التالي خلال ثلاثة حالات قبل الوصول إلى ورقة الشجر (Zeta).

شجرة قرارات تتكون من أربعة شروط وخمس أوراق.
          شرط الجذر هو (x > 0). بما أنّ الإجابة هي &quot;نعم&quot;، ينتقل
          مسار الاستنتاج من الجذر إلى الشرط التالي (y > 0).
          بما أنّ الإجابة هي &quot;نعم&quot;، ينتقل مسار الاستنتاج إلى
          الشرط التالي (z > 0). بما أنّ الإجابة هي &quot;لا&quot;، ينتقل مسار الاستنتاج إلى العقدة الطرفية، وهي ورقة الشجر (Zeta).

توضح الأسهم الثلاثة السميكة مسار الاستنتاج.

تحصيل المعلومات

#df

في غابات القرارات، الفرق بين قصور أحد الأجزاء والمجموع المرجَّح (حسب عدد الأمثلة) لقصور الأجزاء الثانوية. قصور الجزء هو قصور الأمثلة في ذلك الجزء.

على سبيل المثال، ضع في الاعتبار قيم القصور التالية:

  • قصور الجزء الأصلي = 0.6
  • قصور لعقدة فرعية واحدة بها 16 مثالاً = 0.2
  • قصور في عقدة تابعة أخرى بها 24 مثالاً ذا صلة = 0.1

وبالتالي، توجد 40% من الأمثلة في عقدة فرعية واحدة و60% في العقدة الثانوية الأخرى. لذلك:

  • مجموع القصور المُرجّح للعُقد الثانوية = (0.4 * 0.2) + (0.6 * 0.1) = 0.14

إذًا، يكون تحصيل المعلومات هو:

  • تحصيل المعلومات = قصور الجزء الأصلي - مجموع القصور المُرجّح للعُقد الفرعية
  • تحصيل المعلومات = 0.6 - 0.14 = 0.46

تسعى معظم التقسيمات إلى إنشاء شروط تزيد من فرص تحصيل المعلومات.

الانحياز داخل المجموعة

#fairness

إظهار التحيز لمجموعة الفرد الخاصة أو صفاته الخاصة. إذا كان المختبِرون أو المصنِّفون يتكونون من أصدقاء مطوّر برامج تعلُّم الآلة أو عائلته أو زملائه، قد يؤدي الانحياز داخل المجموعة إلى إلغاء اختبار المنتج أو مجموعة البيانات.

الانحياز داخل المجموعة هو شكل من أشكال الانحياز لتحديد مصدر المجموعة. راجِع أيضًا انحياز التجانس خارج المجموعة.

منشئ الإدخال

آلية يتم من خلالها تحميل البيانات في شبكة عصبية.

يمكن اعتبار منشئ المدخلات أحد المكونات المسؤولة عن معالجة البيانات الأولية إلى موتّرات يتم تكرارها لإنشاء دفعات للتدريب والتقييم والاستنتاج.

طبقة الإدخال

#fundamentals

طبقة الشبكة العصبونية التي تحتوي على متّجه الميزة. أي أنّ طبقة الإدخال تقدّم أمثلة على التدريب أو الاستنتاج. على سبيل المثال، تتكون طبقة الإدخال في الشبكة العصبية التالية من سمتين:

أربع طبقات: طبقة إدخال وطبقتين مخفيتين وطبقة إخراج.

حالة الإدخال

#df

في شجرة القرار، يشير ذلك إلى شرط يختبر توفُّر عنصر واحد في مجموعة من العناصر. على سبيل المثال، في ما يلي شرط مضمَّن:

  house-style in [tudor, colonial, cape]

أثناء الاستنتاج، إذا كانت قيمة الميزة ذات نمط المنزل هي tudor أو colonial أو cape، يتم تقييم هذا الشرط على "نعم". إذا كانت قيمة ميزة نمط المنزل شيئًا آخر (على سبيل المثال، ranch)، يتم تقييم هذا الشرط إلى "لا".

عادةً ما تؤدي الظروف الداخلية إلى إنشاء أشجار قرارات أكثر كفاءة من الشروط التي تختبر ميزات ترميز واحد فعال.

مثيل

مرادف لـ مثال.

توليف التعليمات

#GenerativeAI

هو شكل من أشكال الضبط الدقيق الذي يحسّن قدرة نموذج الذكاء الاصطناعي التوليدي على اتّباع التعليمات. يتضمن ضبط التعليمات تدريب نموذج على سلسلة من مطالبات الإرشادات، والتي تغطي عادةً مجموعة متنوعة من المهام. بعد ذلك، يميل النموذج المضبوط وفقًا للتعليمات إلى إنشاء ردود مفيدة للطلبات التي لا تتطلّب الإطلاق في مختلف المهام.

المقارنة والتباين مع:

القابلية للتفسير

#fundamentals

يشير ذلك المصطلح إلى القدرة على شرح أو تقديم أسباب نموذج تعلُّم الآلة بعبارات مفهومة للمستخدم.

على سبيل المثال، معظم نماذج الانحدار الخطي يمكن تفسيرها بدرجة كبيرة. (تحتاج فقط إلى إلقاء نظرة على القيم التقديرية المدربة لكل ميزة.) غابات اتخاذ القرار أيضًا قابلة للتفسير بدرجة عالية. ومع ذلك، تتطلب بعض النماذج تصورًا متطورًا لتصبح قابلة للتفسير.

يمكنك استخدام أداة "تعلّم الآلة" (LIT) لتفسير نماذج تعلُّم الآلة.

توافق المقيّمين

يشير ذلك المصطلح إلى قياس لعدد المرات التي يوافق فيها المصنِّفون على المهام. وفي حال عدم موافقة المصنِّفين، قد تحتاج إلى تحسين تعليمات المهمة. ويُطلق عليها أحيانًا اسم اتفاق المعلِّقين على التعليقات التوضيحية أو موثوقية المقيّمين. انظر أيضًا كابا كوهين، وهو أحد أكثر قياسات اتفاقيات التقييم شيوعًا.

تقاطع الاتحاد (IoU)

#image

نقطة التقاطع بين مجموعتين مقسومتين على اتحاد كل منهما. في مهام اكتشاف الصور في تكنولوجيا تعلُّم الآلة، يتم استخدام وحدة IoU لقياس دقة مربّع الإحاطة المتوقّعة للنموذج في ما يتعلق بمربّع حدود الحقيقة. في هذه الحالة، يكون وحدة IoU للمربعين هو النسبة بين المنطقة المتداخلة والمساحة الإجمالية، وتتراوح قيمته من 0 (لا يوجد تداخل بين مربع الإحاطة المتوقع ومربع حدود الحقيقة) إلى 1 (مربع الإحاطة المتوقع ومربع حدود الحقيقة لهما نفس الإحداثيات بالضبط).

على سبيل المثال، في الصورة أدناه:

  • يتم تحديد مربع الحدود المتوقع (الإحداثيات التي تحدد مكان تنبؤ النموذج بالجدول الليلي في اللوحة) باللون الأرجواني.
  • تم تحديد مربع تحديد الحقيقة (الإحداثيات التي تحدد مكان الطاولة الليلية في اللوحة بالفعل) باللون الأخضر.

رسم &quot;فان غوخ&quot; يرسم غرفة نوم &quot;فنسنت&quot; في &quot;آرل&quot;، مع صندوقَين محاطَين مختلفَين حول الطاولة الليلية بجانب السرير. يحيط مربّع الإحاطة من أرض الحقيقة (باللون الأخضر) بالطاولة الليلية بشكل مثالي. يتم إزاحة
 مربّع الإحاطة المتوقّع (باللون الأرجواني) بنسبة% 50 وأسفل يمين
 مربّع الإحاطة بالواقع، وهو يتضمّن الربع الأيمن السفلي
 من الجدول الليلي ولا يظهر فيه بقية أجزاء الجدول.

في هذه الحالة، يكون التقاطع بين المربعات المحاذية للتنبؤ والحقيقة الأرضية (أسفل اليسار) هو 1، واتحاد المربعات المحاذية للتنبؤ والحقيقة الأرضية (أسفل اليمين) هو 7، وبالتالي فإن وحدة IoU هي \(\frac{1}{7}\).

هي الصورة نفسها الواردة أعلاه، ولكن مع تقسيم كل مربّع حدود إلى أربعة
          أقسام. يتوفر إجمالي سبعة مربعات، حيث يتداخل ربع
          
          أسفل يمين مربّع حدود الأرض والقسم العلوي الأيسر لمربّع الإحاطة المتوقّعة مع بعضهما البعض. ويمثّل هذا القسم المتداخل (المظلل باللون الأخضر) التقاطع، ويحتوي على مساحة 1. هي الصورة نفسها الواردة أعلاه، ولكن مع تقسيم كل مربّع حدود إلى أربعة
          أقسام. يتوفر إجمالي سبعة مربعات، حيث يتداخل ربع
          
          أسفل يمين مربّع حدود الأرض والقسم العلوي الأيسر لمربّع الإحاطة المتوقّعة مع بعضهما البعض.
          ويمثل الجزء الداخلي المحاط بمربّعَي الإحاطة
 (المظلّل باللون الأخضر) الاتحاد، وبمساحة تبلغ 7.

IoU

اختصار تقاطع طرق اتحاد.

مصفوفة السلع

#recsystems

في أنظمة الاقتراح، هي مصفوفة من متّجهات التضمين التي يتم إنشاؤها من خلال تحليل المصفوفة إلى عواملها والتي تحتوي على إشارات كامنة حول كل عنصر. يحتوي كل صف من مصفوفة العناصر على قيمة ميزة كامنة واحدة لجميع العناصر. على سبيل المثال، ضع في اعتبارك نظام اقتراح الأفلام. يمثل كل عمود في مصفوفة العناصر فيلمًا واحدًا. قد تمثل الإشارات الكامنة الأنواع، أو قد تكون إشارات يصعب تفسيرها تتضمن تفاعلات معقدة بين النوع أو النجوم أو عمر الفيلم أو عوامل أخرى.

تحتوي مصفوفة العنصر على نفس عدد الأعمدة مثل المصفوفة المستهدفة التي يتم تحليلها إلى عوامل. على سبيل المثال، إذا نظرنا إلى نظام توصية الأفلام الذي يقيّم 10000 عنوان أفلام، ستحتوي مصفوفة العناصر على 10000 عمود.

items

#recsystems

في نظام الاقتراحات، هي العناصر التي يقترحها النظام. على سبيل المثال، مقاطع الفيديو هي العناصر التي يوصي بها متجر الفيديو، في حين أن الكتب هي العناصر التي يقترحها متجر الكتب.

تكرار

#fundamentals

تعديل واحد لمَعلمات النموذج، مثل القيم المرجحة والانحيازات للنموذج، أثناء التدريب ويحدّد حجم المجموعة عدد الأمثلة التي يعالجها النموذج في تكرار واحد. فعلى سبيل المثال، إذا كان حجم الدفعة 20، فإن النموذج يعالج 20 مثالاً قبل ضبط المعاملات.

عند تدريب شبكة عصبية، يتضمن تكرار واحد التكرارين التاليين:

  1. تمريرة للأمام لتقييم الخسارة في دفعة واحدة.
  2. انتقال للخلف (back postagation) لضبط معلَمات النموذج بناءً على نسبة فقدان البيانات ومعدّل التعلّم

J

JAX

مكتبة حوسبة الصفائف تجمع بين الجبر الخطي المسرّع (XLA) والتفاضل التلقائي للحوسبة الرقمية العالية الأداء توفر JAX واجهة برمجة تطبيقات بسيطة وفعالة لكتابة تعليمات برمجية رقمية مسرَّعة باستخدام تحويلات قابلة للإنشاء. توفّر JAX ميزات مثل:

  • grad (تفاضل تلقائي)
  • jit (فيديوهات مجمّعة في الوقت المناسب)
  • vmap (التوجيه التلقائي أو التجميع)
  • pmap (التوازي)

ولغة JAX هي لغة للتعبير عن عمليات التحويل البرمجية الرقمية وتكوينها، ولكنها ذات نطاق أوسع بكثير، إلى مكتبة NumPy في بايثون. (في الواقع، تعتبر مكتبة numpy .التابعة لـ JAX مكافئة من الناحية الوظيفية، ولكنها نسخة معاد كتابتها بالكامل من مكتبة بايثون نمباي.)

وتُعد JAX مناسبة تمامًا لتسريع العديد من مهام تعلُّم الآلة من خلال تحويل النماذج والبيانات إلى شكل مناسب للتوازي عبر وحدات معالجة الرسومات وTPU شرائح مسرِّعة البيانات.

تم إنشاء Flax وOptax وPax والعديد من المكتبات الأخرى على البنية الأساسية لـ JAX.

K

Keras

هي واجهة برمجة تطبيقات شائعة في لغة بايثون للتعلّم الآلي. يستخدم Keras العديد من أطر التعلم المتعمقة، بما في ذلك TensorFlow، حيث يتوفر باسم tf.keras.

آلات متجه دعم النواة (KSVMs)

يشير ذلك المصطلح إلى خوارزمية تصنيف تهدف إلى زيادة الهامش بين الفئات الإيجابية والسلبية من خلال ربط متّجهات بيانات الإدخال بمساحة ذات أبعاد أعلى. على سبيل المثال، بالنظر إلى مشكلة تصنيف تحتوي فيها مجموعة بيانات المدخلات على مئات الخصائص. لزيادة الهامش بين الفئات الإيجابية والسلبية، يمكن لآلة متجه الدعم تعيين هذه الميزات داخليًا في مساحة مليون أبعاد. تستخدم آلة متجه الدعم دالة فقدان تسمى فقدان المفصل.

النقاط الرئيسية

#image

إحداثيات عناصر معينة في صورة. على سبيل المثال، بالنسبة إلى نموذج التعرّف على الصور الذي يميّز أنواع الزهور، قد تكون النقاط الرئيسية هي مركز كل بتلة أو ساق أو سدّة وما إلى ذلك.

التحقق من الصحة المتقاطع k- Fold

يشير ذلك المصطلح إلى خوارزمية لتوقُّع قدرة النموذج على التعميم بهدف تضمين بيانات جديدة. يشير الرمز k في المحور k إلى عدد المجموعات المتساوية التي تقسم أمثلة مجموعة البيانات إليها، أي أنك تتدرب وتختبر النموذج k مرة. لكل جولة من التدريب والاختبار، تكون مجموعة مختلفة هي مجموعة الاختبار، وتصبح جميع المجموعات المتبقية مجموعة التدريب. بعد جولات k من التدريب والاختبار، يمكنك حساب المتوسط والانحراف المعياري لمقاييس الاختبار المختارة.

على سبيل المثال، افترض أن مجموعة البيانات الخاصة بك تتكون من 120 مثالاً. افترض أيضًا أنك قررت تعيين k على 4. لذلك، بعد خلط الأمثلة، تقوم بتقسيم مجموعة البيانات إلى أربع مجموعات متساوية من 30 مثالاً وإجراء أربع جولات تدريب/اختبار:

مجموعة بيانات مقسمة إلى أربع مجموعات متساوية من الأمثلة. في الجولة الأولى، يتم استخدام المجموعات الثلاث الأولى للتدريب بينما تُستخدم المجموعة الأخيرة للاختبار. في الجولة الثانية، يتم استخدام المجموعتين الأولتين والمجموعة الأخيرة للتدريب، بينما تُستخدم المجموعة الثالثة للاختبار. في الجولة الثالثة، يتم استخدام المجموعة الأولى والمجموعتين الأخيرتين للتدريب، في حين تُستخدم المجموعة الثانية للاختبار.
          في الجولة 4، يتم استخدام المجموعة الأولى للاختبار، بينما تستخدم المجموعات الثلاث الأخيرة للتدريب.

على سبيل المثال، قد يكون الخطأ التربيعي المتوسّط (MSE) هو المقياس الأكثر أهمية لنموذج الانحدار الخطّي. لذلك، ستعثر على المتوسط والانحراف المعياري للخطأ التربيعي المتوسط في جميع الجولات الأربع.

المتوسطات التصنيفية

#clustering

يشير ذلك المصطلح إلى خوارزمية تجميع شائعة تجمع الأمثلة في التعلُّم غير الخاضع للإشراف. تقوم الخوارزمية التصنيفية بشكل أساسي بما يلي:

  • تحديد أفضل نقاط مركزية بالتكرار (المعروفة باسم النقاط المركزية).
  • تحدد كل مثال أقرب نقطة مركزية. تلك الأمثلة الأقرب من نفس النقطة المركزية تنتمي إلى نفس المجموعة.

تختار الخوارزمية التصنيفية مواقع النقاط المركزية لخفض التربيع التراكمي للمسافات من كل مثال إلى أقرب نقطة مركزية له.

على سبيل المثال، ضع في الاعتبار المخطط التالي لارتفاع الكلب بالنسبة إلى عرض الكلب:

مخطط الديكارتي يضم عدة عشرات من نقاط البيانات.

إذا كانت ك=3، فستحدد الخوارزمية التصنيفية ثلاث نقاط مركزية. ويُنسب كل مثال إلى أقرب نقطة مركزية له، وهو ما ينتج عنه ثلاث مجموعات:

المخطط الديكارتي نفسه الوارد في الصورة التوضيحية السابقة، باستثناء
 إضافة ثلاث نقاط مركزية
          تُجمع نقاط البيانات السابقة في ثلاث مجموعات مختلفة، وتمثِّل كل مجموعة نقاط البيانات الأقرب إلى نقطة مركزية معيّنة.

تخيل أن الشركة المصنعة تريد تحديد المقاسات المثالية للسترات الصغيرة والمتوسطة والكبيرة للكلاب. تحدد النقاط المركزية الثلاث متوسط الارتفاع ومتوسط العرض لكل كلب في تلك المجموعة العنقودية. لذلك، من المحتمل أن تحدد الشركة المصنعة مقاسات السترات على تلك النقاط المركزية الثلاث. وتجدر الإشارة إلى أنّ النقطة المركزية لأي مجموعة عنقودية لا تعد مثالاً في المجموعة العنقودية.

توضح الرسوم التوضيحية السابقة الخوارزمية التصنيفية لأمثلة تحتوي على سمتين فقط (الارتفاع والعرض). لاحظ أن الخوارزمية التصنيفية يمكنها تجميع الأمثلة عبر العديد من الميزات.

متوسط التصنيف

#clustering

يشير ذلك المصطلح إلى خوارزمية تجميع ترتبط ارتباطًا وثيقًا بالخوارزمية التصنيفية. في ما يلي الفرق العملي بين الاثنين:

  • في الخوارزمية التصنيفية، يتم تحديد النقاط المركزية من خلال خفض مجموع المربعات للمسافة بين النقطة المركزية المرشحة وجميع أمثلتها.
  • في المتوسط التصنيفي، يتم تحديد النقاط المركزية من خلال خفض مجموع المسافة بين النقطة المركزية المرشحة وكل مثال من أمثلتها.

يُرجى العلم أنّ تعريفات المسافة مختلفة أيضًا:

  • تعتمد الخوارزمية التصنيفية على المسافة الإقليدية من النقطة المركزية إلى مثال. (في البُعدَين، تعني المسافة الإقليدية استخدام نظرية فيثاغورس لحساب وتر المثلث). على سبيل المثال، ستكون المسافة الخوارزمية التصنيفية بين (2,2) و (5,-2) كما يلي:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • يعتمد المتوسط التصنيفي على مسافة مانهاتن من النقطة المركزية إلى مثال. هذه المسافة هي مجموع دلتا المطلقة في كل بُعد. على سبيل المثال، ستكون المسافة المتوسّطة k بين (2,2) و (5,-2) على النحو التالي:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

تسوية الترتيب0

#fundamentals

يشير ذلك المصطلح إلى نوع من الانتظام الذي يعاقب العدد الإجمالي للأوزان غير الصفرية في نموذج. على سبيل المثال، ستتم معاقبة أي نموذج يحتوي على 11 وزنًا غير صفري أكثر من نموذج مشابه له 10 أوزان غير صفرية.

يُسمى تسوية المستوى 0 أحيانًا تسوية المعيار L0.

الخسارة الأولى

#fundamentals

دالة الخسارة التي تحسب القيمة المطلقة للفرق بين قيم التصنيف الفعلية والقيم التي يتوقّعها النموذج. على سبيل المثال، إليك احتساب الخسارة L1 لمجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج القيمة المطلقة للدلتا
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

تكون الخسارة L1 أقل حساسية للقيم الاستثنائية من الخسارة2.

متوسط الخطأ المطلق هو متوسط الخسارة L1 لكل مثال.

تسوية المستوى1

#fundamentals

يشير ذلك المصطلح إلى نوع من الانتظام الذي يفرض عقوبات على القيم المرجحة بما يتناسب مع مجموع القيم المطلقة للأوزان. يساعد تسوية المستوى 1 في زيادة ترجيحات الميزات غير الملائمة أو بالكاد تكون ذات الصلة إلى 0 بالضبط. تتم إزالة ميزة بوزن 0 من النموذج فعليًا.

تباين مع L2 تسوية.

الخسارة 2

#fundamentals

دالة الخسارة التي تحسب مربع الفرق بين قيم التصنيف الفعلية والقيم التي يتوقّعها النموذج. على سبيل المثال، إليك احتساب الخسارة من L2 لمجموعة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج مربع دلتا
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = خسارة L2

بسبب التربيع، تؤدّي خسارة المستوى 2 إلى تضخيم تأثير القيم الشاذّة. وهذا يعني أنّ خسارة المستوى 2 تتأثّر بشكل أكبر بالتوقّعات السيئة مقارنةً بخسارة الدرجة الأولى. على سبيل المثال، ستكون نسبة الخسارة L1 للدفعة السابقة 8 بدلاً من 16. لاحظ أن القيمة الاستثنائية الفردية تمثل 9 من 16.

تستخدم نماذج الانحدار عادةً الخسارة L2 باعتبارها دالة الخسارة.

الخطأ التربيعي المتوسّط هو متوسط الخسارة من المستوى 2 لكل مثال. الخسارة التربيعية هي اسم آخر للخسارة في المستوى 2.

تسوية 2

#fundamentals

يشير ذلك المصطلح إلى نوع من الانتظام يفرض عقوبات على القيم المرجحة بما يتناسب مع مجموع مربعات معاملات الترجيح. يساعد تسوية المستوى 2 في زيادة ترجيحات القيم الخارجية (تلك ذات القيم الموجبة أو السالبة العالية) أقرب إلى 0 وليست تمامًا 0. تظل الميزات ذات القيم القريبة جدًا من 0 في النموذج لكنها لا تؤثر كثيرًا في توقع النموذج.

تؤدي تسوية L2 دائمًا إلى تحسين التعميم في النماذج الخطية.

تباين مع L1 تسوية.

label

#fundamentals

في تعلُّم الآلة الخاضع للإشراف، يشير ذلك إلى جزء "الإجابة" أو "النتيجة" من مثال.

يتكون كل مثال مصنَّف من ميزة واحدة أو أكثر وتصنيف. على سبيل المثال، في مجموعة بيانات الكشف عن المحتوى غير المرغوب فيه، قد يكون التصنيف إما "محتوى غير مرغوب فيه" أو "ليس محتوى غير مرغوب فيه". في مجموعة بيانات هطول الأمطار، قد تكون التسمية هي مقدار الأمطار التي سقطت خلال فترة معينة.

مثال مصنَّف

#fundamentals

مثال يحتوي على ميزة واحدة أو أكثر وتصنيف. على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة مصنفة من نموذج تقييم المنزل، ولكل منها ثلاث ميزات وتسمية واحدة:

عدد غرف النوم عدد الحمّامات عمر المنزل سعر المنزل (التصنيف)
3 2 15 345000 دولار
2 1 72 179000 دولار أمريكي
4 2 34 392000 دولار

في تعلُّم الآلة الخاضع للإشراف، تتدرب النماذج على الأمثلة المصنَّفة وتقدّم توقّعات بشأن الأمثلة غير المصنَّفة.

مثال على التباين المصنَّف مع أمثلة غير مصنَّفة.

تسريب التصنيفات

يشير ذلك المصطلح إلى عيب في تصميم النموذج تكون فيه الميزة وكيلاً عن التصنيف. على سبيل المثال، ضع في الاعتبار نموذج تصنيف ثنائي يتوقّع ما إذا كان العميل المحتمل سيشتري منتجًا معيّنًا أم لا. لنفترض أنّ إحدى سمات النموذج هي قيمة منطقية تُسمى SpokeToCustomerAgent. إضافةً إلى ذلك، لنفترض أنّه لا يتم تعيين وكيل العميل إلا بعد أن يشتري العميل المحتمل المنتج. أثناء التدريب، سيتعرّف النموذج سريعًا على الارتباط بين SpokeToCustomerAgent والتصنيف.

لمدا

#fundamentals

مرادف معدّل التنظيم.

مصطلح "لامدا" هو عبارة عن حمل زائد. ونركّز هنا على تعريف المصطلح ضمن الانتظام.

نموذج لغوي مخصَّص لتطبيقات المحادثة (LaMDA)

#language

نموذج لغوي كبير يستند إلى المحوّل، طوّرته Google استنادًا إلى مجموعة بيانات حوارية كبيرة يمكن أن تنشئ ردودًا واقعية.

LaMDA: تكنولوجيا المحادثات الرائدة توفّر نظرة عامة.

معالم

#image

مرادف نقاط المفاتيح.

نموذج لغوي

#language

يشير ذلك المصطلح إلى model يقدِّر احتمالية حدوث model أو تسلسل من الرموز المميّزة التي تحدث في تسلسل أطول من الرموز المميّزة.

نموذج لغوي كبير

#language

يشير ذلك المصطلح إلى مصطلح غير رسمي بدون تعريف دقيق، ما يعني عادةً نموذج لغوي يتضمّن عددًا كبيرًا من المَعلمات. تحتوي بعض النماذج اللغوية الكبيرة على أكثر من 100 مليار معلَمة.

المساحة الكامنة

#language

مرادف لـ تضمين مساحة.

طبقة

#fundamentals

مجموعة من الخلايا العصبية في شبكة عصبية. هناك ثلاثة أنواع شائعة من الطبقات وهي كما يلي:

على سبيل المثال، يُظهر الرسم التوضيحي التالي شبكة عصبية بها طبقة إدخال واحدة وطبقتين مخفيتين وطبقة إخراج واحدة:

يشير ذلك المصطلح إلى شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة إخراج واحدة. تتألف طبقة الإدخال من ميزتين. تتكون الطبقة الأولى المخفية من ثلاث خلايا عصبية بينما تتكون الطبقة المخفية الثانية من خليتين عصبيتين. تتكون طبقة المخرجات من عقدة واحدة.

في TensorFlow، تكون الطبقات هي أيضًا دوال Python تستخدم TensorFlow وخيارات الضبط كإدخال وإنتاج دوال عشرات أخرى كمخرجات.

Layers API (tf.layers)

#TensorFlow

واجهة برمجة تطبيقات TensorFlow لإنشاء شبكة عصبية عميقة كتركيبة من الطبقات. تتيح لك Layers API إنشاء أنواع مختلفة من الطبقات، مثل:

تتّبع Layers API اصطلاحات واجهة برمجة التطبيقات لطبقات Keras. وهذا يعني أنّه بخلاف بادئة مختلفة، تحتوي جميع الدوال في Layers API على الأسماء والتوقيعات نفسها مثل نظيراتها في واجهة برمجة التطبيقات Keraslayers.

ورقة نبات

#df

أي نقطة نهاية في شجرة قرارات. على عكس الحالة، لا تُجري ورقة الشجر اختبارًا. وإنما تعتبر ورقة الشجر تنبؤًا محتملاً. ويكون ورقة الشجر أيضًا العقدة الطرفية لمسار الاستنتاج.

على سبيل المثال، تحتوي شجرة القرارات التالية على ثلاثة أوراق:

شجرة قرارات ذات شرطين يؤديان إلى ثلاث أوراق.

أداة قابلية التفسير في التعلُّم (LIT)

أداة مرئية وتفاعلية لفهم النماذج وتصور البيانات.

يمكنك استخدام واجهة LIT المفتوحة المصدر لتفسير النماذج أو عرض النصوص والصور والبيانات الجدولية.

معدّل التعلّم

#fundamentals

رقم نقطة عائمة يوضّح لخوارزمية انحدار التدرج مدى قوة تعديل الأوزان والانحيازات في كل تكرار. على سبيل المثال، قد يضبط معدل التعلم 0.3 الأوزان والتحيزات ثلاث مرات أكثر قوة من معدل التعلم 0.1.

معدّل التعلّم هو مَعلمة زائدة رئيسية. إذا قمتَ بضبط معدل التعلم منخفض جدًا، فسسيستغرق التدريب وقتًا طويلاً. إذا ضبطت معدّل التعلّم على قيمة مرتفعة جدًّا، ستواجه خوارزمية انحدار التدرج صعوبةً في الوصول إلى التقارب في أغلب الأحيان.

انحدار التربيعات الأقل

يشير ذلك المصطلح إلى نموذج انحدار خطّي يتم تدريبه من خلال تقليل معدّل الخسارة L2.

خطي

#fundamentals

علاقة بين متغيرين أو أكثر يمكن تمثيلها فقط من خلال الجمع والضرب.

مخطط العلاقة الخطية هو خط.

تباين مع القيم غير الخطية.

نموذج خطي

#fundamentals

model يعيّن model واحدة لكل model من أجل إجراء model. (تتضمن النماذج الخطية أيضًا انحيازًا). في المقابل، تكون علاقة الميزات بالتوقّعات في النماذج المفصّلة غير خطية بشكل عام.

يكون تدريب النماذج الخطية عادةً أسهل، كما أنّه أكثر قابل للتفسير مقارنةً بالنماذج التفصيلية. ومع ذلك، يمكن أن تتعلم النماذج العميقة علاقات معقدة بين الميزات.

الانحدار الخطي والانحدار اللوجستي هما نوعان من النماذج الخطية.

انحدار خطّي

#fundamentals

يشير ذلك المصطلح إلى نوع من نماذج تعلُّم الآلة ينطبق فيه ما يلي:

قارِن بين الانحدار الخطي والانحدار اللوجستي. يمكنك أيضًا مقارنة الانحدار باستخدام التصنيف.

لتر

اختصار Learning Indexability Tool (LIT)، التي كانت تُعرف سابقًا باسم "أداة ترجمة اللغة"

النموذج اللغوي الكبير

#language

اختصار نموذج لغوي كبير.

الانحدار اللوجستي

#fundamentals

نوع من نماذج الانحدار الذي يتوقّع الاحتمالية. تتمتع نماذج الانحدار اللوجستي بالخصائص التالية:

  • يكون التصنيف فئويًا. يشير مصطلح الانحدار اللوجستي عادة إلى الانحدار اللوجستي الثنائي، أي النموذج الذي يحسب احتمالات التصنيفات ذات القيمتين المحتملتين. هناك صيغة أقل شيوعًا، وهي الانحدار اللوجستي متعدد الحدود، تحتسب احتمالات التصنيفات التي لها أكثر من قيمتَين محتملتَين.
  • دالة الخسارة أثناء التدريب هي Log Loss. (يمكن وضع وحدات متعددة لفقدان السجلات بالتوازي مع التصنيفات ذات أكثر من قيمتين محتملتين).
  • يشتمل النموذج على بنية خطية، وليس شبكة عصبية عميقة. ومع ذلك، ينطبق باقي هذا التعريف أيضًا على النماذج المفصّلة التي تتوقّع احتمالات التصنيفات الفئوية.

على سبيل المثال، بالنظر إلى نموذج الانحدار اللوجستي الذي يحسب احتمالية أن يكون البريد الإلكتروني الذي تم إدخاله إما غير مرغوب فيه أو ليس بريدًا غير مرغوب فيه. أثناء الاستنتاج، افترض أن النموذج يتنبأ بـ 0.72. لذلك، يقوم النموذج بتقدير:

  • فرصة 72٪ أن تكون الرسالة الإلكترونية غير مرغوب فيها.
  • فرصة 28٪ أن تكون الرسالة الإلكترونية غير مرغوب فيها.

يستخدم نموذج الانحدار اللوجستي البنية التالية المكونة من خطوتين:

  1. ينشئ النموذج تنبؤًا أوليًا (y') من خلال تطبيق دالة خطية لخصائص الإدخال.
  2. يستخدم النموذج هذه التوقّعات الأولية كمدخل للدالة السينية، التي تحوِّل التوقّع الأولي إلى قيمة بين 0 و1، باستثناء تلك الدالة.

كما هو الحال في أي نموذج انحدار، يتنبأ أي نموذج انحدار لوجستي برقم. ومع ذلك، يصبح هذا الرقم عادةً جزءًا من نموذج التصنيف الثنائي على النحو التالي:

  • إذا كان الرقم المتوقّع أكبر من حدّ التصنيف، يتنبأ نموذج التصنيف الثنائي بالفئة الموجبة.
  • إذا كان العدد المتنبأ به أقل من حد التصنيف، يتنبأ نموذج التصنيف الثنائي بالفئة السالبة.

لوجيت

متجه التنبؤات الأولية (غير العادية) التي ينتجها نموذج التصنيف، والتي يتم تمريرها عادةً إلى دالة التسوية. إذا كان النموذج يعمل على حل مشكلة تصنيف متعدد الفئات، تصبح ملفات اللوجستيات عادةً مدخلاً للدالة softmax. تنشئ دالة softmax بعد ذلك متجهًا للاحتمالات (التسوية) بقيمة واحدة لكل فئة محتملة.

الخسارة اللوغاريتمية

#fundamentals

دالة الخسارة المستخدمة في الانحدار اللوجستي الثنائي.

لوغاريتم الاحتمالات

#fundamentals

يشير ذلك المصطلح إلى لوغاريتم يوضِّح معدّل احتمالية وقوع حدث معيّن.

الذاكرة القصيرة المدى (LSTM)

#seq

نوع من الخلايا في شبكة عصبية متكررة يُستخدَم لمعالجة تسلسلات البيانات في تطبيقات مثل التعرّف على الكتابة بخط اليد والترجمة الآلية وترجمة الصور. تعالج LSTM مشكلة التلاشي التي تحدث عند تدريب RNN بسبب تسلسلات البيانات الطويلة من خلال الحفاظ على السجل في حالة ذاكرة داخلية بناءً على المدخلات والسياق الجديدين من الخلايا السابقة في RNN.

LoRA

#language
#GenerativeAI

يشير إلى اختصار قابلية التكيّف المنخفضة الترتيب.

الخسارة

#fundamentals

أثناء تدريب نموذج خاضع للإشراف، وهو مقياس لمدى بُعد توقّع النموذج عن تصنيفه.

تحتسب دالة الخسارة الخسارة.

موقع تجميع الخسائر

يشير ذلك المصطلح إلى نوع من خوارزمية تعلُّم الآلة الذي يحسِّن أداء النموذج من خلال الجمع بين التوقّعات لنماذج متعدّدة واستخدام تلك التوقّعات لتقديم توقّع واحد. ونتيجةً لذلك، يمكن أن تقلِّل أداة تجميع الخسارة من تباين التوقّعات وتحسين دقة التوقّعات.

منحنى الخسارة

#fundamentals

تمثّل هذه السمة الخسارة كدالة لعدد التكرارات للتدريب. يوضح المخطط التالي منحنى خسارة نموذجي:

رسم بياني الديكارتي للخسارة مقابل التكرارات التدريبية، يُظهر انخفاضًا سريعًا في الخسارة في التكرارات الأولية، متبوعًا بانخفاض تدريجي، ثم منحدر مستوٍ خلال التكرارات النهائية

يمكن أن تساعدك منحنيات الخسارة في تحديد وقت التحويل أو الفرط في التخصيص.

يمكن لمنحنيات الخسارة رسم جميع أنواع الخسارة التالية:

اطّلِع أيضًا على منحنى التعميم.

دالة الخسارة

#fundamentals

أثناء التدريب أو الاختبار، دالة رياضية تحسب الخسارة في مجموعة من الأمثلة. ترجع دالة الخسارة نسبة خسارة أقل للنماذج التي تقدم تنبؤات جيدة مقارنةً بالنماذج التي تقدم تنبؤات سيئة.

عادة ما يكون الهدف من التطبيق هو تقليل الخسارة التي تعود من دالة الخسارة.

هناك العديد من الأنواع المختلفة لدوال الخسارة. اختر دالة الخسارة المناسبة لنوع النموذج الذي تقوم ببنائه. مثلاً:

مساحة الخسارة

رسم بياني للوزن(الأوزان) مقابل الخسارة. يهدف خورازمية انحدار التدرج إلى معرفة الوزن(الأوزان) التي يكون سطح الخسارة بها عند الحد الأدنى المحلي.

قابلية التكيف منخفض الترتيب (LoRA)

#language
#GenerativeAI

يشير ذلك المصطلح إلى خوارزمية لإجراء ضبط فعّال للمعلَمات يعمل على ضبط مجموعة فرعية فقط من معلَمات النموذج اللغوي الكبير. توفر LoRA المزايا التالية:

  • يتم الضبط بشكلٍ أسرع على الأساليب التي تتطلّب ضبط جميع مَعلمات النموذج.
  • تقلل التكلفة الحاسوبية للاستنتاج في النموذج الدقيق.

يحافظ النموذج الذي يتم ضبطه على LoRA على جودة توقعاته أو يحسّنها.

تتيح LoRA إمكانية إنشاء إصدارات متخصصة متعددة من النموذج.

أداة LSTM

#seq

اختصار ذاكرة قصيرة المدى.

ن

تعلُم الآلة

#fundamentals

يشير ذلك المصطلح إلى برنامج أو نظام يدرّب نموذجًا من البيانات التي يتم إدخالها. يمكن للنموذج المدرَّب أن يقدم تنبؤات مفيدة من بيانات جديدة (لم يسبق رؤيتها) مستمدة من نفس التوزيع المستخدم لتطبيق النموذج.

كما يشير التعلم الآلي إلى مجال الدراسة المعني بهذه البرامج أو الأنظمة.

حصة الأغلبية

#fundamentals

تمثّل هذه السمة التصنيف الأكثر شيوعًا في مجموعة بيانات غير متوازنة في الفئات. على سبيل المثال، بالنظر إلى مجموعة بيانات تحتوي على تسميات سلبية 99٪ وتسميات موجبة بنسبة 1٪، فإن التسميات السالبة هي فئة الأغلبية.

التباين مع فئة الأقل.

عملية اتخاذ القرار في ماركوف (MDP)

#rl

رسم بياني يمثّل نموذج اتخاذ القرار حيث يتم اتخاذ القرارات (أو الإجراءات) للانتقال ضمن سلسلة من الحالات بافتراض أنّ سمة ماركوف قائمة في التعلّم المعزّز، تكون هذه الانتقالات بين الولايات تقدّم مكافأة عددية.

عقار ماركوف

#rl

سمة خاصة ببيئات معيّنة يتم فيها تحديد الانتقالات في الولاية بالكامل من خلال المعلومات الضمنية في الحالة الحالية وإجراء الوكيل

نموذج لغوي مقنَّع

#language

نموذج لغوي يتنبأ باحتمالية ملء الفراغات في الرموز المميزة للمرشحين بالتسلسل. على سبيل المثال، يمكن لنموذج لغوي مقنع حساب احتمالات الكلمة(الكلمات) المرشحة لاستبدال التسطير في الجملة التالية:

عاد من يرتدي القبّعة ____.

تستخدم المؤلفات عادةً السلسلة "MASK" بدلاً من التسطير. مثلاً:

عاد "القناع" الذي يرتدي القبّعة.

معظم النماذج اللغوية الحديثة المقنَّعة ثنائية الاتجاه.

مكتبة مات بلوت ليب

هي مكتبة تخطيط ثنائي الأبعاد بلغة بايثون مفتوحة المصدر. تساعدك matplotlib في عرض الجوانب المختلفة لتعلُّم الآلة.

تحليل المصفوفات

#recsystems

في الرياضيات، يشير ذلك المصطلح إلى آلية لإيجاد المصفوفات التي يقترب حاصل الضرب النقطي منها من مصفوفة مستهدفة.

في أنظمة التوصية، غالبًا ما تحتفظ المصفوفة المستهدفة بتقييمات المستخدمين على العناصر. على سبيل المثال، قد تبدو المصفوفة المستهدفة لنظام اقتراح الأفلام كما يلي، حيث تكون الأعداد الصحيحة الموجبة هي تقييمات المستخدمين و0 تعني أن المستخدم لم يقيّم الفيلم:

  الدار البيضاء قصة فيلادلفيا الفهد الأسود المرأة المعجزة فيلم Pulp الخيال
مستخدم 1 5 3 0.0 2.0 0.0
مستخدم 2 4.0 0.0 0.0 1 5
مستخدم 3 3 1 4.0 5 0.0

يهدف نظام اقتراح الأفلام إلى توقع تقييمات المستخدمين للأفلام غير المقيَّمة. على سبيل المثال، هل سيحب المستخدم 1 Black Panther؟

يتمثل أحد مناهج أنظمة التوصية في استخدام تحليل المصفوفات لإنشاء المصفوفتين التاليتين:

على سبيل المثال، قد ينتج عن استخدام تحليل المصفوفة في حسابات المستخدمين الثلاثة وخمسة عناصر مصفوفة المستخدمين ومصفوفة البنود التالية:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

ينتج عن ناتج الضرب النقطي لمصفوفة المستخدمين ومصفوفة البنود مصفوفة توصية لا تحتوي فقط على تقييمات المستخدم الأصلية، بل تحتوي أيضًا على توقعات للأفلام التي لم يرَها كل مستخدم. على سبيل المثال، ضع في الاعتبار تقييم المستخدم 1 لـ Casablanca، والذي كان 5.0. ومن المفترض أن يكون ناتج الضرب النقطي المتجاوب لتلك الخلية في مصفوفة التوصية حوالي 5.0، وهو:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

الأهم من ذلك، هل سيحب المستخدم 1 Black Panther؟ عند استخدام ناتج الضرب النقطي المقابل للصف الأول والعمود الثالث، ينتج عن ذلك تقييم متوقع يبلغ 4.3:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

ينتج عادةً عن تحليل المصفوفة مصفوفة مستخدم ومصفوفة عناصر معًا، وتكون أكثر إحكامًا بكثير من المصفوفة المستهدفة.

متوسط الخطأ المطلق (MAE)

يشير إلى متوسط الخسارة لكل مثال عند استخدام L1،. احسب متوسط الخطأ المطلق على النحو التالي:

  1. احسب الخسارة L1 لدُفعة.
  2. اقسِم الخسارة L1 على عدد الأمثلة في الدُفعة.

على سبيل المثال، ننصحك بحساب خسارة L1 على الدفعة التالية المكونة من خمسة أمثلة:

القيمة الفعلية للمثال القيمة المتوقّعة للنموذج الخسارة (الفرق بين الفعلية والمتوقَّعة)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = خسارة L1

إذًا، تكون الخسارة L1 هي 8 وعدد الأمثلة هو 5. وبالتالي، فإن متوسط الخطأ المطلق هو:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

تباين متوسط الخطأ المطلق مع الخطأ التربيعي المتوسّط والخطأ التربيعي الجذري.

يعني خطأ تربيعيًا (MSE)

يشير إلى متوسط الخسارة لكل مثال عند استخدام مقياس الخسارة L2. احسب متوسط الخطأ التربيعي على النحو التالي:

  1. احسب الخسارة L2 لدُفعة.
  2. اقسِم الخسارة L2 على عدد الأمثلة في الدُفعة.

على سبيل المثال، ضع في الاعتبار الخسارة في الدفعة التالية المكونة من خمسة أمثلة:

القيمة الفعلية توقع النموذج الخسارة الخسارة التربيعية
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = خسارة L2

وبالتالي، فإن متوسط الخطأ التربيعي هو:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

"متوسط الخطأ التربيعي" هو أحد أدوات تحسين الأداء التدريبية الشائعة، وبالأخص الانحدار الخطي.

يشير ذلك المصطلح إلى متوسط تباين للخطأ التربيعي مع متوسّط الخطأ المطلق والخطأ التربيعي المتوسّط الجذر.

تستخدم TensorFlow Playground متوسط الخطأ التربيعي لحساب قيم الخسارة.

شبكة متداخلة

#TensorFlow
#GoogleCloud

في البرمجة المتوازية لتعلُّم الآلة، مصطلح مرتبط بتخصيص البيانات والنموذج لشرائح TPU وتحديد كيفية تقسيم هذه القيم أو نسخها.

الشبكة المتداخلة هي عبارة عن حمل زائد ويمكن أن تعني أيًا مما يلي:

  • تمثّل هذه السمة تصميمًا فعليًا لشرائح وحدة معالجة الموتّرات.
  • يشير ذلك المصطلح إلى بنية منطقية مجردة لتحديد البيانات والنموذج مع شرائح وحدات معالجة الموتّرات.

وفي كلتا الحالتين، يتم تحديد الشبكة المتداخلة كشكل.

التعلّم الوصفي

#language

يشير ذلك المصطلح إلى مجموعة فرعية من تعلُّم الآلة تكتشف خوارزمية تعلُّم أو تحسِّنها. يمكن أن يهدف نظام التعلم الوصفي أيضًا إلى تدريب نموذج لتعلم مهمة جديدة بسرعة من كمية صغيرة من البيانات أو من الخبرة المكتسبة في المهام السابقة. بوجهٍ عام، تحاول خوارزميات التعلّم الوصفي تحقيق ما يلي:

  • تحسين أو تعلم الميزات الهندسية يدويًا (مثل أداة التهيئة أو أداة التحسين).
  • أن تكون أكثر فعالية من حيث البيانات والحوسبة.
  • تحسين التعميم.

ترتبط التعلّم الإحصائي بطريقة تعلُّم قليلة.

المقياس

#TensorFlow

إحصائية مهمة.

الهدف هو مقياس يحاول نظام تعلُّم الآلة تحسينه.

Metrics API (tf.metrics)

واجهة برمجة تطبيقات TensorFlow لتقييم النماذج على سبيل المثال، تحدِّد tf.metrics.accuracy عدد مرّات تطابق توقّعات النموذج مع التصنيفات.

دفعة صغيرة

#fundamentals

مجموعة فرعية صغيرة تم اختيارها عشوائيًا من مجموعة تتم معالجتها في تكرار واحد. ويتراوح حجم الدفعة للمجموعة الصغيرة عادةً بين 10 و1,000 مثال.

على سبيل المثال، لنفترض أن مجموعة التدريب بأكملها (المجموعة الكاملة) تتكون من 1000 مثال. ولنفترض كذلك أنك ضبطت حجم الدفعة لكل دفعة صغيرة على 20. وبالتالي، يحدّد كل تكرار الخسارة في 20 عشوائيًا من أصل 1,000 مثال، ثم يعدّل القيم المرجحة والانحيازات وفقًا لذلك.

إن حساب الخسارة على دفعة صغيرة أكثر فعالية من الخسارة في جميع الأمثلة الموجودة في الدفعة الكاملة.

نزول متدرّج عشوائي ضمن دفعة صغيرة

خوارزمية انحدار التدرج التي تستخدم مجموعات صغيرة. بعبارة أخرى، يقدر انحدار التدرج العشوائي الجزئي التدرج التدرج بناءً على مجموعة فرعية صغيرة من بيانات التدريب. تستخدم الانحدار العشوائي المتدرج دفعة صغيرة بحجم 1.

الحدّ الأدنى لخسارة

يشير ذلك المصطلح إلى دالة فقدان خاصة بالشبكات الخادعة التوليدية، استنادًا إلى الإنتروبيا المتبادل بين توزيع البيانات التي تم إنشاؤها والبيانات الحقيقية.

يتم استخدام الحدّ الأدنى لفقدان الحد الأدنى في الورقة الأولى لوصف الشبكات الخادعة التوليدية.

فئة الأقليات

#fundamentals

تمثّل هذه السمة التصنيف الأقل شيوعًا في مجموعة بيانات غير متوازنة في الفئات. على سبيل المثال، بالنظر إلى مجموعة بيانات تحتوي على تسميات سلبية 99٪ وتسميات موجبة بنسبة 1٪، فإن التسميات الإيجابية هي فئة الأقل.

التباين مع فئة الغالبية.

مالي

اختصار تعلُّم الآلة.

معهد MNIST (المعهد الوطني للمعايير والتكنولوجيا)

#image

مجموعة بيانات خاصة بنطاق عام تم جمعها بواسطة LeCun وCotes وBurges وتحتوي على 60,000 صورة، وتوضح كل صورة كيف كتب أحد الأشخاص رقمًا معينًا يدويًا من 0 إلى 9. يتم تخزين كل صورة كمصفوفة من الأعداد الصحيحة بحجم 28×28، حيث يكون كل عدد صحيح عبارة عن قيمة بتدرج رمادي تتراوح بين 0 و255، بشكل شامل.

إن MNIST هي مجموعة بيانات أساسية للتعلم الآلي، وغالبًا ما تُستخدم لاختبار مناهج جديدة للتعلم الآلي. لمعرفة التفاصيل، يُرجى الاطّلاع على قاعدة بيانات MNIST للأرقام المكتوبة بخط اليد.

الأسلوب

#language

فئة بيانات عالية المستوى. على سبيل المثال، الأرقام والنص والصور والفيديو والصوت هي خمسة وسائط مختلفة.

model

#fundamentals

بشكل عام، أي تركيبة رياضية تعالج البيانات المُدخلة وتُرجع المخرجات. وبصياغته بشكل مختلف، فإن النموذج عبارة عن مجموعة المعاملات والبنية اللازمة للنظام لإجراء التنبؤات. في تعلُّم الآلة الخاضع للإشراف، يأخذ أحد النماذج مثالاً كمدخل ويستنتج توقّعًا كمخرجات. تختلف النماذج إلى حد ما ضمن التعلم الآلي المُوجّه مثلاً:

يمكن حفظ نموذج أو استعادته أو إنشاء نُسخ منه.

ينشئ تعلُّم الآلة غير الخاضع للإشراف أيضًا نماذج، وهي عادةً دالة يمكنها ربط مثال إدخال بمجموعة الأكثر ملاءمةً.

سعة النموذج

يشير ذلك المصطلح إلى مدى تعقيد المسائل التي يمكن أن يتعلّمها نموذج معيّن. فكلما كانت المسائل التي يمكن أن يتعلمها النموذج أكثر تعقيدًا، ارتفعت قدرة النموذج. تزداد سعة النموذج عادةً مع زيادة عدد معاملات النموذج. للاطّلاع على تعريف رسمي لسعة أدوات التصنيف، يُرجى الاطّلاع على سمة مؤتمرات الفيديو (VC).

نموذج متتالي

#GenerativeAI

يشير ذلك المصطلح إلى نظام يختار model المثالي لطلب بحث استنتاجي محدّد.

تخيَّل مجموعة من النماذج بدءًا من النماذج الكبيرة جدًا (الكثير من المَعلمات) إلى نماذج أصغر بكثير (معلَمات أقل بكثير). وتستهلك النماذج الكبيرة جدًا موارد حسابية أكبر في وقت الاستنتاج مقارنةً بالنماذج الأصغر. ومع ذلك، يمكن أن تستنتج النماذج الكبيرة جدًا عادةً طلبات أكثر تعقيدًا من النماذج الأصغر. يحدّد التسلسل المتسلسل للنموذج مدى تعقيد طلب الاستنتاج، ثم يختار النموذج المناسب لتنفيذ الاستنتاج. إنّ الدافع الرئيسي لتطبيق النموذج المتتالي هو تقليل تكاليف الاستنتاج من خلال اختيار نماذج أصغر بشكل عام واختيار نموذج أكبر فقط لطلبات البحث الأكثر تعقيدًا.

تخيل أن نموذجًا صغيرًا يعمل على هاتف وأن نسخة أكبر من ذلك النموذج تعمل على خادم بعيد. يؤدي التتابع الجيد للنموذج إلى تقليل التكلفة ووقت الاستجابة من خلال تمكين النموذج الأصغر حجمًا من معالجة الطلبات البسيطة واستدعاء النموذج البعيد فقط للتعامل مع الطلبات المعقدة.

راجِع أيضًا طراز جهاز التوجيه.

موازاة النموذج

#language

هي طريقة للتدريب على التوسُّع أو الاستنتاج يقدّم أجزاءً مختلفة من model واحد على model مختلفة. يتيح التوازي النموذجي النماذج الكبيرة جدًا بحيث لا يمكن وضعها على جهاز واحد.

لتنفيذ موازاة النموذج، يقوم النظام عادةً بما يلي:

  1. أجزاء (تقسيم) النموذج إلى أجزاء أصغر.
  2. يوزع تدريب تلك الأجزاء الأصغر على معالِجات متعددة. يدرّب كل معالِج جزءه الخاص من النموذج.
  3. تجمع النتائج لإنشاء نموذج واحد.

يؤدي التوازي في النموذج إلى إبطاء التدريب.

راجِع أيضًا موازية البيانات.

جهاز توجيه الطراز

#GenerativeAI

يشير ذلك المصطلح إلى الخوارزمية التي تحدِّد model المثالي model في model. عادةً ما يكون جهاز توجيه النموذج هو نفسه نموذج تعلم آلي يتعلم تدريجيًا كيفية اختيار أفضل نموذج لمدخل معين. ومع ذلك، قد يكون الموجه النموذجي أحيانًا عبارة عن خوارزمية مبسطة للتعلم غير الآلي.

تدريب النموذج

عملية تحديد أفضل model.

الزخم

يشير ذلك المصطلح إلى خوارزمية انحدار تدرج معقّدة لا تعتمد فيها خطوة التعلّم على المشتق في الخطوة الحالية فحسب، بل على المشتقات أيضًا في الخطوات التي سبقتها مباشرةً. يتضمن الزخم حساب متوسط متحرك مرجّح بشكل ضخم للتدرجات بمرور الوقت، على نحو يشبه الزخم في الفيزياء. يمنع الزخم أحيانًا التعلم في الحد الأدنى المحلي.

تصنيف متعدّد الفئات

#fundamentals

يشير ذلك المصطلح إلى مشكلة تصنيف في التعلّم الخاضع للإشراف تحتوي فيها مجموعة البيانات على أكثر من فئتَين من التصنيفات. على سبيل المثال، يجب أن تكون التسميات في مجموعة بيانات Iris واحدة من الفئات الثلاث التالية:

  • إيريس سيتوسا
  • إيريس فيرجينيكا
  • زهرة السوسن الملون

هناك نموذج تم تدريبه على مجموعة بيانات Iris يتنبأ بنوع السوسن بناءً على أمثلة جديدة يطبق تصنيفًا متعدد الفئات.

وفي المقابل، تُعد مشكلات التصنيف التي تميز بين فئتين بالضبط نماذج تصنيف ثنائي. على سبيل المثال، نموذج البريد الإلكتروني الذي يتنبأ بالرسائل غير المرغوب فيها أو الرسائل غير المرغوب فيها هو نموذج تصنيف ثنائي.

وفي مشكلات التجميع العنقودي، يشير التصنيف متعدد الفئات إلى أكثر من مجموعتين.

انحدار لوجستي متعدد الفئات

استخدام الانحدار اللوجستي في مسائل التصنيف متعدد الفئات.

الاهتمام الذاتي المتعدّد الرؤوس

#language

تمثّل هذه السمة إضافة الانتباه الذاتي التي تطبّق آلية الانتباه الذاتي عدة مرات لكل موضع في تسلسل الإدخال.

قدّمت المحوّلات ميزة الانتباه الذاتي المتعدّد الرؤوس.

نموذج متعدد الوسائط

#language

يشير ذلك المصطلح إلى نموذج تتضمّن مدخلاته و/أو مخرجاته أكثر من طريقة واحدة. على سبيل المثال، لنفترض أنّ نموذجًا يأخذ صورةً وشرحًا نصيًا (طريقتان) كـ ميزتَين، ثم يعرض نتيجة تشير إلى مدى ملاءمة الشرح النصي للصورة. إذًا، مدخلات هذا النموذج متعددة الوسائط والمخرجات أحادية الوضع.

تصنيف متعدّد الحدود

مرادف للتصنيف متعدد الفئات.

الانحدار متعدد الحدود

يشير ذلك المصطلح إلى الانحدار اللوجستي متعدد الفئات.

تعدد المهام

يشير ذلك المصطلح إلى أسلوب لتعلُّم الآلة يتم فيه تدريب model واحد على تنفيذ model متعددة.

يتم إنشاء نماذج تعدد المهام عن طريق التدريب على البيانات المناسبة لكل مهمة من المهام المختلفة. وهذا يتيح للنموذج أن يتعلم كيفية مشاركة المعلومات عبر المهام، مما يساعد النموذج على التعلم بشكل أكثر فعالية.

غالبًا ما يؤدي النموذج المدرَّب على مهام متعددة إلى تحسين قدرات التعميم ويمكن أن يكون أكثر قوة في التعامل مع أنواع مختلفة من البيانات.

N

فخ NaN

عندما يصبح رقم واحد في نموذجك NaN أثناء التدريب، ما يؤدي إلى أن تصبح العديد من الأرقام الأخرى أو جميعها في نموذجك في النهاية رقم NaN.

NaN هو اختصار للمصطلح Not a Number.

فهم اللغات الطبيعية

#language

تحديد نوايا المستخدم استنادًا إلى ما كتبه أو قاله. على سبيل المثال، يستخدم محرك البحث تقنية فهم اللغة الطبيعية لتحديد ما يبحث عنه المستخدم استنادًا إلى ما كتبه أو قاله.

فئة سلبية

#fundamentals

في التصنيف الثنائي، يتم تعريف إحدى الفئات على أنها موجب والأخرى تُسمى سلبية. الفئة الموجبة هي الشيء أو الحدث الذي يختبره النموذج والفئة السالبة هي الاحتمال الآخر. مثلاً:

  • الفئة السالبة في الاختبار الطبي قد تكون "ليست ورمًا".
  • الفئة السالبة في أحد مصنِّفات البريد الإلكتروني قد تكون "ليست رسائل غير مرغوب فيها".

التباين مع الفئة الموجبة.

عينات سلبية

مرادف لـ عينات المرشحات.

بحث الهندسة العصبية (NAS)

أسلوب لتصميم بنية الشبكة العصبونية تلقائيًا. يمكن لخوارزميات التخزين الشبكي أن تقلل من مقدار الوقت والموارد اللازمة لتدريب الشبكة العصبية.

تستخدم NAS عادةً ما يلي:

  • مساحة البحث، وهي مجموعة من البُنى الأساسية الممكنة.
  • دالة اللياقة البدنية، وهي مقياس لمدى جودة أداء بنية معينة في مهمة معينة.

غالبًا ما تبدأ خوارزميات التخزين الشبكي (NAS) بمجموعة صغيرة من البُنى الأساسية الممكنة، ثم توسّع مساحة البحث تدريجيًا بينما تتعلم الخوارزمية المزيد عن البُنى الأساسية الفعالة. تعتمد وظيفة اللياقة البدنية عادةً على أداء البنية في مجموعة تدريب، ويتم تدريب الخوارزمية عادةً باستخدام أسلوب التعلُّم المعزز.

أثبتت خوارزميات التخزين الحراري فعاليتها في العثور على بُنى عالية الأداء لأداء مجموعة متنوعة من المهام، بما في ذلك تصنيف الصور وتصنيف النصوص والترجمة الآلية.

شبكة عصبية

#fundamentals

model يحتوي على model واحدة على الأقل الشبكة العصبية العميقة هي نوع من الشبكات العصبية التي تحتوي على أكثر من طبقة مخفية. على سبيل المثال، يُظهر الرسم التخطيطي التالي شبكة عصبية عميقة تحتوي على طبقتين مخفيتين.

يشير ذلك المصطلح إلى شبكة عصبية تضم طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج.

تتصل كل خلية عصبية في الشبكة العصبية بجميع النقاط في الطبقة التالية. على سبيل المثال، في الرسم التخطيطي السابق، لاحظ أن كل خلية من الخلايا العصبية الثلاث في الطبقة الأولى المخفية تتصل بشكل منفصل بكلتا الخليتين العصبيتين في الطبقة الثانية المخفية.

أحيانًا تُسمّى الشبكات العصبية المُنفَّذة على أجهزة الكمبيوتر الشبكات العصبية الاصطناعية لتمييزها عن الشبكات العصبية الموجودة في الدماغ والأنظمة العصبية الأخرى.

يمكن لبعض الشبكات العصبية أن تحاكي العلاقات غير الخطية المعقدة للغاية بين الخصائص المختلفة والتسمية.

راجِع أيضًا الشبكة العصبية الالتفافية والشبكة العصبونية المتكرّرة.

عصبون

#fundamentals

في تعلُّم الآلة، وحدة مميّزة داخل طبقة مخفية من شبكة عصبية. تنفذ كل خلية عصبية الإجراء التالي المكوَّن من خطوتين:

  1. لحساب المجموع المرجح لقيم الإدخال مضروبة في معاملات الترجيح المقابلة لها.
  2. يمرر المجموع المرجح كمدخل إلى دالة التفعيل.

تقبل الخلية العصبية في الطبقة المخفية الأولى المدخلات من قيم الخصائص في طبقة الإدخال. تقبل الخلية العصبية في أي طبقة مخفية بعد الأولى المدخلات من الخلايا العصبية في الطبقة المخفية السابقة. على سبيل المثال، تقبل الخلية العصبية في الطبقة المخفية الثانية المدخلات من الخلايا العصبية في الطبقة الأولى المخفية.

يسلط الرسم التوضيحي التالي الضوء على خليتين عصبيتين وإدخالهما.

يشير ذلك المصطلح إلى شبكة عصبية تضم طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج. يتم تمييز خليتين عصبيتين: إحداهما في الطبقة
          الأولى المخفية والأخرى في الطبقة الثانية المخفية. تتلقّى الخلية العصبية المميزة في الطبقة الأولى المخفية مدخلات من كلتا الميزتين في طبقة الإدخال. تتلقّى الخلية العصبية المميزة في الطبقة الثانية المخفية،
 مدخلات من كل خلية من الخلايا العصبية الثلاث في الطبقة
 الأولى المخفية.

تحاكي الخلية العصبية في الشبكة العصبية سلوك الخلايا العصبية في الدماغ وأجزاء أخرى من الأجهزة العصبية.

الحرف اللاتيني n جرام

#seq
#language

يشير ذلك المصطلح إلى تسلسل مُرتب من الكلمات N. على سبيل المثال، يساوي truly madly 2 غرام. وبما أنّ الطلب يُعد أمرًا هامًا، يختلف وزن العنصر بمجنون الحقيقة عن حبه بمجنون الحقيقة.

N الأسماء لهذا النوع من أحرف N-gram أمثلة
2 بيجرام أو 2 غرام الذهاب إلى، وتناول الغداء، وتناول العشاء
3 تريغرام أو 3 غرام أكلت الكثير، وثلاثة فئران عمياء، وأجراس أجراس
4 4 غرامات اسير في الحديقة، وغبار مع رياح، يأكل الصبيّ العدس

تعتمد العديد من نماذج فهم اللغة الطبيعية على رموز N غرام لتوقّع الكلمة التالية التي سيكتبها المستخدم أو يقولها. على سبيل المثال، لنفترض أنّ أحد المستخدمين كتب ثلاثة مربّعات. من المرجّح أن يتوقّع نموذج NLU المستند إلى ثلاثيات المثلثات أنّ المستخدم سيكتب عبارة فئران تاليًا.

قارِن بين أحرف N غرام وكيس من الكلمات، وهي مجموعات غير مرتّبة من الكلمات.

فهم اللغات الطبيعية

#language

اختصار لفهم اللغة الطبيعية

العقدة (شجرة القرار)

#df

في شجرة القرار، أي شرط أو ورقة شجر.

شجرة قرارات ذات شرطين وثلاث أوراق.

العقدة (الشبكة العصبونية)

#fundamentals

خلية عصبية في طبقة مخفية.

العقدة (TensorFlow الرسم البياني)

#TensorFlow

عملية في الرسم البياني من TensorFlow.

الضجيج

بشكل عام، أي شيء يحجب الإشارة في مجموعة البيانات. يمكن أن يتم إدخال الضوضاء في البيانات بعدة طرق. مثلاً:

  • يخطئ المصنّفون في التصنيف.
  • يخطئ المستخدمون والأدوات في تسجيل قيم الخصائص أو يحذفونها.

شرط غير ثنائي

#df

يشير ذلك المصطلح إلى شرط يحتوي على أكثر من نتيجتَين محتملتَين. على سبيل المثال، يحتوي الشرط غير الثنائي التالي على ثلاث نتائج محتملة:

شرط (number_of_legs = ?) يؤدي إلى ثلاث نتائج محتملة. هناك نتيجة واحدة (عدد_من_الساقات = 8) تؤدّي إلى ورقة شجر اسمها &quot;العنكبوت&quot;. النتيجة الثانية (number_of_legs = 4) تؤدي إلى ورقة شجر باسم &quot;كلب&quot;. النتيجة الثالثة (number_of_legs = 2) تؤدي إلى ورقة شجر باسم penguin.

غير خطي

#fundamentals

يشير ذلك المصطلح إلى علاقة بين متغيّرَين أو أكثر لا يمكن تمثيلها فقط من خلال الجمع والضرب. يمكن تمثيل العلاقة الخطية كخط، ولا يمكن تمثيل العلاقة غير الخطية كخط. على سبيل المثال، ضع في اعتبارك نموذجين يربط كل منهما ميزة واحدة بتسمية واحدة. النموذج الموجود على اليسار خطي والنموذج الموجود على اليمين غير خطي:

اثنين من المخططات. المخطط الواحد هو خط، إذن هذه علاقة خطية.
          أما المخطط الآخر فهو منحنى، لذا فهذه علاقة غير خطية.

انحياز عدم الاستجابة

#fairness

راجِع انحياز الاختيار.

عدم الحركة

#fundamentals

ميزة تتغير قيمها في سمة واحدة أو أكثر، ويتم ذلك في العادة على مدار الوقت. على سبيل المثال، إليك الأمثلة التالية عن عدم الحركة:

  • يختلف عدد ملابس السباحة التي يتم بيعها في متجر معيّن مع اختلاف الموسم.
  • كمية فاكهة معينة يتم حصادها في منطقة معينة تساوي صفرًا على مدار الكثير من السنة ولكنها كبيرة لفترة قصيرة.
  • بسبب التغيّر المناخي، يتغيّر المتوسط السنوي لدرجات الحرارة.

التباين مع الثبات.

تسوية

#fundamentals

بشكل عام، عملية تحويل النطاق الفعلي للمتغير إلى نطاق قياسي من القيم، مثل:

  • من -1 إلى 1+
  • 0 إلى 1
  • التوزيع الطبيعي

لنفترض على سبيل المثال أن النطاق الفعلي للقيم لميزة معينة يتراوح بين 800 إلى 2400. كجزء من هندسة الميزات، يمكنك تسوية القيم الفعلية وصولاً إلى نطاق قياسي، مثل من -1 إلى 1+.

تشكّل التسوية مهمة شائعة في هندسة الميزات. يتم تدريب النماذج عادةً بشكل أسرع (وتُنتج توقّعات أفضل) عندما يكون لكل سمة عددية في متّجه الميزة النطاق نفسه تقريبًا.

اكتشاف الحداثة

يشير ذلك المصطلح إلى عملية تحديد ما إذا كان مصدر مثال جديد (جديد) يأتي من التوزيع نفسه المستخدَم في مجموعة التدريب. بعبارة أخرى، بعد التدريب على مجموعة التدريب، تحدِّد ميزة "رصد الحداثة" ما إذا كان المثال الجديد (أثناء الاستنتاج أو أثناء التدريب الإضافي) قيمة استثنائية.

التباين مع رصد القيم الخارجية

بيانات عددية

#fundamentals

الميزات التي يتم تمثيلها كأعداد صحيحة أو أرقام حقيقية. على سبيل المثال، من المحتمل أن يمثل نموذج تقييم المنازل حجم المنزل (بالقدم المربع أو متر مربع) كبيانات رقمية. يشير تمثيل الميزة في صورة بيانات رقمية إلى أنّ قيم العنصر لها علاقة رياضية بالتصنيف. أي أن عدد الأمتار المربعة في أي منزل ربما له علاقة رياضية مع قيمة المنزل.

يجب عدم تمثيل جميع بيانات الأعداد الصحيحة كبيانات رقمية. على سبيل المثال، تكون الرموز البريدية في بعض أجزاء العالم أعدادً صحيحة، ولكن يجب عدم تمثيل الرموز البريدية للأعداد الصحيحة كبيانات رقمية في النماذج. وهذا لأن الرمز البريدي لـ 20000 ليس ضعف (أو نصف) قوة الرمز البريدي 10,000. بالإضافة إلى ذلك، وعلى الرغم من أنّ الرموز البريدية المختلفة ترتب بقيم مختلفة للعقارات، لا يمكننا افتراض أنّ قيم العقارات في الرمز البريدي 20, 000 تساوي ضعف قيمة قيم العقارات في الرمز البريدي 10, 000. يجب تمثيل الرموز البريدية في شكل بيانات فئوية بدلاً من ذلك.

تُسمى الميزات الرقمية أحيانًا الميزات المستمرة.

NumPy

مكتبة رياضية مفتوحة المصدر توفر عمليات صفائف فعالة في لغة بايثون. تم إنشاء pandas استنادًا إلى NumPy.

O

هدف

مقياس تحاول خوارزميتك تحسينه.

دالة موضوعية

تمثّل هذه السمة الصيغة الرياضية أو المقياس الذي يهدف النموذج إلى تحسينه. على سبيل المثال، تكون الدالة الموضوعية للانحدار الخطي هي عادةً الخسارة التربيعية المتوسّطة. وبالتالي، عند تدريب أحد نماذج الانحدار الخطي، يهدف التدريب إلى تقليل متوسط الخسارة التربيعية.

وفي بعض الحالات، يكون الهدف هو تحقيق أقصى استفادة من الوظيفة الموضوعية. على سبيل المثال، إذا كانت الدالة الهدف هي الدقة، فإن الهدف هو زيادة الدقة إلى أقصى حد.

راجِع أيضًا الخسارة.

شرط مائل

#df

في شجرة القرار، يشير ذلك إلى شرط يتضمّن أكثر من ميزة واحدة. على سبيل المثال، إذا كان الارتفاع والعرض كلاهما سمتين، فإن ما يلي يعد شرطًا مائلاً:

  height > width

تباين مع شرط محاذاة المحور.

بلا إنترنت

#fundamentals

مرادف لـ static.

الاستنتاج بلا إنترنت

#fundamentals

يشير ذلك المصطلح إلى عملية إنشاء نموذج لمجموعة من التوقّعات ثم تخزين هذه التوقّعات مؤقتًا (حفظها). وعندئذٍ يمكن للتطبيقات الوصول إلى التوقّعات المستنتَجة من ذاكرة التخزين المؤقت بدلاً من إعادة تشغيل النموذج.

على سبيل المثال، ضع في اعتبارك نموذجًا يُنشئ توقعات الطقس المحلي (التنبؤات) مرة كل أربع ساعات. بعد تشغيل كل نموذج، يخزن النظام مؤقتًا جميع توقعات الطقس المحلية. تسترد تطبيقات الطقس التوقعات من ذاكرة التخزين المؤقت.

يُسمّى الاستنتاج بلا إنترنت أيضًا الاستنتاج الثابت.

التباين مع الاستنتاج على الإنترنت.

ترميز واحد فعال

#fundamentals

لتمثيل البيانات الفئوية كمتّجه:

  • تمّ ضبط عنصر واحد على 1.
  • ويتم تعيين جميع العناصر الأخرى على 0.

يُستخدم الترميز أحادي الاتجاه عادةً لتمثيل السلاسل أو المعرّفات التي تحتوي على مجموعة محدودة من القيم المحتملة. على سبيل المثال، لنفترض أن هناك خاصية فئوية معينة تسمى Scandinavia تشتمل على خمس قيم محتملة:

  • "الدانمرك"
  • "السويد"
  • "النرويج"
  • "فنلندا"
  • "آيسلندا"

يمكن أن يمثل الترميز الأحادي لكل قيمة من القيم الخمس على النحو التالي:

بلد المتجه
"الدانمرك" 1 0 0 0 0
"السويد" 0 1 0 0 0
"النرويج" 0 0 1 0 0
"فنلندا" 0 0 0 1 0
"آيسلندا" 0 0 0 0 1

فبفضل الترميز الأحادي، يمكن لأي نموذج أن يتعلم اتصالات مختلفة حسب كل بلد من البلدان الخمسة.

ويمكن تمثيل الميزة على أنّها بيانات رقمية كبديل للترميز الأحادي. لسوء الحظ، تمثيل الدول الاسكندنافية رقميًا ليس خيارًا جيدًا. على سبيل المثال، ضع في اعتبارك التمثيل الرقمي التالي:

  • قيمة "الدانمرك" 0
  • "السويد" هي 1
  • "النرويج" هي 2
  • تاريخ "فنلندا" 3
  • "آيسلندا" هي 4

باستخدام التشفير الرقمي، قد يفسر النموذج الأرقام الأولية رياضيًا ويحاول التدرّب على تلك الأرقام. مع ذلك، فإنّ آيسلندا ليست في الواقع ضعف (أو نصف الحجم) لشيء ما مثل النرويج، لذلك قد يتوصل النموذج إلى بعض الاستنتاجات الغريبة.

التعلُّم بلقطة واحدة

يشير ذلك المصطلح إلى منهج للتعلّم الآلي يُستخدم عادةً لتصنيف الكائنات، وهو مصمّم لتعلُّم المصنِّفات الفعالة من خلال مثال تدريبي واحد.

يمكنك أيضًا الاطّلاع على دروس تعليمية قصيرة وتعليم فوري.

مطالبة بلقطة واحدة

#language
#GenerativeAI

طلب يتضمّن مثال يوضّح كيفية استجابة النموذج اللغوي الكبير على سبيل المثال، يحتوي الطلب التالي على مثال واحد يوضّح نموذجًا لغويًا كبيرًا لكيفية الإجابة عن طلب البحث.

أجزاء من طلب واحد Notes
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عليه النموذج اللغوي الكبير
فرنسا: EUR مثال واحد.
الهند: الاستعلام الفعلي.

حدِّد أوجه التشابه والاختلاف بين المطالبة بلقطة واحدة والعبارات التالية:

واحد مقابل الكل

#fundamentals

بالنظر إلى مشكلة تصنيف تشمل فئات N، يكون هناك حل مكون من مصنِّفات ثنائية منفصلة من N، وهي مصنِّف ثنائي واحد لكل نتيجة محتملة. على سبيل المثال، إذا كان هناك نموذج يصنف الأمثلة على أنها حيوان أو نبات أو معدن، فإن حل واحد مقابل الكل سيوفر المصنِّفات الثنائية الثلاثة التالية المنفصلة:

  • حيوان مقابل غير حيوان
  • خضار مقابل غير نباتي
  • معدني مقابل غير معدنية

على الإنترنت

#fundamentals

مرادف لهذه الكلمة ديناميكي.

الاستنتاج على الإنترنت

#fundamentals

إنشاء توقّعات عند الطلب على سبيل المثال، لنفترض أن أحد التطبيقات يمرر مدخلات إلى نموذج ويصدر طلبًا للتنبؤ. يستجيب النظام الذي يستخدم الاستنتاج عبر الإنترنت للطلب من خلال تشغيل النموذج (وإرجاع التنبؤ إلى التطبيق).

تباين مع الاستنتاج بلا إنترنت.

العملية (عملية)

#TensorFlow

في TensorFlow، أي إجراء يؤدي إلى إنشاء Tensor أو التلاعب به أو إتلافه. على سبيل المثال، ضرب المصفوفة هو عملية تستخدم اثنين من Tensor كإدخال وتنشئ Tensor واحد كمخرج.

تفعيل

مكتبة تحسين ومعالجة التدرجات لتطبيق JAX تُسهل Optax البحث من خلال توفير الوحدات الأساسية التي يمكن إعادة دمجها بطرق مخصصة لتحسين النماذج بارامترية مثل الشبكات العصبية العميقة. تشمل الأهداف الأخرى ما يلي:

  • توفير عمليات تنفيذ سهلة للقراءة ومختبرة جيدًا وفعالة للمكونات الأساسية.
  • تحسين الإنتاجية من خلال إتاحة إمكانية دمج المكونات منخفضة المستوى في أدوات تحسين مخصصة (أو مكونات أخرى لمعالجة التدرجات).
  • تسريع تبني الأفكار الجديدة من خلال تسهيل مساهمة أي شخص.

محسِّن

تطبيق محدد لخوارزمية خوارزمية انحدار التدرج. من بين أدوات التحسين الشائعة ما يلي:

  • AdaGrad، وهو اختصار للنزول ADAptive GRADient
  • Adam، التي تعني ADAptive مع الزخم

الانحياز للتشابه خارج المجموعة

#fairness

الميل إلى رؤية الأعضاء خارج المجموعة متشابهين أكثر من الأعضاء في المجموعة عند مقارنة المواقف والقيم والسمات الشخصية والخصائص الأخرى. في المجموعة تشير إلى الأشخاص الذين تتفاعل معهم بانتظام، وتشير خارج المجموعة إلى الأشخاص الذين لا تتفاعل معهم بانتظام. إذا قمت بإنشاء مجموعة بيانات من خلال أن تطلب من الأشخاص تقديم سمات حول المجموعات الخارجية، فقد تكون هذه السمات أقل دقة وأكثر نمطية من السمات التي يسردها المشاركون للأشخاص في مجموعةهم.

على سبيل المثال، قد يصف ليلبوتيان منازل ليليبوتيون آخرين بتفصيل كبير، مستشهدين بالاختلافات الصغيرة في الأنماط والنوافذ والأبواب والأحجام المعمارية. ومع ذلك، قد يعلن نفس من سكان ليليبوتز أن جميع سكان مدينة برودينجناجي يعيشون في منازل متطابقة.

يُعدّ انحياز التجانس خارج المجموعة شكلاً من أشكال الانحياز لتحديد مصدر المجموعة.

راجِع أيضًا الانحياز داخل المجموعة.

رصد القيم الخارجية

عملية تحديد القيم الاستثنائية في مجموعة تدريب.

تباين مع ميزة اكتشاف الحداثة.

الذي حقق أداءً مختلفًا

القيم بعيدة عن معظم القيم الأخرى. في مجال التعلم الآلي، يمثل أي من القيم التالية قيمًا استثنائية:

  • إدخال البيانات التي تزيد قيمها عن 3 انحرافات معيارية تقريبًا عن المتوسط.
  • الأوزان ذات القيم المطلقة العالية.
  • القيم المتنبأ بها بعيدة نسبيًا عن القيم الفعلية.

على سبيل المثال، لنفترض أن widget-price هي ميزة لنموذج معين. افترض أن المتوسط widget-price هو 7 يورو بانحراف معياري يبلغ يورو واحد. وبالتالي، تُعتبر الأمثلة التي تحتوي على widget-price بقيمة 12 يورو أو 2 يورو قيمًا استثنائية لأن كل سعر من هذه الأسعار يمثل خمسة انحرافات معيارية عن المتوسط.

غالبًا ما تنتج القيم الشاذّة عن الأخطاء الإملائية أو أخطاء الإدخال الأخرى. في حالات أخرى، لا تكون القيم الاستثنائية أخطاء؛ بعد كل شيء، قيم الانحرافات الخمسة العادية بعيدًا عن المتوسط أمر نادر الحدوث ولكنه نادرًا ما يكون مستحيلاً.

غالبًا ما تتسبب القيم الشاذّة في مشاكل في تدريب النموذج. الاقتصاص: هي إحدى طرق إدارة القيم الشاذّة

تقييم خارج الحقيبة (تقييم OOB)

#df

آلية لتقييم جودة شجرة قرارات عن طريق اختبار كل شجرة قرارات استنادًا إلى أمثلة لم يتم استخدامها خلال تدريب شجرة القرار هذه على سبيل المثال، في الرسم التخطيطي التالي، لاحِظ أن النظام يقوم بتدريب كل شجرة قرارات على حوالي ثلثي الأمثلة ثم يتم تقييمها في مقابل الثلث المتبقي من الأمثلة.

غابة قرارات تتكون من ثلاث أشجار قرارات.
          تتدرّب إحدى شجرة القرارات على ثلثَي الأمثلة، ثم تستخدم الثلث المتبقي لتقييم OOB.
          تتدرب شجرة القرار الثانية على ثلثَي الأمثلة مختلفَين عن شجرة القرارات السابقة، ثم تستخدم ثلثًا مختلفًا لتقييم OOB مقارنةً بشجرة القرار السابقة.

التقييم "خارج الحقيبة" هو تقريب فعّال ومحافظ من الناحية الحسابية لآلية التحقّق من الصحة المتقاطع. في التحقق المتبادل، يتم تدريب نموذج واحد لكل جولة تحقق متقاطع (على سبيل المثال، يتم تدريب 10 نماذج في التحقق المتبادل على 10 أضعاف). باستخدام تقييم OOB، يتم تدريب نموذج واحد. نظرًا لأن التجميع يحجب بعض البيانات من كل شجرة أثناء التدريب، يمكن لتقييم OOB استخدام هذه البيانات لتقريب عملية التحقّق المتبادل.

طبقة الإخراج

#fundamentals

الطبقة "الأخيرة" من الشبكة العصبية. تحتوي طبقة الإخراج على التنبؤ.

يُظهر الرسم التوضيحي التالي شبكة عصبية عميقة صغيرة فيها طبقة إدخال وطبقتَين مخفيتَين وطبقة إخراج:

يشير ذلك المصطلح إلى شبكة عصبية تتضمّن طبقة إدخال واحدة وطبقتَين مخفيتَين وطبقة إخراج واحدة. تتألف طبقة الإدخال من ميزتين. تتكون الطبقة الأولى المخفية من ثلاث خلايا عصبية بينما تتكون الطبقة المخفية الثانية من خليتين عصبيتين. تتكون طبقة المخرجات من عقدة واحدة.

فرط التخصيص

#fundamentals

إنشاء model يتطابق مع model بشكل كبير لدرجة أنّ النموذج لا يقدّم توقّعات صحيحة بشأن البيانات الجديدة

يمكن أن يؤدي التسوية إلى التقليل من فرط التخصيص. يمكن أن يؤدي التدريب على مجموعة تدريب كبيرة ومتنوعة أيضًا إلى تقليل فرط التخصيص.

زيادة العينات

إعادة استخدام أمثلة لفئة عمرية أقل في مجموعة بيانات غير متوازنة مع الفئات من أجل إنشاء مجموعة تدريب أكثر توازنًا

على سبيل المثال، بالنظر إلى مسألة تصنيف ثنائي، تكون نسبة الفئة الأعلى إلى الأقلية 5,000:1. إذا كانت مجموعة البيانات تحتوي على مليون مثال، فإن مجموعة البيانات تحتوي على حوالي 200 مثال فقط لفئة الأقلية، والتي قد تكون أمثلة قليلة جدًا للتدريب الفعال. للتغلب على هذا النقص، يمكنك المبالغة في أخذ عينات من هذه الـ 200 مثال (إعادة استخدامها) عدة مرات، مما قد ينتج عنه أمثلة كافية للتدريب المفيد.

يجب توخي الحذر بشأن الإفراط في التوافق عند استخدام عيّنات زائدة.

التباين مع تقليل العيّنات

P

بيانات معبأة

نهج لتخزين البيانات بشكل أكثر كفاءة.

تخزن البيانات المعبأة البيانات إما باستخدام تنسيق مضغوط أو بطريقة أخرى تسمح بالوصول إليها بشكل أكثر كفاءة. تقلّل البيانات المجمّعة من مقدار الذاكرة والعمليات الحسابية المطلوبة للوصول إليها، ما يؤدي إلى تدريب أسرع واستنتاج نموذج أكثر كفاءة.

غالبًا ما يتم استخدام البيانات المجمّعة مع أساليب أخرى، مثل زيادة البيانات وتنظيم البيانات، ما يؤدي إلى تحسين أداء النماذج.

باندا

#fundamentals

هي واجهة برمجة تطبيقات لتحليل البيانات مركِّزة على الأعمدة وتم إنشاؤها استنادًا إلى numpy. يدعم العديد من أطر عمل التعلم الآلي، بما في ذلك TensorFlow، هياكل بيانات الباندا كمدخلات. راجِع مستندات الباندا لمعرفة التفاصيل.

مَعلمة

#fundamentals

القيم المرجحة والانحيازات التي يتعلّمها النموذج خلال التدريب على سبيل المثال، في نموذج الانحدار الخطي، تتكون المعلَمات من الانحياز (b) وجميع معاملات الترجيح (w1 وw2، وما إلى ذلك) في الصيغة التالية:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

في المقابل، المعلَمة الفائقة هي القيم التي توفّرها أنت (أو خدمة ضبط معلَمة فائقة) للنموذج. على سبيل المثال، معدّل التعلّم هو معلَمة فائقة.

توليف موفر للمعلَمات

#language
#GenerativeAI

مجموعة من الأساليب لضبط نموذج لغوي كبير مدرَّب مسبقًا بكفاءة أكبر من الضبط الدقيق. يؤدّي ضبط المَعلمات الفعّالة إلى ضبط مَعلمات أقلّ بكثير من الضبط الدقيق، ولكنّه ينتج عادةً نموذج لغوي كبير يحقّق أداءً جيدًا (أو تقريبًا أيضًا) مثل نموذج لغوي كبير يعتمد على الضبط الكامل.

تحديد أوجه الاختلاف والتشابه بين التوليف الفعّال بالمعلَمات مع:

يُعرف الضبط الفعال للمَعلمة أيضًا باسم الضبط الدقيق لكفاءة المَعلمة.

خادم المعلَمة (PS)

#TensorFlow

يشير ذلك المصطلح إلى المهمة التي تتتبّع معلَمات النموذج في إعداد موزَّع.

تعديل المَعلمة

عملية ضبط معلَمات النموذج أثناء التدريب، وعادةً ما تكون ضمن تكرار واحد لخوارزمية انحدار التدرج.

مشتق جزئي

يشير ذلك المصطلح إلى مشتق يتم فيه اعتبار جميع المتغيّرات باستثناء أحد المتغيّرات ثابتة. على سبيل المثال، المشتق الجزئي لـ f(x, y) بالنسبة إلى x هو مشتق f الذي يتم اعتباره دالة x وحدها (أي مع الحفاظ على قيمة y الثابتة). وتركز المشتقات الجزئية لـ f بالنسبة إلى x فقط على كيفية تغيير x وتتجاهل جميع المتغيّرات الأخرى في المعادلة.

تحيز المشاركة

#fairness

مرادف لتحيز عدم الاستجابة. راجِع انحياز الاختيار.

استراتيجية تقسيم

يشير ذلك المصطلح إلى الخوارزمية التي يتم من خلالها تقسيم المتغيّرات على خوادم المَعلمات.

باكس

إطار عمل للبرمجة مصمَّم لتدريب نماذج الشبكة العصبونية الكبيرة الحجم الواسعة النطاق والتي تشمل شرائح TPU مسرِّعة شرائح أو لوحات متعددة

يستند Pax إلى Flax الذي تم إنشاؤه على JAX.

مخطّط بياني يشير إلى موضع Pax في حزمة البرامج
          تم تصميم Pax باستخدام JAX. يتكوّن Pax نفسه من ثلاث
          طبقات. تحتوي الطبقة السفلية على TensorStore وFlex.
          تحتوي الطبقة الوسطى على Optax وFlexformer. وتحتوي الطبقة العلوية على مكتبة نماذج براكسيس. تم تصميم Fiddle
          على Pax.

Perceptron

يشير ذلك المصطلح إلى نظام (أجهزة أو برامج) يستخدِم قيمة إدخال واحدة أو أكثر، ويشغِّل دالة على المجموع المقدَّر للمدخلات، ويحسب قيمة ناتج واحدة. في تعلُّم الآلة، تكون الدوال عادةً غير خطية، مثل ReLU أو sigmoid أو tanh. على سبيل المثال، يعتمد المنظر التالي على الدالة السينية لمعالجة ثلاث قيم للمدخلات:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

في الرسم التوضيحي التالي، يأخذ المتجرون ثلاثة مدخلات، ويتم تعديل كل واحد منها بنفسه بالوزن قبل دخوله:

يشير ذلك المصطلح إلى جهاز استقبال يتم رصده من خلال 3 إدخالات، مضروبًا في كل قيمة منها بأوزان منفصلة. يُنتج المستقبِل قيمة واحدة.

المُشاهِدينات هي الخلايا العصبية في الشبكات العصبونية.

الأداء

المصطلحات التي تحمل المعاني التالية:

  • المعنى القياسي في هندسة البرمجيات. وهي: ما مدى سرعة (أو كفاءة) عمل هذا البرنامج؟
  • المعنى في مجال التعلم الآلي. في هذا المثال، يجيب الأداء عن السؤال التالي: ما مدى صحة هذا model؟ أي، ما مدى جودة تنبؤات النموذج؟

قيم متغيّرات التقليب

#df

يشير ذلك المصطلح إلى نوع من الأهمية المتغيّرة لتقييم الزيادة في خطأ التوقّعات لنموذج بعد تغيير قيم الميزة. تُعدّ أهمية متغير التبديل مقياسًا مستقلاً عن النموذج.

الارتباك

أحد المقاييس لمدى نجاح model في إنجاز مهمته. على سبيل المثال، افترض أن مهمتك هي قراءة الأحرف القليلة الأولى من كلمة يكتبها أحد المستخدمين باستخدام لوحة مفاتيح الهاتف، وتقديم قائمة بالكلمات الكاملة الممكنة. مستوى الارتباك، P، في هذه المهمة هو تقريبًا عدد التخمينات التي تحتاج إلى تقديمها حتى تحتوي قائمتك على الكلمة الفعلية التي يحاول المستخدم كتابتها.

ويرتبط مستوى الحيرة بالقصور بين القصور على النحو التالي:

$$P= 2^{-\text{cross entropy}}$$

مسار التعلّم

يشير ذلك المصطلح إلى البنية الأساسية التي تحيط بخوارزمية تعلُّم الآلة. ويشمل المسار جمع البيانات ووضعها في ملفات بيانات التدريب وتدريب نموذج أو أكثر وتصدير النماذج إلى الإنتاج.

إعداد الممرات

#language

يشير ذلك المصطلح إلى شكل من أشكال التوازي في النموذج يتم فيه تقسيم معالجة النموذج إلى مراحل متتالية ويتم تنفيذ كل مرحلة على جهاز مختلف. بينما تقوم المرحلة بمعالجة دفعة واحدة، يمكن أن تعمل المرحلة السابقة على الدفعة التالية.

يمكنك الاطّلاع أيضًا على تدريب منظّم.

Pjit

هي دالة JAX تقسّم الرمز البرمجي لتشغيله على عدة شرائح مسرِّعة. يمرر المستخدم دالة إلى pjit، التي تعرض دالة لها دلالات مكافئة ولكن يتم تجميعها في حساب XLA يتم تشغيله على أجهزة متعددة (مثل وحدات معالجة الرسومات أو نواة TPU).

تتيح pjit للمستخدمين تجزئة العمليات الحسابية بدون إعادة كتابتها باستخدام أداة تقسيم SPMD.

اعتبارًا من آذار (مارس) 2023، تم دمج "pjit" مع "jit". راجِع الصفائف الموزعة والتوازي التلقائي للاطّلاع على مزيد من التفاصيل.

حملة PLM

#language
#GenerativeAI

تمثّل هذه السمة اختصار نموذج لغوي مدرَّب مسبقًا.

تحسين الاتصال

يشير ذلك المصطلح إلى دالة JAX تنفّذ نُسخًا من دالة إدخال على عدة أجهزة أساسية (وحدات المعالجة المركزية (CPU) أو وحدات معالجة الرسومات أو وحدات معالجة الموتّرات)، بقيم إدخال مختلفة. ويستند برنامج Pmap إلى معيار SPMD.

سياسة

#rl

في التعلّم المعزّز، يحدد الوكيل الاحتمالية من الحالات إلى الإجراءات.

تجميع

#image

خفض مصفوفة (أو مصفوفات) تم إنشاؤها بواسطة طبقة التفافية سابقة إلى مصفوفة أصغر. عادة ما يتضمن التجميع إما القيمة القصوى أو المتوسطة عبر المنطقة المجمعة. على سبيل المثال، لنفترض أن لدينا مصفوفة 3×3 التالية:

مصفوفة 3×3 [[5,3,1], [8,2,5], [9,4,3]].

تعمل عملية التجميع، تمامًا مثل عملية الالتفاف، على تقسيم تلك المصفوفة إلى شرائح ثم تنزلق تلك العملية الالتفافية على الخطوات. على سبيل المثال، لنفترض أن عملية التجميع تقسم المصفوفة الالتفافية إلى شرائح 2×2 بخطوة 1×1. كما يوضح الرسم التخطيطي التالي، تتم أربع عمليات تجميع. تخيل أن كل عملية تجميع تختار القيمة القصوى من الأربعة في تلك الشريحة:

مصفوفة الإدخال هي 3×3 والقيم التالية: [[5,3,1]، [8,2,5]، [9,4,3]].
          والمصفوفة الفرعية 2×2 في أعلى اليسار لمصفوفة الإدخال هي [[5,3] و[8,2]]، وبالتالي
          تُنتج عملية التجميع في أعلى اليسار القيمة 8 (وهي الحد الأقصى
          5 و3 و8 و2). المصفوفة الفرعية 2×2 في أعلى اليمين لمصفوفة الإدخال هي [[3,1] و[2,5]]، وبالتالي تكون عملية التجميع في أعلى اليمين هي [5,1]. والمصفوفة الفرعية 2x2 السفلية اليسرى لمصفوفة الإدخال هي [[8,2]، [9,4]]، وبالتالي تكون عملية التجميع السفلية اليسرى هي 9. المصفوفة الفرعية 2x2 في أسفل اليمين لمصفوفة الإدخال هي [[2,5], [4,3]]، وبالتالي فإن عملية التجميع في أسفل اليمين تُنتج القيمة
 5. باختصار، يكون ناتج عملية التجميع هو المصفوفة 2×2
          [[8,5] و[9,5]].

يساعد التجميع في فرض الثبات التحويلي في مصفوفة الإدخال.

يُعرف تجميع تطبيقات الرؤية بشكل رسمي باسم التجميع المكاني. تشير تطبيقات السلسلة الزمنية عادةً إلى التجميع على أنّه تجميع مؤقت. على نحو أقل رسمية، غالبًا ما يُطلق على التجميع اسم العيّنات الفرعية أو تقليل العيّنات.

ترميز موضعي

#language

يشير ذلك المصطلح إلى أسلوب لإضافة معلومات حول موضع الرمز المميّز في تسلسل إلى عملية تضمين الرمز المميّز. تستخدم نماذج المحوِّلات الترميز الموضعي لفهم العلاقة بين الأجزاء المختلفة من التسلسل بشكل أفضل.

يستخدم التنفيذ الشائع للترميز الموضعي الدالة الجيبية. (على وجه التحديد، يتم تحديد تكرار الدالة الجيبية واتساعها من خلال موضع الرمز في التسلسل.) وتتيح هذه التقنية لنموذج المحوِّل أن يتعلّم كيفية التعامل مع أجزاء مختلفة من التسلسل بناءً على موضعه.

فئة موجبة

#fundamentals

الفئة التي تختبرها.

على سبيل المثال، الفئة الموجبة في نموذج السرطان قد تكون "ورم". الفئة الموجبة في مصنِّف البريد الإلكتروني قد تكون "رسالة غير مرغوب فيها".

التباين مع الفئة السالبة.

مرحلة ما بعد المعالجة

#fairness
#fundamentals

ضبط ناتج أحد النماذج بعد تشغيل النموذج. يمكن استخدام المعالجة اللاحقة لفرض قيود الإنصاف دون تعديل النماذج ذاتها.

على سبيل المثال، يمكن للمرء تطبيق المعالجة اللاحقة على مصنِّف ثنائي من خلال ضبط حدّ تصنيف بحيث يتم الحفاظ على تساوي الفرص لبعض السمات عن طريق التأكّد من أنّ معدّل الموجب الصحيح هو نفسه لجميع قيم تلك السمة.

PR AUC (المنطقة الواقعة أسفل منحنى PR)

المساحة الواقعة تحت منحنى تذكُّر الدقة المُدرج ضمن البيانات، ويتم الحصول عليها من خلال تخطيط نقاط (التذكر والدقة) لقيم مختلفة لحد التصنيف. وبناءً على طريقة حسابه، قد تكون قيمة PR AUC مكافئة لمتوسط الدقة للنموذج.

براكسيس

مكتبة تعلُّم الآلة الأساسية وعالية الأداء من Pax غالبًا ما يُطلق على Prixis "مكتبة الطبقات".

لا يحتوي Braxis على تعريفات فئة الطبقة فحسب، بل يحتوي على معظم المكونات الداعمة لها أيضًا، بما في ذلك:

يقدم Prixis تعريفات لفئة النموذج.

الدقة

مقياس لنماذج التصنيف يجيب عن السؤال التالي:

عندما يتوقّع النموذج الفئة الموجبة، ما هي النسبة المئوية التي كانت صحيحة؟

فيما يلي المعادلة:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

حيث:

  • يعني الموجبة الصحيح أن النموذج تنبأ بالفئة الموجبة بشكل صحيح.
  • تعني الحالة الموجبة الخاطئة أن النموذج تنبأ بالفئة الموجبة عن طريق الخطأ.

على سبيل المثال، لنفترض أن أحد النماذج قام بعمل 200 تنبؤ إيجابي. من بين 200 توقع إيجابي:

  • 150 كانت نتائج إيجابية صحيحة.
  • 50 كانت نتائج موجبة خاطئة.

في هذه الحالة يكون:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

قارِن بين القيمتين الدقة والاستدعاء.

منحنى تذكُّر الدقة

تمثّل هذه السمة منحنى الدقة مقابل الاستدعاء عند حدود تصنيف مختلفة.

التوقّع

#fundamentals

مخرج النموذج. مثلاً:

  • التنبؤ بنموذج التصنيف الثنائي هو إما الفئة الموجبة أو الفئة السالبة.
  • التنبؤ بنموذج التصنيف متعدد الفئات هو فئة واحدة.
  • التنبؤ بنموذج الانحدار الخطي هو رقم.

الانحياز للتوقّع

يشير ذلك المصطلح إلى قيمة تشير إلى بُعد المسافة بين متوسط التوقّعات ومتوسّط التصنيفات في مجموعة البيانات.

يجب عدم الخلط بينه وبين مصطلح الانحياز في نماذج تعلُّم الآلة أو التحيز في الأخلاق والإنصاف.

تعلُّم الآلة التنبؤي

أي نظام تعلّم آلي عادي ("كلاسيكي")

ما مِن تعريف رسمي للمصطلح تعلُّم الآلة القائم على التوقّعات. بدلاً من ذلك، يميّز المصطلح فئة من أنظمة تعلُّم الآلة ليس استنادًا إلى الذكاء الاصطناعي التوليدي.

التكافؤ التنبؤي

#fairness

هو مقياس إنصاف يتحقّق مما إذا كانت معدّلات الدقة مماثلة للمجموعات الفرعية المعنيّة، بالنسبة إلى مصنِّف معيّن.

على سبيل المثال، النموذج الذي يتنبأ بقبول الكلية سيلبي التماثل التنبؤي بالجنسية إذا كان معدل الدقة هو ذاته لليليبوتيان وبروبديناجينز.

يُعرف التكافؤ التنبؤي في بعض الأحيان أيضًا باسم تعادل المعدل التنبؤي.

راجِع "شرح تعريفات الإنصاف" (القسم 3.2.1) للاطّلاع على مناقشة أكثر تفصيلاً حول التكافؤ القائم على التوقّعات.

تكافؤ المعدّل التنبؤي

#fairness

اسم آخر للتماثل القائم على التوقّعات.

المعالجة المسبقة

#fairness
معالجة البيانات قبل استخدامها لتدريب نموذج. يمكن أن تكون المعالجة المسبقة بسيطة مثل إزالة الكلمات من مجموعة نص إنجليزية لا تظهر في قاموس اللغة الإنجليزية، أو قد تكون معقدة مثل إعادة التعبير عن نقاط البيانات بطريقة تؤدي إلى استبعاد أكبر عدد ممكن من السمات المرتبطة بالسمات الحساسة. يمكن أن تساعد المعالجة المُسبقة في تلبية قيود الإنصاف.

نموذج مدرَّب مسبقًا

#language
#image
#GenerativeAI

النماذج أو مكوّنات النماذج (مثل متّجه تضمين) التي سبق تدريبها يمكنك أحيانًا إدخال متّجهات تضمين مدرّبة مسبقًا في شبكة عصبية. في أحيان أخرى، يقوم نموذجك بتدريب المتجهات المخصصة للتضمين بدلاً من الاعتماد على التضمينات المدرّبة مسبقًا.

يشير مصطلح نموذج لغوي مدرَّب مسبقًا إلى نموذج لغوي كبير خضع لعملية التدريب المسبق.

التدريب المُسبَق

#language
#image
#GenerativeAI

يشير ذلك المصطلح إلى التطبيق الأولي لنموذج على مجموعة بيانات كبيرة. بعض النماذج المدرّبة مسبقًا هي نماذج عمالقة غير متقنة ويجب عادةً تحسينها من خلال تدريب إضافي. على سبيل المثال، قد يدرّب خبراء تعلُّم الآلة مسبقًا نموذج لغوي كبير على مجموعة بيانات نصية كبيرة، مثل جميع الصفحات الإنجليزية في ويكيبيديا. بعد التدريب المسبق، قد يتم تحسين النموذج الناتج بشكل أكبر من خلال أي من الأساليب التالية:

الاعتقاد السابق

ما الذي تؤمن به حول البيانات قبل أن تبدأ في التدريب عليها. على سبيل المثال، تعتمد القيم 2 تسوية على اعتقاد سابق بأنّ القيم المرجحة يجب أن تكون صغيرة وأن يتم توزيعها عادةً على الصفر.

نموذج الانحدار الاحتمالي

نموذج انحدار لا يستخدم فقط القيم المرجحة لكل ميزة، بل يستخدم أيضًا عدم صحة هذه القيم التقديرية. ينتج عن نموذج الانحدار الاحتمالي التنبؤ وعدم اليقين بذلك التنبؤ. على سبيل المثال، قد ينتج عن نموذج الانحدار الاحتمالي توقع 325 بانحراف معياري يبلغ 12. لمزيد من المعلومات عن نماذج الانحدار الاحتمالية، يمكنك الاطّلاع على هذا التعاون على الموقع الإلكتروني Tenorflow.org.

دالة الكثافة الاحتمالية

يشير ذلك المصطلح إلى دالة تحدِّد معدّل تكرار نماذج البيانات التي لها قيمة معيّنة تمامًا. عندما تكون قيم مجموعة البيانات أرقامًا عائمة مستمرة، نادرًا ما تحدث التطابقات التامة. ومع ذلك، يؤدي integrating دالة كثافة الاحتمالية من القيمة x إلى القيمة y إلى الحصول على التكرار المتوقّع لعيّنات البيانات بين x وy.

على سبيل المثال، ضع في الاعتبار توزيع طبيعي يكون فيه متوسط 200 وانحراف معياري 30. ولتحديد التكرار المتوقع لعينات البيانات التي تقع ضمن النطاق 211.4 إلى 218.7، يمكنك دمج دالة الكثافة الاحتمالية للتوزيع العادي من 211.4 إلى 218.7.

إشعار

#language
#GenerativeAI

يشير ذلك المصطلح إلى أي نص يتم إدخاله كإدخال في نموذج لغوي كبير لشرط أن يعمل النموذج بطريقة معيّنة. ويمكن أن تكون المطالبات قصيرة مثل عبارة أو طويلة بشكل عشوائي (على سبيل المثال، نص رواية كامل). تندرج الطلبات ضمن فئات متعددة، بما في ذلك تلك المعروضة في الجدول التالي:

فئة الطلب مثال Notes
السؤال ما هي السرعة التي تطير بها الحمامة؟
مدرسة تعليم كتابة قصيدة مضحكة عن المواقع المنشأة بهدف عرض الإعلانات رسالة تطلب من النموذج اللغوي الكبير تنفيذ إجراء.
مثال يجب ترجمة رمز Markdown إلى HTML. على سبيل المثال:
Markdown: * list item
HTML: <ul> <li>list item</li> </ul>
الجملة الأولى في هذا المثال هي توجيه. بقية المطالبة هي المثال.
الدور اشرح سبب استخدام خوارزمية انحدار التدرج في تدريبات تعلُّم الآلة للحصول على درجة الدكتوراه في الفيزياء. يمثّل الجزء الأول من الجملة تعليمات، وتمثّل عبارة "إلى درجة الدكتوراه في الفيزياء" الجزء الخاص بالدور.
إدخال جزئي للنموذج لإكمال يقيم رئيس وزراء المملكة المتحدة في قد ينتهي طلب إدخال جزئي إما بشكل مفاجئ (كما يحدث في هذا المثال) أو ينتهي بشرطة سفلية.

يمكن لنموذج الذكاء الاصطناعي التوليدي أن يردّ على طلب باستخدام نص أو رمز أو صور أو عمليات تضمين أو فيديوهات أو أي شيء تقريبًا.

التعلّم المستند إلى الطلب

#language
#GenerativeAI

إمكانية استخدام نماذج معيّنة تتيح لها تعديل سلوكها استجابةً للإدخال العشوائي للنص (الطلبات). في نموذج التعلّم المستند إلى الطلبات النموذجي، يردّ نموذج لغوي كبير على الطلب من خلال إنشاء نص. على سبيل المثال، لنفترض أنّ أحد المستخدمين أدخل الطلب التالي:

لخِّص قانون "نيوتن" الثالث للحركة.

إنّ النموذج القادر على التعلُّم المستنِد إلى المطالبة لم يتم تدريبه تحديدًا للإجابة عن المطالبة السابقة. وبدلاً من ذلك، "يعرف" النموذج الكثير من الحقائق حول الفيزياء، والكثير من القواعد اللغوية العامة، والكثير من المعلومات التي تشكّل إجابات مفيدة بشكل عام. هذه المعرفة كافية لتقديم إجابة مفيدة على أمل. ملاحظات بشرية إضافية ("كانت هذه الإجابة معقدة للغاية" أو "ما هو رد فعل؟") تسمح لبعض أنظمة التعلم القائمة على الطلبات بتحسين فائدة الإجابات تدريجيًا.

تصميم الطلب

#language
#GenerativeAI

هو مرادف لـ هندسة الطلبات.

هندسة الطلبات

#language
#GenerativeAI

فن إنشاء طلبات للحصول على الردود المطلوبة من نموذج لغوي كبير يقوم البشر بإجراء هندسة سريعة. كتابة طلبات منظَّمة بشكل جيد هي جزء أساسي من ضمان تقديم ردود مفيدة من نموذج لغوي كبير تعتمد الهندسة الفورية على العديد من العوامل، بما في ذلك:

  • تمثّل هذه السمة مجموعة البيانات المستخدَمة لإجراء تدريب مسبق للنموذج اللغوي الكبير، وربما تحسين النموذج اللغوي الكبير.
  • تمثّل هذه السمة معلَمات temperature وغيرها من مَعلمات فك الترميز التي يستخدمها النموذج لإنشاء الاستجابات.

راجِع مقدمة حول تصميم الطلبات للحصول على مزيد من التفاصيل حول كتابة طلبات مفيدة.

تصميم الطلب هو مرادف لهندسة الطلبات.

توليف الطلبات

#language
#GenerativeAI

يشير ذلك المصطلح إلى آلية ضبط فعّال للمعلَمة تتعلّم "بادئة" يضيفها النظام إلى الطلب الفعلي.

تتمثّل إحدى صيغ توليف الطلبات التي تُسمّى أحيانًا ضبط البادئة في إضافة البادئة في كل طبقة. في المقابل، لا يضيف معظم توليف الطلبات سوى بادئة إلى طبقة الإدخال.

تصنيفات الخادم الوكيل

#fundamentals

يشير ذلك المصطلح إلى البيانات المستخدَمة التقريبي للتصنيفات غير المتوفّرة مباشرةً في مجموعة بيانات.

على سبيل المثال، افترض أنه يجب عليك تدريب نموذج للتنبؤ بمستوى إجهاد الموظف. تحتوي مجموعة البيانات على الكثير من الميزات التنبؤية ولكنها لا تحتوي على تسمية باسم مستوى الإجهاد. يمكنك اختيار "حوادث محل العمل" كتسمية وكيل لمستوى الإجهاد. بعد كل شيء، يتعرض الموظفون الذين يتعرضون لضغوط شديدة لحوادث أكثر من الموظفين الهادئين. أم هذا صحيح؟ ربما ترتفع حوادث مكان العمل وتنخفض لأسباب متعددة.

كمثال ثانٍ، لنفترض أنك تريد أن تكون عبارة هل تمطر؟ تصنيفًا منطقيًا لمجموعة البيانات، لكن مجموعة البيانات لا تحتوي على بيانات الأمطار. إذا كانت الصور متاحة، يمكنك إنشاء صور لأشخاص يحملون مظلات كتصنيف وكيل لمعرفة هل تمطر؟ هل هذه تسمية وكيل جيدة؟ ربما، ولكن قد يكون لدى الأشخاص في بعض الثقافات مظلات للحماية من الشمس أكثر من المطر.

غالبًا ما تكون تصنيفات الوكيل غير كاملة. إذا أمكن، اختر التسميات الفعلية بدلاً من تسميات الخادم الوكيل. مع ذلك، عندما يكون هناك تصنيف فعلي غير موجود، اختر تصنيف الخادم الوكيل بحرص شديد، ثم اختر المرشح الأقل سوءًا لتصنيف الخادم الوكيل.

الخادم الوكيل (السمات الحسّاسة)

#fairness
سمة مستخدَمة كعنصر بديل لسمة حساسة. على سبيل المثال، يمكن استخدام الرمز البريدي للفرد كوكيل لدخله أو عِرقه أو أصله الإثني.

الدالة البحتة

يشير ذلك المصطلح إلى دالة تستند مخرجاتها إلى مدخلاتها فقط، وليس لها أي آثار جانبية. على وجه التحديد، لا تستخدم الدالة pure أي حالة عمومية أو تغيرها، مثل محتوى ملف أو قيمة متغير خارج الدالة.

يمكن استخدام الدوال البحتة لإنشاء رمز برمجي آمن لسلاسل المحادثات، ما يكون مفيدًا عند تقسيم رمز model على عدة model.

تتطلب طرق تحويل الدوال في JAX أن تكون دوال الإدخال دوال فقط.

سين

دالة Q

#rl

في التعلُّم المعزّز، يشير هذا المصطلح إلى الدالة التي تتنبأ بالعائد المتوقّع من خلال اتّخاذ إجراء في ولاية ثم اتّباع سياسة.

تُعرف دالة Q أيضًا باسم دالة قيمة إجراء الحالة.

تعلُّم أسئلة

#rl

في التعلُّم المعزّز، وهو خوارزمية تتيح للوكيل التعرّف على الدالة Q المثلى من عملية اتخاذ القرار لماركوف من خلال تطبيق معادلة بيلمان. تشكِّل عملية اتخاذ القرار في "ماركوف" بيئة.

التجزيء

كل مجموعة بيانات في تجميع البيانات المترابطة.

تجميع التجزئية

يتم توزيع قيم الميزة في مجموعات بحيث تحتوي كل مجموعة على العدد نفسه (أو نفسه تقريبًا) من الأمثلة. على سبيل المثال، يقسم الشكل التالي 44 نقطة إلى 4 مجموعات، تحتوي كل منها على 11 نقطة. لكي تحتوي كل مجموعة في الشكل على نفس عدد النقاط، تمتد بعض المجموعات بعرض مختلف للقيم x.

44 نقطة بيانات مقسمة إلى 4 مجموعات كل منها 11 نقطة.
          وعلى الرغم من أنّ كل مجموعة تحتوي على عدد نقاط البيانات نفسه،
          تحتوي بعض المجموعات على نطاق أوسع من قيم الميزات مقارنةً
          بالحِزم الأخرى.

قياس الكَمي

عبارة التحميل الزائد التي يمكن استخدامها بأي من الطرق التالية:

  • تطبيق تجميع الكمية على ميزة معيّنة.
  • تحويل البيانات إلى أصفار وآحاد لتخزينها والتدريب والاستنتاج بشكل أسرع. بما أن البيانات المنطقية أكثر فعالية في ما يتعلق بالتشويش والأخطاء، يمكن أن يحسن القياس الكمي صحة النموذج. تشمل أساليب قياس الكمية التقريب والاقتطاع والتجميع.
  • خفض عدد وحدات البت المستخدمة لتخزين معلَمات النموذج. على سبيل المثال، لنفترض أنه يتم تخزين معلمات النموذج كأرقام عائمة بتنسيق 32 بت. يحوّل الكمية هذه المعلمات من 32 بت إلى 4 أو 8 أو 16 بت. يقلل الكم مما يلي:

    • الحوسبة والذاكرة والقرص واستخدام الشبكة
    • حان الوقت لاستنتاج توقّع
    • استهلاك الطاقة

    ومع ذلك، يقلل التحديد الكمي في بعض الأحيان من صحة تنبؤات النموذج.

قائمة المحتوى التالي

#TensorFlow

عملية TensorFlow لتنفيذ بنية بيانات قائمة الانتظار. وتُستخدم عادةً في وحدات الإدخال والإخراج.

R

قماش ضوئي

#fundamentals

اختصار يشير إلى الجيل المعزَّز من جهة الاسترداد.

غابة عشوائية

#df

مجموعة من أشجار القرار يتم تدريب كل شجرة قرارات عليها باستخدام تشويش عشوائي محدّد، مثل عمليات التعبئة.

الغابات العشوائية هي نوع من غابات القرارات.

سياسة عشوائية

#rl

في التعلُّم المعزّز، هي سياسة تختار إجراءً عشوائيًا.

الترتيب

نوع من التعلّم الخاضع للإشراف يكون هدفه ترتيب قائمة العناصر.

التصنيف (العادي)

يشير ذلك المصطلح إلى الترتيب الترتيبي لفصل دراسي في مشكلة التعلّم الآلي، حيث يتم تصنيف الفئات من الأعلى إلى الأدنى. على سبيل المثال، يمكن أن يرتب نظام ترتيب السلوك مكافأة الكلب من الأعلى (شريحة لحم) إلى الأدنى (كرنب ذابل).

التصنيف (Tensor)

#TensorFlow

عدد الأبعاد في أداة الاستشعار. على سبيل المثال، المقياس الرقمي له الرتبة 0 والمتجه 1 والمرتبة 2.

يجب عدم الخلط بينه وبين الترتيب (الترتيب).

المصنِّف

#fundamentals

شخص يقدّم تصنيفات لتقديم أمثلة "Annotator" هو اسم آخر للمصنِّف.

تذكُّر الإعلان

مقياس لنماذج التصنيف يجيب عن السؤال التالي:

عندما كانت الحقيقة الواقعية الفئة الإيجابية، ما النسبة المئوية للتوقعات التي حددها النموذج بشكل صحيح على أنها الفئة الموجبة؟

فيما يلي المعادلة:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

حيث:

  • يعني الموجبة الصحيح أن النموذج تنبأ بالفئة الموجبة بشكل صحيح.
  • تعني حالة السالب الخاطئ أن النموذج تنبأ بطريق الخطأ بالفئة السالبة.

على سبيل المثال، لنفترض أن نموذجك قدم 200 تنبؤ لأمثلة كانت الحقيقة الأساسية لها الفئة الموجبة. من بين 200 توقع:

  • 180 كانت إيجابية صحيحة.
  • 20 كانت نتائج سالبة خاطئة.

في هذه الحالة يكون:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

نظام الاقتراحات

#recsystems

نظام يختار لكل مستخدم مجموعة صغيرة نسبيًا من العناصر المطلوبة من مجموعة كبيرة على سبيل المثال، قد يقترح نظام اقتراح الفيديوهات فيديوهَين من مجموعة تضم 100,000 فيديو، واختيار Casablanca وThe Philadelphia Story لمستخدم، وWonder Woman وBlack Panther لشخص آخر. قد يعتمد نظام توصيات الفيديو على عوامل مثل:

  • الأفلام التي قيّمها أو شاهدها مستخدمون مشابهون
  • النوع والمخرجون والممثلين والفئة الديمغرافية المستهدفة...

الوحدة الخطية المصحَّحة (ReLU)

#fundamentals

دالة تفعيل لها السلوك التالي:

  • إذا كان الإدخال سالبًا أو صفرًا، يكون الناتج 0.
  • إذا كان الإدخال موجبًا، فإن المخرجات يساوي المُدخل.

مثلاً:

  • إذا كان المُدخل -3، يكون المُخرج 0.
  • إذا كان المدخل هو +3، يكون الناتج 3.0.

فيما يلي مخطط ReLU:

مخطط الديكارتي مكون من سطرين. قيمة y ثابتة للسطر الأول، وهي 0، وتتراوح قيمة المحور x من -infinity,0 إلى 0-0.
          يبدأ السطر الثاني من 0.0. مقدار انحدار هذا الخط هو +1، لذا يمتد من 0,0 إلى +ما لا نهاية،+ما لا نهاية.

ReLU هي دالة تفعيل شائعة جدًا. وعلى الرغم من بساطة استخدامها، لا تزال ReLU تتيح للشبكة العصبية التعرّف على العلاقات غير الخطية بين الميزات والتصنيف.

شبكة عصبية متكررة

#seq

يشير ذلك المصطلح إلى شبكة عصبية يتم تشغيلها عدة مرّات بشكل متعمّد، ويتم فيها تشغيل أجزاء من كل مرة يتم تشغيلها في المرحلة التالية. على وجه التحديد، توفر الطبقات المخفية من التشغيل السابق جزءًا من الإدخال في نفس الطبقة المخفية في العملية التالية. تفيد الشبكات العصبية المتكررة بشكل خاص في تقييم التسلسلات، بحيث يمكن للطبقات المخفية التعلّم من عمليات تشغيل الشبكة العصبونية السابقة في الأجزاء السابقة من التسلسل.

على سبيل المثال، يوضح الشكل التالي شبكة عصبية متكررة تعمل أربع مرات. لاحظ أن القيم التي تم تعلمها في الطبقات المخفية من التشغيل الأول تصبح جزءًا من مدخلات الطبقات المخفية نفسها في التشغيل الثاني. وبالمثل، تصبح القيم التي تم تعلمها في الطبقة المخفية على التشغيل الثاني جزءًا من الإدخال في الطبقة المخفية نفسها في التشغيل الثالث. وبهذه الطريقة، تتدرب الشبكة العصبية المتكررة تدريجيًا وتتنبأ بمعنى التسلسل بأكمله بدلاً من مجرد معنى الكلمات الفردية.

رقم RNN يعمل أربع مرات لمعالجة أربع كلمات إدخال.

نموذج الانحدار

#fundamentals

يشير ذلك المصطلح إلى نموذج ينتج عنه توقّع رقمي بطريقة غير رسمية. (على النقيض من ذلك، ينشئ نموذج التصنيف تنبؤًا بالفئة). على سبيل المثال، في ما يلي جميع نماذج الانحدار:

  • يشير ذلك المصطلح إلى نموذج يتنبأ بقيمة منزل معيّن، مثل 423,000 يورو.
  • يشير ذلك المصطلح إلى نموذج يتنبأ بمتوسط العمر المتوقّع لشجرة معيّنة، مثل 23.2 عامًا.
  • يشير ذلك المصطلح إلى نموذج يتنبأ بكمية الأمطار التي ستتساقط في مدينة معيّنة خلال الساعات الست القادمة، مثل 0.18 بوصة.

هناك نوعان شائعان من نماذج الانحدار هما:

ليس كل نموذج ينتج عنه تنبؤات عددية نموذجًا انحدارًا. في بعض الحالات، يكون التنبؤ الرقمي في الحقيقة مجرد نموذج تصنيف يحدث مع أسماء فئات رقمية. على سبيل المثال، النموذج الذي يتنبأ برمز بريدي رقمي هو نموذج تصنيف، وليس نموذج انحدار.

تسوية

#fundamentals

أي آلية تقلل من الإفراط في التوافق. تشمل الأنواع الشائعة من التسوية ما يلي:

يمكن أيضًا تعريف التسوية على أنها عقوبة على تعقيد النموذج.

معدّل التسوية

#fundamentals

رقم يحدد الأهمية النسبية للتنظيم أثناء التدريب. ويؤدي رفع معدّل الضبط إلى تقليل فرط التخصيص، ولكنه قد يقلل من قوة التوقّع للنموذج. وعلى العكس من ذلك، يؤدي تقليل معدل التسوية أو حذفه إلى زيادة فرط التخصيص.

التعلّم المعزز (RL)

#rl

مجموعة من الخوارزميات التي تتعلّم سياسة مثالية وتهدف إلى زيادة العائد إلى أقصى حدّ عند التفاعل مع بيئة على سبيل المثال، المكافأة النهائية لمعظم الألعاب هي الفوز. يمكن أن تصبح أنظمة التعلم التدريجي خبيرة في لعب الألعاب المعقدة من خلال تقييم تسلسل تحركات اللعبة السابقة التي أدت في النهاية إلى تحقيقات الفوز والتتابعات التي أدت في النهاية إلى الخسائر.

التعلّم المعزّز من الملاحظات البشرية (RLHF)

#GenerativeAI
#rl

استخدام الملاحظات الواردة من خبراء التصنيف لتحسين جودة ردود النموذج على سبيل المثال، يمكن لآلية RLHF أن تطلب من المستخدمين تقييم جودة ردّ النموذج باستخدام الرمز التعبيري 👍 أو 👎. يمكن للنظام بعد ذلك تعديل ردوده المستقبلية بناءً على تلك الملاحظات.

ReLU

#fundamentals

اختصار الوحدة الخطية المستقيمة.

إعادة تشغيل المخزن المؤقت

#rl

في الخوارزميات الشبيهة بـ DQN، الذاكرة التي يستخدمها الوكيل لتخزين انتقالات الحالة لاستخدامها في إعادة تشغيل التجربة.

نسخة مطابقة

نسخة من مجموعة التدريب أو النموذج، عادةً على جهاز آخر. على سبيل المثال، يمكن أن يستخدم النظام الإستراتيجية التالية لتنفيذ موازمة البيانات:

  1. ضع نُسخًا طبق الأصل من نموذج موجود على أجهزة متعددة.
  2. أرسل مجموعات فرعية مختلفة من مجموعة التدريب إلى كل نسخة مطابقة.
  3. اجمع تعديلات المَعلمة.

الانحياز في إعداد التقارير

#fairness

حقيقة أن التكرار الذي يكتب به الأشخاص عن الأفعال أو النتائج أو الممتلكات لا يعكس تكراراتهم في العالم الحقيقي أو الدرجة التي تكون بها الملكية سمة مميزة لفئة من الأفراد. يمكن أن يؤثر التحيز في إعداد التقارير في تكوين البيانات التي تتعلم منها أنظمة التعلم الآلي.

على سبيل المثال، في الكتب، تكون كلمة ضحك أكثر انتشارًا من كلمة ضحك. من المحتمل أن يحدد نموذج التعلم الآلي الذي يقدر معدل التكرار النسبي للضحك والتنفس من مجموعة الكتب أن الضحك أكثر شيوعًا من التنفس.

التمثيل

عملية ربط البيانات بميزات مفيدة.

إعادة ترتيب

#recsystems

المرحلة الأخيرة من نظام الاقتراحات، وهي العناصر التي يمكن إعادة تقييمها وفقًا لبعض الخوارزمية الأخرى (عادةً غير المستندة إلى تعلُّم الآلة). تُقيّم إعادة الترتيب قائمة العناصر التي تم إنشاؤها من خلال مرحلة تسجيل النتائج، مع اتخاذ إجراءات مثل:

  • إزالة العناصر التي اشتراها المستخدم بالفعل.
  • تعزيز نتيجة العناصر الأحدث

الجيل المعزَّز بالاسترجاع (RAG)

#fundamentals

يشير ذلك المصطلح إلى أسلوب لتحسين جودة نتائج النموذج اللغوي الكبير (LLM) من خلال الاستناد إلى مصادر المعرفة التي تم استردادها بعد تدريب النموذج. تحسِّن تقنية RAG دقة ردود "النموذج اللغوي الكبير" (LLM) من خلال تزويد "النموذج اللغوي الكبير" (LLM) المدرَّب بإمكانية الوصول إلى المعلومات المأخوذة من قواعد المعرفة أو المستندات الموثوق بها.

تشمل الدوافع الشائعة لاستخدام الإنشاء المحسّن للاسترجاع ما يلي:

  • زيادة الدقة الواقعية للردود التي ينشئها نموذج
  • منح النموذج إمكانية الوصول إلى معلومات لم يتم تدريبه عليها
  • تغيير المعرفة التي يستخدمها النموذج.
  • تمكين النموذج من الاقتباس من المصادر.

على سبيل المثال، لنفترض أنّ أحد تطبيقات الكيمياء يستخدم PaLM API لإنشاء ملخّصات ذات صلة بطلبات بحث المستخدمين. عندما تتلقى الواجهة الخلفية للتطبيق طلبًا، فإن الخلفية:

  1. يبحث عن بيانات ("استرداد") ذات الصلة بطلب بحث المستخدم.
  2. تُلحق ("الزيادة") البيانات الكيميائية ذات الصلة بطلب بحث المستخدم.
  3. توجّه هذه السياسة إلى النموذج اللغوي الكبير لإنشاء ملخّص استنادًا إلى البيانات المُرفَقة.

return

#rl

في إطار التعلّم المعزّز، وبالنظر إلى سياسة معيّنة وحالة محدّدة، يكون العائد هو مجموع كل المكافآت التي يتوقّع الوكيل الحصول عليها عند اتّباع السياسة من الولاية إلى نهاية الحلقة. يفسّر الوكيل بالطبيعة المتأخرة للمكافآت المتوقعة من خلال خصم المكافآت وفقًا لعمليات نقل الولاية المطلوبة للحصول على المكافأة.

وبالتالي، إذا كان عامل الخصم هو \(\gamma\)و \(r_0, \ldots, r_{N}\) يشير إلى المكافآت حتى نهاية الحلقة، تكون عملية احتساب العائد على النحو التالي:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

مكافأة

#rl

في مرحلة التعلُّم المعزّز، هي النتيجة الرقمية لاتّخاذ إجراء في ولاية، على النحو المحدد في البيئة.

تسوية سلسلة الجبال

مرادف لـ L2 معادلة. يتم استخدام مصطلح تسوية سلسلة الطرق بشكل متكرر في سياقات إحصائية بحتة، في حين يتم استخدام مصطلح تسوية 2 بشكل متكرر في تعلُّم الآلة.

رقم RNN

#seq

اختصار الشبكات العصبونية المتكرّرة.

منحنى ROC (خاصية تشغيل جهاز الاستقبال)

#fundamentals

رسم بياني للمعدّل الموجب الصحيح مقابل معدّل الموجب الخاطئ لحدود التصنيف المختلفة في التصنيف الثنائي.

يشير شكل منحنى خاصية تشغيل جهاز الاستقبال إلى قدرة نموذج التصنيف الثنائي على فصل الفئات الموجبة عن الفئات السالبة. لنفترض، على سبيل المثال، أن نموذج التصنيف الثنائي يفصل بشكل مثالي جميع الفئات السالبة عن جميع الفئات الموجبة:

سطر أرقام يحتوي على 8 أمثلة موجبة على الجانب الأيمن و7 أمثلة سلبية على اليسار.

يبدو منحنى خاصية تشغيل جهاز الاستقبال للنموذج السابق على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال. المحور س هو معدل موجب خاطئ والمحور ص هو معدل موجب ص. للمنحنى شكل حرف L مقلوب. يبدأ المنحنى عند (0.0,0.0) ويرتفع مباشرة إلى (0.0,1.0). وينتقل المنحنى
          من (0.0,1.0) إلى (1.0,1.0).

وفي المقابل، يوضّح الرسم التوضيحي التالي قيم الانحدار اللوجستي الأوّلية لنموذج مخيف لا يمكنه فصل الفئات السالبة عن الفئات الإيجابية على الإطلاق:

سطر أرقام يضم أمثلة موجبة وفئات سلبية مختلطة تمامًا.

ويبدو منحنى خاصية تشغيل جهاز الاستقبال لهذا النموذج على النحو التالي:

منحنى خاصية تشغيل جهاز الاستقبال، وهو في الواقع خط مستقيم من (0.0,0.0)
          إلى (1.0,1.0).

في الوقت نفسه، بالعودة إلى العالم الحقيقي، تفصل معظم نماذج التصنيف الثنائي الفئات الإيجابية والسلبية إلى حد ما، ولكن عادة لا تفصل بشكل مثالي. لذلك، يقع منحنى خاصية تشغيل جهاز الاستقبال النموذجي في مكان ما بين الطرفين:

منحنى خاصية تشغيل جهاز الاستقبال. المحور س هو معدل موجب خاطئ والمحور ص هو معدل موجب ص. يقترب منحنى خاصية تشغيل جهاز الاستقبال من قوس مهتز
          يعبر نقاط البوصلة من الغرب إلى الشمال.

النقطة في منحنى ROC الأقرب إلى (0.0,1.0) تحدد نظريًا حد التصنيف المثالي. ومع ذلك، تؤثر العديد من المشكلات الأخرى الواقعية في اختيار الحد الأدنى للتصنيف المثالي. على سبيل المثال، ربما النتائج السالبة الخاطئة تتسبب في ألم أكثر بكثير من النتائج الموجبة الخاطئة.

يلخص مقياس عددي يُسمى AUC منحنى خاصية تشغيل جهاز الاستقبال في قيمة واحدة عائمة.

تشجيع الأدوار

#language
#GenerativeAI

جزء اختياري من الطلب الذي يحدّد جمهورًا مستهدَفًا لاستجابة نموذج الذكاء الاصطناعي التوليدي. بدون طلب الحصول على دور، يوفّر النموذج اللغوي الكبير إجابة قد تكون مفيدة أو لا تكون مفيدة للشخص الذي يطرح الأسئلة. باستخدام طلب دور، يمكن لنموذج لغوي كبير الإجابة بطريقة أكثر ملاءمة وفائدة لجمهور مستهدف محدّد. على سبيل المثال، يكون جزء مطالبة الدور في الطلبات التالية بخط غامق:

  • تلخيص هذه المقالة للحصول على درجة الدكتوراه في الاقتصاد.
  • يُرجى وصف آلية عمل المد والجزر لطفل بعمر عشر سنوات.
  • شرح الأزمة المالية لعام 2008 تحدث كما تفعل مع طفل صغير أو كلب جولدن ريتريفر.

الجذر

#df

عقدة البداية (وهي أول شرط) في شجرة القرار. حسب الاصطلاح، تضع الرسوم التخطيطية الجذر في أعلى شجرة القرارات. مثلاً:

شجرة قرارات ذات شرطين وثلاث أوراق. شرط البدء (x > 2) هو الجذر.

الدليل الجذري

#TensorFlow

الدليل الذي تحدّده لاستضافة الأدلّة الفرعية لنقطة تفتيش TensorFlow وملفات الأحداث لنماذج متعدّدة.

جذر متوسط الخطأ التربيعي (RMSE)

#fundamentals

الجذر التربيعي للخطأ التربيعي المتوسّط.

الثبات الدوراني

#image

في مشكلة تصنيف الصور، قدرة الخوارزمية على تصنيف الصور بنجاح حتى عندما يتغير اتجاه الصورة. على سبيل المثال، بإمكان الخوارزمية تحديد مضرب التنس سواء كان يشير إلى الأعلى أو إلى الجانب أو لأسفل. لاحظ أن الثبات الدوراني ليس مرغوبًا فيه دائمًا؛ على سبيل المثال، لا ينبغي تصنيف الرقم 9 المقلوب إلى 9.

اطّلِع أيضًا على الثبات التحويلي وثابت الحجم.

معامل التحديد

مقياس انحدار يشير إلى مقدار الاختلاف في تصنيف بسبب ميزة فردية أو مجموعة ميزات. معامل R هو قيمة بين 0 و1، والتي يمكنك تفسيرها على النحو التالي:

  • يعني مربع R بقيمة 0 أنه لا يوجد أي من تباين التصنيف بسبب مجموعة الخصائص.
  • يعني مربع R بقيمة 1 أن كل تباين التصنيف يرجع إلى مجموعة الخصائص.
  • يشير معامل التحديد بين 0 و1 إلى مدى إمكانية التنبؤ بتغير التصنيف من ميزة معينة أو مجموعة خصائص. على سبيل المثال، يعني مربع R بـ 0.10 أن 10 بالمائة من التباين في التسمية يعود إلى مجموعة الخصائص، بينما يعني معامل R بقيمة 0.20 أن 20 بالمائة ترجع إلى مجموعة الخصائص، وهكذا.

يشير معامل التحديد (R) إلى مربع معامل ارتباط بيرسون بين القيم التي توقعها النموذج والحقيقة الأرضية.

S

تحيز أخذ العينات

#fairness

راجِع انحياز الاختيار.

جمع العيّنات مع الاستبدال

#df

يشير ذلك المصطلح إلى طريقة لاختيار العناصر من مجموعة من العناصر المرشّحة والتي يمكن فيها اختيار العنصر نفسه عدة مرات. تعني عبارة "مع الاستبدال" أنه بعد كل اختيار، يتم إرجاع العنصر المحدد إلى مجموعة العناصر المرشحة. وتعني الطريقة العكسية أخذ العيّنات بدون الاستبدال أنّه لا يمكن اختيار العنصر المرشَّح سوى مرة واحدة.

على سبيل المثال، ضع في الاعتبار مجموعة الفاكهة التالية:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

لنفترض أنّ النظام يختار fig بشكل عشوائي كأول عنصر. في حالة استخدام أخذ العينات مع الاستبدال، يختار النظام العنصر الثاني من المجموعة التالية:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

نعم، تم ضبط الإعدادات نفسها على النحو السابق، لذا قد يختار النظام fig مجددًا.

في حالة استخدام أخذ العينات بدون استبدال، فلا يمكن اختيار العينة مرة أخرى بمجرد اختيارها. على سبيل المثال، إذا اختار النظام fig عشوائيًا كأول عيّنة، لا يمكن اختيار fig مرة أخرى. لذلك، يختار النظام العينة الثانية من المجموعة (المخفضة) التالية:

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#TensorFlow

التنسيق المقترَح لحفظ نماذج TensorFlow واستردادها. احفظ النماذج المحفوظة بتنسيق تسلسلي محايد اللغة ويمكن استردادها، وتتيح للأنظمة والأدوات ذات المستوى الأعلى إنتاج نماذج TensorFlow واستخدامها وتحويلها.

راجع فصل الحفظ والاستعادة في دليل مبرمج TensorFlow للحصول على التفاصيل الكاملة.

موفّر

#TensorFlow

إنّ كائن TensorFlow المسؤول عن حفظ نقاط فحص النموذج.

الكمية القياسية

رقم واحد أو سلسلة واحدة يمكن تمثيلها في شكل tensor بقيمة rank 0. على سبيل المثال، تُنشئ سطور الرمز التالية عددًا قياسيًا في TensorFlow:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

تحجيم

أي تحويل رياضي أو تقنية تُغير نطاق أي تسمية و/أو قيمة خاصية. بعض أشكال التحجيم مفيدة جدًا لإجراء عمليات تحويل، مثل التسوية.

في ما يلي بعض الأشكال الشائعة للتحجيم المفيدة في التعلم الآلي:

  • القياس الخطي، الذي يستخدم عادةً مزيجًا من الطرح والقسمة لاستبدال القيمة الأصلية برقم بين -1 و+1 أو بين 0 و1.
  • التحجيم اللوغاريتمي، والذي يستبدل القيمة الأصلية باللوغاريتم الخاص به.
  • تسوية الدرجة المعيارية التي تستبدل القيمة الأصلية بقيمة نقطة عائمة تمثل عدد الانحرافات المعيارية عن متوسّط قيمة هذه الميزة.

مكتبة ساي كيت ليرن

هي منصة شائعة ومفتوحة المصدر لتعلُّم الآلة. يمكنك الاطّلاع على scikit-learn.org.

النقاط

#recsystems

جزء من نظام الاقتراحات الذي يوفّر قيمة أو ترتيبًا لكل عنصر تنتجه مرحلة إنشاء المرشحين.

الانحياز في الاختيار

#fairness

يشير ذلك المصطلح إلى الأخطاء في الاستنتاجات المستخلصة من البيانات المستندة إلى عيّنات نتيجة لعملية اختيار تؤدي إلى ظهور اختلافات منهجية بين العينات التي تم رصدها في البيانات وتلك التي لم يتم رصدها. توجد الأشكال التالية من تحيز الاختيار:

  • انحياز في التغطية: لا يتطابق السكان الممثلون في مجموعة البيانات مع المجموعة بالكامل التي يتوقّع فيها نموذج تعلُّم الآلة.
  • تحيز أخذ العينات: لا يتم جمع البيانات بشكل عشوائي من المجموعة المستهدفة.
  • الانحياز في عدم الرد (يُعرف أيضًا باسم الانحياز للمشاركة): يوقف المستخدمون من مجموعات معيّنة الاستطلاعات بمعدلات مختلفة عن المستخدمين من المجموعات الأخرى.

على سبيل المثال، لنفترض أنك تنشئ نموذجًا للتعلم الآلي يتنبأ باستمتاع الأشخاص بالأفلام. لجمع بيانات التدريب، تقوم بتوزيع استبيان على كل شخص في الصف الأمامي من المسرح الذي يعرض الفيلم. قد يبدو هذا عن طريق الخطأ طريقة معقولة لجمع مجموعة بيانات؛ ومع ذلك، قد يقدم هذا الشكل من جمع البيانات الأشكال التالية من تحيز الاختيار:

  • تحيز التغطية: من خلال أخذ عينة من السكان الذين اختاروا مشاهدة الفيلم، قد لا يتم تعميم توقعات نموذجك للأشخاص الذين لم يعربوا بالفعل عن هذا المستوى من الاهتمام بالفيلم.
  • التحيز في أخذ العينات: بدلاً من أخذ عينات عشوائية من المجموعة بالكامل المقصودة (جميع الأشخاص في الفيلم)، قمت بأخذ عينة من الأشخاص في الصف الأمامي فقط. من المحتمل أن يكون الأشخاص الذين يجلسون في الصف الأمامي مهتمين بالفيلم أكثر من أولئك الموجودين في الصفوف الأخرى.
  • التحيز لعدم الرد: بشكل عام، يميل الأشخاص ذوو الآراء القوية إلى الرد على الاستبيانات الاختيارية بشكل أكثر تكرارًا من الأشخاص ذوي الآراء الخفيفة. وبما أنّ الاستطلاع المتعلق بالأفلام اختياري، من المرجّح أن تشكّل الردود توزيعًا ثنائي النموذج مقارنةً بالتوزيع العادي (على شكل جرس).

الانتباه الذاتي (تسمى أيضًا طبقة الانتباه الذاتي)

#language

يشير ذلك المصطلح إلى طبقة شبكة عصبية تعمل على تحويل سلسلة من عمليات التضمين (مثل تضمينات الرمز المميّز) إلى تسلسل آخر من التضمينات. يتم إنشاء كل عملية تضمين في تسلسل الإخراج من خلال دمج المعلومات من عناصر تسلسل الإدخال من خلال آلية الانتباه.

يشير جزء الانتباه بالذات إلى الاهتمام الذاتي إلى التسلسل نفسه بدلاً من التركيز على أي سياق آخر. الانتباه الذاتي هو أحد اللبنات الأساسية لـ Transformers ويستخدم مصطلحات البحث في القاموس، مثل "query" و"key" و "value".

تبدأ طبقة الانتباه الذاتي بسلسلة من تمثيلات الإدخال، واحد لكل كلمة. يمكن أن يكون تمثيل الإدخال لإحدى الكلمات تضمينًا بسيطًا. بالنسبة لكل كلمة في تسلسل الإدخال، تسجّل الشبكة مدى صلة الكلمة بكل عنصر في التسلسل الكامل للكلمات. تحدد نقاط الصلة مدى احتواء التمثيل النهائي للكلمة على تمثيلات الكلمات الأخرى.

على سبيل المثال، فكِّر في الجملة التالية:

لم يعبر الحيوان الشارع لأنّه كان مرهقًا جدًا.

يُظهر الرسم التوضيحي التالي (من Transformer: A New Translate Network هندسة لفهم اللغة) نمط الانتباه لطبقة الانتباه الذاتي للضمير ، مع تعتيم كل سطر يشير إلى مدى مساهمة كل كلمة في التمثيل:

تظهر الجملة التالية مرّتين: لم يعبر الحيوان
          الشارع لأنّه كان مرهقًا جدًا. تربط الخطوط الضمير في جملة واحدة بخمسة رموز مميزة (&quot;الحيوان&quot; و&quot;الحيوان&quot; و&quot;الشارع&quot; و&quot;النقطة&quot;) في الجملة الأخرى.  يشير ذلك المصطلح إلى الخط الأقوى بين الضمير الذي يسمّى &quot;اسم&quot; وكلمة &quot;حيوان&quot;.

تبرز طبقة الانتباه الذاتي الكلمات ذات الصلة بـ "هي". في هذه الحالة، تعلّمت طبقة الانتباه تمييز الكلمات التي قد تشير إليها هذه الحالة، مع تخصيص القيمة الأعلى لـ حيوان.

بالنسبة إلى تسلسل n الرموز المميّزة، يحوّل الانتباه تسلسلًا من التضمينات n مرات منفصلة، مرة في كل موضع في التسلسل.

يمكنك أيضًا مراجعة الاهتمام والانتباه الذاتي متعدد الرؤوس.

التعلُّم الذاتي

مجموعة من الأساليب لتحويل مشكلة تعلُّم الآلة غير الخاضعة للإشراف إلى مشكلة في تعلُّم الآلة المراقَب من خلال إنشاء تصنيفات بديلة من أمثلة غير مصنَّفة.

بعض النماذج المستنِدة إلى Transformer، مثل BERT، تستخدم التعلّم الخاضع للإشراف الذاتي.

التدريب الذاتي هو أحد أساليب التعلّم شبه الخاضع للإشراف.

تدريب ذاتي

تمثّل هذه السمة صيغة من التعلّم الذاتي والتي تكون مفيدة بشكل خاص في حال استيفاء جميع الشروط التالية:

يعمل التدريب الذاتي من خلال التكرار على الخطوتين التاليتين حتى يتوقف النموذج عن التحسين:

  1. استخدِم تعلُّم الآلة المُوجّه لتدريب نموذج على الأمثلة المصنّفة.
  2. استخدِم النموذج الذي تم إنشاؤه في الخطوة 1 لإنشاء عبارات بحث مقترحة (تصنيفات) على الأمثلة غير المصنَّفة، ونقل تلك التي تكون فيها ثقة كبيرة إلى الأمثلة المصنّفة ذات التصنيف المتوقّع.

لاحظ أن كل تكرار للخطوة 2 يضيف المزيد من الأمثلة المصنفة للخطوة 1 للتدرب عليها.

تعلُّم شبه مراقَب

تدريب نموذج على البيانات حيث تحتوي بعض أمثلة التدريب على تسميات بينما لا تحتوي الأخرى على تسميات. يتمثل أحد أساليب التعلم شبه المُوجّه في استنتاج التصنيفات للأمثلة غير المُصنَّفة، ثم التدريب على التصنيفات المستنتَجة لإنشاء نموذج جديد. يمكن أن يكون التعلم شبه المُوجه مفيدًا إذا كان الحصول على التسميات مكلفًا ولكن هناك أمثلة وافرة.

التدريب الذاتي هو أحد أساليب التعلّم شبه الخاضع للإشراف.

سمة حسّاسة

#fairness
سمة بشرية قد يتم وضعها في الاعتبار الخاص لأسباب قانونية أو أخلاقية أو اجتماعية أو شخصية.

تحليل الآراء

#language

استخدام خوارزميات الإحصاء أو خوارزميات التعلم الآلي لتحديد الموقف العام للمجموعة - الإيجابي أو السلبي - تجاه خدمة أو منتج أو مؤسسة أو موضوع. على سبيل المثال، باستخدام فهم اللغة الطبيعية، يمكن لخوارزمية إجراء تحليل للآراء حول الملاحظات النصية من دورة جامعية لتحديد الدرجة التي أحببتها أو لم تعجب الطلاب بشكل عام.

نموذج تسلسلي

#seq

يشير ذلك المصطلح إلى نموذج تكون إدخالاته تعتمد على تبعية تسلسلية. على سبيل المثال، التنبؤ بالفيديو التالي الذي تتم مشاهدته من سلسلة من مقاطع الفيديو التي تمت مشاهدتها سابقًا.

مهمة تسلسل إلى تسلسل

#language

هي مهمة تحوِّل تسلسل إدخال من الرموز المميّزة إلى تسلسل للرموز المميّزة. على سبيل المثال، هناك نوعان شائعان من مهام التسلسل إلى التسلسل هما:

  • المترجمون:
    • نموذج تسلسل إدخال: "أحبك".
    • نموذج تسلسل الإخراج: "Je t'aime".
  • الإجابة عن السؤال:
    • نموذج تسلسل إدخال: "هل أحتاج إلى سيارتي في دبي؟"
    • نموذج تسلسل الإخراج: "لا. يُرجى إبقاء سيارتك في المنزل".

حصة طعام

يشير هذا المصطلح إلى عملية إتاحة نموذج مدرَّب لتقديم توقّعات من خلال الاستنتاج على الإنترنت أو الاستنتاج بلا إنترنت.

الشكل (أداة استشعار)

عدد العناصر في كل سمة لماتزر. يتم تمثيل الشكل كقائمة من الأعداد الصحيحة. على سبيل المثال، يكون للمتسلل الثنائي الأبعاد التالي شكل [3,4]:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

يستخدم TensorFlow تنسيق الصف الرئيسي (النمط C) لتمثيل ترتيب الأبعاد، ولهذا السبب يكون الشكل في TensorFlow [3,4] وليس [4,3]. بعبارة أخرى، في TensorFlow Tensor ثنائية الأبعاد، يكون الشكل هو [عدد الصفوف، وعدد الأعمدة].

جزء

#TensorFlow
#GoogleCloud

قسم منطقي من مجموعة التدريب أو النموذج. تنشئ بعض العمليات عادةً أجزاءً من خلال قسمة الأمثلة أو المَعلمات إلى أجزاء متساوية الحجم (عادةً). ثم يتم تعيين كل جزء إلى آلة مختلفة.

يُطلق على عملية تقسيم النموذج اسم التوازي النموذج، ويُطلق على عملية تقسيم البيانات اسم توازي البيانات.

انكماش

#df

المعلَمة الفائقة في عملية تعزيز التدرج التي تتحكّم في الفرط في التخصيص. يشبه انكماش تحسُّن التدرج معدّل التعلّم في خوارزمية انحدار التدرج. الانكماش هو قيمة عشرية بين 0.0 و1.0. تقلل قيمة الانكماش الأقل من فرط التخصيص أكثر من قيمة الانكماش الأكبر.

الدالّة الإسية

#fundamentals

دالة رياضية "تقوم بتدفّق" قيمة إدخال إلى نطاق محدود، عادةً من 0 إلى 1 أو من -1 إلى +1. أي أنه يمكنك تمرير أي رقم (اثنين، مليون، سالب مليار، أيهما) إلى الدالة السينية وسيظل الناتج في النطاق المحدود. يبدو مخطط دالة التفعيل السيني على النحو التالي:

رسم بياني منحن ثنائي الأبعاد بقيم x تمتد من النطاق
 -infinity إلى +موجب، في حين تغطي قيم y النطاق
 ما بين 0
 و1 تقريبًا. عندما تساوي x 0، تكون y تساوي 0.5. يكون انحدار المنحنى دائمًا موجبًا، مع أعلى انحدار عند 0.0.5 وانخفاضًا تدريجيًا
 مع زيادة القيمة المطلقة لـ x.

للدالة السينية عدة استخدامات في التعلم الآلي، منها:

مقياس التشابه

#clustering

في خوارزميات التجميع، يكون المقياس المستخدَم لتحديد مدى تشابه أي مثالَين (مدى التشابه).

برنامج واحد / بيانات متعددة (SPMD)

يشير ذلك المصطلح إلى أسلوب موازٍ يتم فيه إجراء الحوسبة نفسها على بيانات إدخال مختلفة بالتوازي على أجهزة مختلفة. الهدف من SPMD هو الحصول على النتائج بسرعة أكبر. وهو النمط الأكثر شيوعًا في البرمجة المتوازية.

الثبات الحجمي

#image

في مشكلة تصنيف الصور، قدرة الخوارزمية على تصنيف الصور بنجاح حتى عندما يتغير حجم الصور. على سبيل المثال، لا يزال بإمكان الخوارزمية تحديد قطة سواء كانت تستهلك 2 ميغا بكسل أو 200 ألف بكسل. لاحظ أنه حتى أفضل خوارزميات تصنيف الصور لا تزال لديها حدود عملية على ثبات الحجم. على سبيل المثال، من غير المرجّح أن تصنِّف خوارزمية (أو بشرية) بشكل صحيح صورة قطة تستخدم 20 بكسل فقط.

اطّلِع أيضًا على الثبات التحويلي والثبات الدوراني.

الرسم التخطيطي

#clustering

في تعلُّم الآلة غير الخاضع للإشراف، فئة من الخوارزميات التي تُجري تحليلاً أوليًا للتشابه في الأمثلة. تستخدم خوارزميات الرسم دالة تجزئة حساسة للمنطقة المحلية لتحديد النقاط التي يُحتمل أن تكون متشابهة، ثم تجميعها في مجموعات.

يقلل الرسم من العملية الحسابية المطلوبة لحسابات التشابه على مجموعات البيانات الكبيرة. بدلاً من حساب التشابه لكل زوج من الأمثلة في مجموعة البيانات، نحسب التشابه فقط لكل زوج من النقاط داخل كل مجموعة.

تخطي-غرام

#language

تمثّل هذه السمة n gram الذي قد يحذف (أو "يتخطى") كلمات من السياق الأصلي، ما يعني أن الكلمات N قد لا تكون مجاورة في الأصل. وبشكل أكثر دقة، فإن "k-skip-n-gram" عبارة عن جرام ن- غرام ربما تم تخطي ما يصل إلى ألف كلمة.

على سبيل المثال، يحتوي "الثعلب البني السريع" على 2 غرام محتمل مما يلي:

  • "السريع"
  • "بني سريع"
  • "ثعلب بني"

يمثل "1-تخطي-2 غرام" زوجًا من الكلمات التي تحتوي بينهما على كلمة واحدة كحد أقصى. لذلك، يحتوي "الثعلب البني السريع" على 2 غرام مما يلي:

  • "البني"
  • "ثعلب سريع"

بالإضافة إلى ذلك، يكون وزن كل 2 غرام أيضًا 1 غرام واحد، لأنّه قد يتم تخطّي أقل من كلمة واحدة.

تعد مخططات التخطي مفيدة لفهم المزيد من السياق المحيط للكلمة. في المثال، ارتبط كلمة "ثعلب" مباشرةً بكلمة "سريع" في المجموعة المكونة من 1-تخطي 2 غرام، ولكن ليس في المجموعة التي تبلغ 2 غرام.

تساعد التخطّيات في تدريب نماذج تضمين الكلمات.

softmax

#fundamentals

يشير ذلك المصطلح إلى دالة تحدّد الاحتمالات لكل فئة محتملة في نموذج التصنيف المتعدّد الفئات. وتصل الاحتمالات إلى 1.0 بالضبط. على سبيل المثال، يوضح الجدول التالي كيفية توزيع softmax للاحتمالات المختلفة:

الصورة هي... الاحتمالية
كلب .85
هرّ 13.
حصان 02.

يُطلَق على جهاز Softmax أيضًا اسم full softmax.

التباين مع عينات المرشّحين.

الضبط السلس للطلبات

#language
#GenerativeAI

يشير ذلك المصطلح إلى أسلوب لضبط نموذج لغوي كبير لمهمة معيّنة بدون ضبط دقيق ويستهلك الكثير من الموارد. بدلاً من إعادة تدريب كل القيم المهمة في النموذج، يعمل ضبط الطلب التلقائي على ضبط الطلب لتحقيق الهدف نفسه.

عند ظهور طلب نصي، يؤدي التوليف الأوّلي عادةً إلى إلحاق المزيد من عمليات تضمين الرموز المميّزة بالطلب ويستخدم عملية إعادة النشر لتحسين الإدخال.

يحتوي الطلب "الصعب" على رموز مميّزة فعلية بدلاً من عمليات تضمين الرموز المميّزة.

خاصية متناثرة

#language
#fundamentals

ميزة تكون قيمها في الغالب صفر أو فارغة. على سبيل المثال، تعتبر الميزة التي تحتوي على قيمة 1 فردية ومليون 0 قيمة ضئيلة. في المقابل، تحتوي الميزة الكثيفة على قيم في الغالب ليست صفرًا أو فارغة.

في تقنية تعلُّم الآلة، هناك عدد مذهل من الميزات يكمن في الخصائص المتفرقة. عادةً ما تكون الخصائص الفئوية ميزات متفرقة. على سبيل المثال، من بين 300 نوع محتمل من الأشجار في إحدى الغابة، قد يمثّل مثال واحد شجرة قيقب فقط. أو من بين ملايين مقاطع الفيديو المحتملة في مكتبة الفيديو، قد يحدد مثال واحد "الدار البيضاء" فقط.

في أحد النماذج، يتم عادةً تمثيل ميزات متفرقة باستخدام ترميز واحد فعال. وإذا كان الترميز الأحادي كبيرًا، يمكنك وضع طبقة تضمين أعلى الترميز الأحادي لزيادة الكفاءة.

تمثيل متناثر

#language
#fundamentals

تخزين مواضع العناصر غير الصفرية فقط في عنصر متفرق.

على سبيل المثال، لنفترض أنّ خاصية فئوية اسمها species تحدد 36 نوعًا من الأشجار في غابة معيّنة. وتفترض أيضًا أن كل مثال يحدد نوعًا واحدًا فقط.

يمكنك استخدام متجه واحد فعال لتمثيل أنواع الأشجار في كل مثال. قد يحتوي الخط المتجه الأحادي على قيمة 1 واحدة (لتمثيل أنواع الأشجار المعيّنة في هذا المثال) و35 0 (لتمثيل 35 نوعًا من الأشجار وليس في هذا المثال). لذلك، قد يبدو التمثيل الأكثر تكرارًا لـ maple على النحو التالي:

متجه تحتوي المواضع من 0 إلى 23 على القيمة 0، ويحتوي الموضع 24 على القيمة 1، في حين تشتمل المواضع من 25 إلى 35 على القيمة 0.

وبدلاً من ذلك، سيحدد التمثيل المتناثر ببساطة موضع أنواع معينة. إذا كان maple في الموضع 24، يكون التمثيل المتنافر لـ maple ببساطة على النحو التالي:

24

لاحظ أن التمثيل المتناثر أكثر إحكامًا بكثير من التمثيل الأهم.

متجه متناثر

#fundamentals

متجه تكون قيمه في الغالب أصفار. يمكنك أيضًا الاطّلاع على الميزة محدودة والتباعد.

الندرة

عدد العناصر المحددة على صفر (أو فارغ) في متجه أو مصفوفة مقسومًا على إجمالي عدد الإدخالات في هذا الخط المتجه أو المصفوفة. على سبيل المثال، ضع في اعتبارك مصفوفة مكونة من 100 عنصر تحتوي فيها 98 خلية على صفر. يتم حساب التناسب على النحو التالي:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

يشير ندرة الميزات إلى ندرة متّجه الخصائص، ويشير ندرة النموذج إلى ندرة ترجيحات النموذج.

اختزال مكاني

#image

يُرجى الاطّلاع على تجميع البيانات.

split

#df

في شجرة القرار، اسم آخر لشرط.

مقسِّم

#df

أثناء تدريب شجرة القرار، تكون سلسلة الإجراءات (والخوارزمية) مسؤولة عن إيجاد أفضل حالة في كل عقدة.

بروتوكول SPMD

اختصار لـ برنامج واحد / بيانات متعددة.

تربيع الخسارة المفصلية

مربع فقدان المفصل. تؤدي خسارة المفصلات المربعة إلى معاقبة القيم الخارجية أكثر قسوة من فقدان المفصلات المنتظمة.

الخسارة التربيعية

#fundamentals

مرادف لـ L2 الخسارة.

تدريب مرحلي

#language

يشير ذلك المصطلح إلى تكتيك لتدريب نموذج في سلسلة من المراحل المنفصلة. ويمكن أن يكون الهدف إما تسريع عملية التدريب أو تحقيق جودة نموذج أفضل.

في ما يلي صورة توضيحية لنهج التكديس التدريجي:

  • المرحلة 1 تحتوي على 3 طبقات مخفية، بينما تحتوي المرحلة الثانية على 6 طبقات مخفية، بينما تحتوي المرحلة 3 على 12 طبقة مخفية.
  • تبدأ المرحلة 2 التدريب بالأوزان التي تم تعلمها في الطبقات الثلاث المخفية من المرحلة 1. تبدأ المرحلة 3 التدريب بالأوزان التي تم تعلمها في الطبقات الست المخفية من المرحلة 2.

ثلاث مراحل تُسمى المرحلة 1 والمرحلة 2 والمرحلة 3.
          تحتوي كل مرحلة على عدد مختلف من الطبقات: تحتوي المرحلة 1 على 3 طبقات، بينما تحتوي المرحلة الثانية على 6 طبقات، بينما تحتوي المرحلة الثالثة على 12 طبقة.
          تصبح الطبقات الثلاث من المرحلة 1 أول 3 طبقات في المرحلة 2.
          وبالمثل، تكون الطبقات الست من المرحلة 2 هي الطبقات الست الأولى في المرحلة 3.

راجِع أيضًا التسلسل.

state

#rl

في التعلّم المعزّز، قيم المَعلمات التي تصف الإعداد الحالي للبيئة التي يستخدمها الوكيل لاختيار إجراء.

دالة قيمة إجراء الحالة

#rl

مرادف دالة Q.

ثابتة

#fundamentals

حدث شيء ما مرة واحدة بدلاً من الاستمرار. العبارتان ثابتة وبلا إنترنت هي مرادفات لهذه العبارة. في ما يلي الاستخدامات الشائعة للاستخدام الثابت وبلا اتصال بالإنترنت في تقنية تعلُّم الآلة:

  • النموذج الثابت (أو النموذج المتوفّر بلا اتصال بالإنترنت) هو نموذج يتم تدريبه مرة واحدة ثم يُستخدَم لفترة من الوقت.
  • التدريب الثابت (أو التدريب بلا إنترنت) هي عملية تدريب نموذج ثابت.
  • الاستنتاج الثابت (أو الاستنتاج بلا إنترنت) هو عملية ينشئ فيها النموذج مجموعة من التوقّعات في كل مرة.

تباين الألوان مع ديناميكية.

الاستنتاج الثابت

#fundamentals

مرادف للاستنتاج بلا إنترنت.

استقرارية

#fundamentals

ميزة لا تتغيّر قيمها في سمة واحدة أو أكثر، ويتم ذلك في العادة على مدار الوقت على سبيل المثال، تعرض الميزة التي تبدو قيمها متطابقة في عامي 2021 و2023 ثابتًا.

في العالم الحقيقي، يظهر عدد قليل جدًا من الميزات الثابتة. حتى الميزات التي تشبه الثبات (مثل مستوى سطح البحر) تتغير بمرور الوقت.

التباين مع عدم ثبات البيانات.

الخطوة

انتقال إلى الأمام والخلف من مجموعة واحدة.

راجِع القسم backproagation للاطّلاع على مزيد من المعلومات حول التمرير الأمامي والخلفي.

حجم الخطوة

مرادف معدّل التعلّم.

انحدار التدرج العشوائي (SGD)

#fundamentals

يشير ذلك المصطلح إلى خوارزمية خوارزمية انحدار التدرج التي يكون فيها حجم المجموعة واحدًا. بعبارة أخرى، تتدرب شركة SGD على مثال واحد يتم اختياره بشكل عشوائي من مجموعة تدريب.

قفزة

#image

في عملية التفافية أو تجميع، تكون الدلتا في كل بُعد من أبعاد السلسلة التالية من شرائح الإدخال. على سبيل المثال، توضح الرسوم المتحركة التالية خطوة (1،1) أثناء عملية التفافية. وبالتالي، تبدأ شريحة الإدخال التالية موضعًا واحدًا على يمين شريحة الإدخال السابقة. عندما تصل العملية إلى الحافة اليمنى، تصل الشريحة التالية إلى اليسار بالكامل ولكن بموضع واحد لأسفل.

مصفوفة إدخال 5×5 وفلتر التفافي 3×3. بما أنّ الخطوة (1,1) هي
     (1,1)، سيتم تطبيق فلتر التفافي 9 مرات. تقيّم الشريحة الالتفافية الأولى المصفوفة الفرعية 3×3 العلوية اليسرى لمصفوفة الإدخال. تقيّم الشريحة الثانية المصفوفة الفرعية 3×3
     العلوية المتوسطة. تقيّم الشريحة الالتفافية الثالثة المصفوفة الفرعية 3×3
 في الجزء العلوي الأيمن.  تقيّم الشريحة الرابعة المصفوفة الفرعية 3x3 ذات اليسار الأوسط.
     تقيم الشريحة الخامسة المصفوفة الفرعية 3×3 المتوسطة. تقيّم الشريحة السادسة المصفوفة الفرعية 3×3 المتوسطة اليمنى. تقيّم الشريحة السابعة المصفوفة الفرعية 3×3 والسفلى اليسرى.  تقيّم الشريحة الثامنة المصفوفة الفرعية 3x3 السفلية والوسطى. تقيّم الشريحة التاسعة المصفوفة الفرعية 3x3
     السفلية اليمنى.

يوضح المثال السابق خطوة ثنائية الأبعاد. إذا كانت مصفوفة الإدخال ثلاثية الأبعاد، فإن الخطوة ستكون ثلاثية الأبعاد أيضًا.

تقليص المخاطر الهيكلية (SRM)

خوارزمية توازن بين هدفين:

  • الحاجة إلى إنشاء النموذج الأكثر توقّعًا (مثل أدنى نسبة خسارة)
  • الحاجة إلى الحفاظ على بساطة النموذج قدر الإمكان (على سبيل المثال، تنظيم قوي).

على سبيل المثال، الدالة التي تقلل من الخسارة + التنظيم في مجموعة التدريب هي خوارزمية تخفيض المخاطر الهيكلية.

التباين مع تقليل المخاطر التجريبية.

جمع عيّنات فرعية

#image

يُرجى الاطّلاع على تجميع البيانات.

رمز مميّز للكلمة الفرعية

#language

في النماذج اللغوية، الرمز المميّز هو سلسلة فرعية من كلمة، وقد تكون الكلمة كاملةً.

على سبيل المثال، قد يتم تقسيم كلمة مثل "itemize" إلى القطع "item" (كلمة جذر) و "ize" (لاحقة)، ويتم تمثيل كل منها بالرمز المميز الخاص بها. إنّ تقسيم الكلمات غير المألوفة إلى كلمات تُعرف باسم الكلمات الفرعية يسمح للنماذج اللغوية بالعمل على الأجزاء المكوّنة لها الأكثر شيوعًا، مثل البادئات واللاحقات.

وعلى العكس من ذلك، قد لا يتم تقسيم الكلمات الشائعة مثل "ذهاب" وقد يتم تمثيلها برمز مميز واحد.

الملخّص

#TensorFlow

في TensorFlow، يتم استخدام قيمة أو مجموعة قيم محسوبة عند خطوة معيّنة، وتُستخدم عادةً لتتبُّع مقاييس النماذج أثناء التدريب.

تعلُّم الآلة المراقَب

#fundamentals

تدرَّب على model من model وmodel المقابلة لها. يشبه التعلم الآلي المُوجّه تعلم موضوع من خلال دراسة مجموعة من الأسئلة والإجابات المقابلة لها. بعد إتقان التخطيط بين الأسئلة والإجابات، يمكن للطالب بعد ذلك تقديم إجابات على أسئلة جديدة (لم يتم رؤيتها من قبل) حول نفس الموضوع.

المقارنة مع تعلُّم الآلة غير الخاضع للإشراف.

ميزة اصطناعية

#fundamentals

هناك ميزة غير موجودة ضمن ميزات الإدخال، ولكنها مجمّعة من واحدة أو أكثر منها. تشمل طرق إنشاء ميزات اصطناعية ما يلي:

  • وضع حزمة كميزة مستمرة في سلال النطاقات
  • إنشاء تقاطع بين الميزات.
  • ضرب (أو قسمة) قيمة ميزة في قيمة(قيم) ميزة أخرى أو بمفردها. على سبيل المثال، إذا كان a وb هما سمتا إدخال، في ما يلي مثالان على الميزات الاصطناعية:
    • ab
    • أ2
  • تطبيق دالة عليا على قيمة سمة. على سبيل المثال، إذا كانت c ميزة إدخال، في ما يلي أمثلة على الميزات الاصطناعية:
    • sin(c)
    • ln(c)

إنّ الميزات التي يتم إنشاؤها من خلال التسوية أو التحجيم وحدها لا تُعتبر ميزات اصطناعية.

T

T5

#language

نموذج تحويل تحويل النصوص إلى نصوص أطلقه تكنولوجيات الذكاء الاصطناعي من Google في عام 2020 T5 هو نموذج برنامج ترميز لفك الترميز يستند إلى بنية Transformer المدرَّبة على مجموعة بيانات كبيرة جدًا. وهي فعّالة في مجموعة متنوعة من مهام معالجة اللغات الطبيعية، مثل إنشاء النصوص وترجمة اللغات والإجابة عن الأسئلة بطريقة حوارية.

اشتق اسم T5 من الأحرف الخمسة في "تحويل النص إلى نص".

T5X

#language

يشير ذلك المصطلح إلى إطار عمل مفتوح المصدر لتعلُّم الآلة تم تصميمه لإنشاء وتدريب نماذج معالجة اللغات الطبيعية على نطاق واسع. يتم تنفيذ T5 على قاعدة رموز T5X (المبنية على JAX وFlax).

التعلُّم الجدولي Q

#rl

في التعلُّم المعزّز، يمكنك تنفيذ التعليم عن بُعد باستخدام جدول لتخزين دوال Q لكل مجموعة من الحالات والإجراء.

الاستهداف

مرادف label.

الشبكة المستهدفة

#rl

يشير ذلك المصطلح إلى شبكة عصبية (Deep Q- Learning) تمثّل تقريبًا شبكة عصبية قريبة مستقرة وتنفِّذ فيها دالة Q أو سياسة. بعد ذلك، يمكنك تدريب الشبكة الرئيسية على قيم Q التي تنبأ بها الشبكة المستهدفة. لذلك، فإنك تمنع حلقة الملاحظات التي تحدث عندما تتدرب الشبكة الرئيسية على قيم Q التي تنبأ بها بنفسها. من خلال تجنب هذه الملاحظات، يزداد استقرار التدريب.

المهمة

يشير ذلك المصطلح إلى مشكلة يمكن حلّها باستخدام أساليب تعلُّم الآلة، مثل:

درجة الحرارة

#language
#image
#GenerativeAI

يشير ذلك المصطلح إلى معلَمة فائقة تتحكم في درجة العشوائية لمخرجات النموذج. ينتج عن درجات الحرارة الأعلى نتائج عشوائية بينما تؤدي درجات الحرارة المنخفضة إلى إخراج عشوائي أقل.

يعتمد اختيار أفضل درجة حرارة على التطبيق المحدد والخصائص المفضلة لمخرج النموذج. على سبيل المثال، من المحتمل أن ترفع درجة الحرارة عند إنشاء تطبيق يُنتج مخرجات إبداعية. وبالعكس، من المحتمل أن تقوم بخفض درجة الحرارة عند إنشاء نموذج يصنف الصور أو النصوص من أجل تحسين دقة النموذج واتساقه.

غالبًا ما تُستخدَم درجة الحرارة مع السمة softmax.

بيانات زمنية

البيانات المسجلة في مراحل زمنية مختلفة. على سبيل المثال، ستكون مبيعات معاطف الشتاء المسجّلة لكل يوم من العام هي بيانات زمنية.

موتّر

#TensorFlow

هيكل البيانات الأساسي في برامج TensorFlow. المتغيرات عبارة عن هياكل بيانات ذات أبعاد N (حيث قد تكون N كبيرة جدًا) وهي عبارة عن قيم قياسية أو متجهات أو مصفوفات. يمكن أن تحتوي عناصر Tensor على عدد صحيح أو نقطة عائمة أو قيم سلسلة.

TensorBoard

#TensorFlow

لوحة البيانات التي تعرض الملخصات المحفوظة أثناء تنفيذ برنامج أو أكثر من TensorFlow.

TensorFlow

#TensorFlow

هي منصة لتعلُّم الآلة وواسعة النطاق. يشير المصطلح أيضًا إلى طبقة واجهة برمجة التطبيقات الأساسية في مكدس TensorFlow، الذي يدعم العمليات الحسابية العامة على الرسوم البيانية لتدفق البيانات.

على الرغم من استخدام TensorFlow بشكل أساسي للتعلّم الآلي، يمكنك أيضًا استخدام TensorFlow للمهام غير المستندة إلى تعلُّم الآلة التي تتطلب إجراء حساب رقمي باستخدام الرسوم البيانية لتدفق البيانات.

ملعب TensorFlow

#TensorFlow

يشير ذلك المصطلح إلى برنامج يصور مدى تأثير المعلَمات الفائقة المختلفة في تدريب النموذج (الشبكة العصبونية في المقام الأول). انتقل إلى http://playground.tensorflow.org لتجربة TensorFlow Playground.

العرض باستخدام TensorFlow

#TensorFlow

هي منصة لنشر نماذج مدرَّبة في الإنتاج.

وحدة معالجة الموتّر (TPU)

#TensorFlow
#GoogleCloud

دارة متكاملة خاصة بالتطبيق (ASIC) تعمل على تحسين أداء أعباء عمل التعلم الآلي. يتم نشر ASIC في شكل شرائح TPU متعددة على جهاز TPU.

ترتيب الموتّر

#TensorFlow

اطّلِع على مقالة الترتيب (Tensor).

شكل الموتّر

#TensorFlow

عدد العناصر التي يحتوي عليها أداة الاستشعار في أبعاد مختلفة. على سبيل المثال، يكون للـ [5, 10] Tensor بشكل 5 في أحد الأبعاد و10 في بُعد آخر.

حجم الموتّر

#TensorFlow

يشير ذلك المصطلح إلى إجمالي عدد القيم القياسية التي يحتوي عليها Tensor. على سبيل المثال، يبلغ حجم [5, 10] Tensor 50.

TensorStore

مكتبة لقراءة الصفائف الكبيرة المتعددة الأبعاد وكتابتها بكفاءة.

شرط الإنهاء

#rl

في التعلُّم المعزّز، الشروط التي تحدِّد وقت انتهاء الحلقة، مثل وصول الوكيل إلى حالة معيّنة أو تجاوز عدد معيّن من عمليات الانتقال بين الحالات. على سبيل المثال، في لعبة tic-tac-toe (المعروفة أيضًا باسم الأقواس والصليب)، تنتهي الحلقة إما عندما يضع اللاعب علامة على ثلاث مسافات متتالية أو عند وضع علامة على جميع المسافات.

الاختبار

#df

في شجرة القرار، اسم آخر لشرط.

عدد الاختبار

#fundamentals

مقياس يمثّل خسارة للنموذج مقابل مجموعة الاختبار. عند إنشاء model، تحاول عادةً الحدّ من فقدان الاختبار. ويرجع ذلك إلى أنّ انخفاض مستوى الخسارة في الاختبار يكون إشارة جودة أقوى من انخفاض فقدان التدريب أو فقدان إمكانية التحقّق.

في بعض الأحيان، تشير وجود فجوة كبيرة بين خسارة الاختبار وفقدان التدريب أو الخضوع للتحقق من صحة البيانات إلى زيادة معدّل انتظام المهام.

مجموعة الاختبار

مجموعة فرعية من مجموعة البيانات محجوزة لاختبار نموذج مدرَّب.

تقليديا، تقوم بتقسيم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية الثلاث التالية:

يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة فرعية واحدة فقط من المجموعات الفرعية السابقة. على سبيل المثال، لا ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة الاختبار.

ترتبط كل من مجموعة التطبيق ومجموعة التحقق من الصحة ارتباطًا وثيقًا بتدريب أحد النماذج. ولأنّ مجموعة الاختبار مرتبطة بشكل غير مباشر بالتدريب فقط، يُعدّ مقياس فقدان الاختبار مقياسًا أقل انحيازًا وأعلى جودة من مقياس فقدان التدريب أو فقدان التحقق.

امتداد النص

#language

نطاق فهرس الصفيف المرتبط بقسم فرعي معيّن من سلسلة نصية. على سبيل المثال، تشغل الكلمة good في سلسلة بايثون s="Be good now" نطاق النص من 3 إلى 6.

tf.Example

#TensorFlow

مخزن بروتوكولات مؤقّت عادي لوصف بيانات الإدخال لتدريب نماذج تعلُّم الآلة أو الاستنتاجها

tf.keras

#TensorFlow

تم دمج عملية تنفيذ Keras في TensorFlow.

الحد (لأشجار القرارات)

#df

في شرط محاذاة المحور، تتم مقارنة القيمة التي تتم بها الميزة. على سبيل المثال، 75 هي قيمة الحد في الشرط التالي:

grade >= 75

تحليل السلسلة الزمنية

#clustering

يشير ذلك المصطلح إلى حقل فرعي لتعلُّم الآلة والإحصاءات، وهو يحلِّل البيانات الزمنية. فالعديد من أنواع مشكلات التعلم الآلي تتطلب تحليل السلاسل الزمنية، بما في ذلك التصنيف والتجميع العنقودي والتنبؤ والكشف عن الانحرافات. على سبيل المثال، يمكنك استخدام تحليل السلسلة الزمنية لتوقع المبيعات المستقبلية للمعاطف الشتوية حسب الشهر استنادًا إلى بيانات المبيعات التاريخية.

خطوة زمنية

#seq

خلية واحدة "غير ظاهرة" داخل شبكة عصبية متكررة. على سبيل المثال، يُظهر الشكل التالي ثلاث خطوات زمنية (مسماة بأحرف تحتية t-1 وt وt+1):

ثلاث خطوات زمنية في شبكة عصبية متكررة. ويصبح ناتج الخطوة الزمنية الأولى إدخالاً في الخطوة الزمنية الثانية. ويصبح ناتج الخطوة الزمنية الثانية إدخالاً في الخطوة الزمنية الثالثة.

رمز مميز

#language

في النموذج اللغوي، وهو الوحدة الذرية التي يتدرب عليها النموذج ويُظهر التنبؤات عليها. عادة ما يكون الرمز واحدًا مما يلي:

  • كلمة — على سبيل المثال، تتكون عبارة "كلاب مثل القطط" من ثلاث رموز مميزة: "كلاب" و"معجب" و "قطط".
  • حرف - على سبيل المثال، تتكون عبارة "سمكة دراجة" من تسعة رموز مميزة. (لاحظ أن المساحة الفارغة يتم احتسابها كأحد الرموز المميزة.)
  • الكلمات الفرعية - والتي يمكن أن تكون فيها الكلمة الواحدة رمزًا مميزًا واحدًا أو عدة رموز مميزة. تتألف الكلمة الفرعية من كلمة جذر أو بادئة أو لاحقة. على سبيل المثال، قد يعرض النموذج اللغوي الذي يستخدم كلمات فرعية كرموز مميزة كلمة "كلاب" كرمزين مميزين (كلمة الجذر "كلب" ولاحقة الجمع "s"). قد يعرض نموذج اللغة نفسه الكلمة المفردة "taller" (طول) ككلمتَين فرعيتَين (الكلمة الجذر "tall" واللاحقة "er").

في النطاقات خارج النماذج اللغوية، يمكن أن تمثل الرموز المميزة أنواعًا أخرى من الوحدات البسيطة. على سبيل المثال، في رؤية الكمبيوتر، قد يكون الرمز المميز مجموعة فرعية من الصورة.

tower

هو مكوّن من الشبكة العصبية العميقة التي هي في حد ذاتها شبكة عصبية عميقة. في بعض الحالات، يقرأ كل برج من مصدر بيانات مستقل، وتظل هذه الأبراج مستقلة حتى يتم دمج مخرجاتها في طبقة نهائية. وفي حالات أخرى، على سبيل المثال، في حزمة أو برج برنامج الترميز وبرنامج فك الترميز الذي يضم العديد من المحولات، تكون للأبراج اتصال متقاطع مع بعضها البعض.

TPU

#TensorFlow
#GoogleCloud

اختصار Tensor process Unit.

شريحة TPU

#TensorFlow
#GoogleCloud

مسرِّع جبر خطي قابل للبرمجة مزود بذاكرة ذات نطاق ترددي عالٍ على الرقاقة تم تحسينها لتتوافق مع أعباء عمل تعلُّم الآلة. تم نشر عدة شرائح TPU على جهاز TPU.

جهاز بولي يورثان متلدّن بالحرارة

#TensorFlow
#GoogleCloud

لوحة دارة مطبوعة (PCB) بها عدة شرائح TPU، وواجهات شبكة ذات معدل نقل بيانات عالي، وأجهزة تبريد النظام.

وحدة معالجة الموتّرات الرئيسية

#TensorFlow
#GoogleCloud

يشير ذلك المصطلح إلى عملية التنسيق المركزية التي يتم تشغيلها على جهاز مضيف يرسل البيانات والنتائج والبرامج والأداء ومعلومات سلامة النظام إلى العاملين في مجال معالجة الموتّرات. يدير مسؤول وحدة معالجة الموتّرات أيضًا عملية إعداد أجهزة TPU وإيقافها.

عقدة وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

يشير إلى مورد TPU على Google Cloud مع نوع TPU محدّد. تتصل عقدة TPU بشبكة VPC من شبكة VPC المشابهة. عُقد TPU هي مورد محدّد في Cloud TPU API.

كبسولة بولي يورثان متلدّن بالحرارة

#TensorFlow
#GoogleCloud

هي عملية ضبط محدّدة لأجهزة معالجة الموتّرات في مركز بيانات Google. يتم ربط جميع الأجهزة في حافظة TPU بعضها ببعض عبر شبكة مخصصة عالية السرعة. إنّ مجموعة TPU Pod هي أكبر إعدادات أجهزة TPU المتاحة لإصدار معيّن من وحدة معالجة الموتّرات.

مورد TPU

#TensorFlow
#GoogleCloud

وحدة معالجة الموتّرات (TPU) على Google Cloud التي تنشئها أو تديرها أو تستهلكها على سبيل المثال، عُقد TPU وأنواع TPU هي موارد TPU.

شريحة وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

شريحة TPU هي جزء كسري من أجهزة TPU في حافظة TPU. يتم ربط جميع الأجهزة في شريحة TPU ببعضها البعض عبر شبكة مخصصة عالية السرعة.

نوع وحدة معالجة الموتّرات

#TensorFlow
#GoogleCloud

تشير هذه السمة إلى ضبط جهاز واحد أو أكثر من أجهزة TPU مع إصدار محدّد من أجهزة TPU. يمكنك اختيار نوع وحدة معالجة الموتّرات عند إنشاء عقدة TPU على Google Cloud. على سبيل المثال، v2-8 نوع TPU هو جهاز واحد مزوّد بتقنية TPU v2 ويحتوي على 8 أنوية. يحتوي نوع وحدة معالجة الموتّرات v3-2048 على 256 جهاز TPU v3 متصل بالشبكة وإجمالي 2048 نواة. إنّ أنواع TPU هي مورد يتم تعريفه في Cloud TPU API.

عامل معالجة الموتّرات

#TensorFlow
#GoogleCloud

يشير ذلك المصطلح إلى عملية يتم تشغيلها على جهاز مضيف وتنفيذ برامج تعلُّم الآلة على أجهزة معالجة الموتّرات.

التدريب

#fundamentals

عملية تحديد المعلَمات المثالية (القيم التقديرية والانحيازات) التي تتألف من نموذج. أثناء التدريب، يقرأ النظام الأمثلة ويعدّل المَعلمات تدريجيًا. يستخدم التدريب كل مثال في أي مكان من بضع مرات إلى مليارات المرات.

خسارة التدريب

#fundamentals

مقياس يمثّل خسارة للنموذج خلال تكرار تدريبي معيّن. على سبيل المثال، لنفترض أن دالة الخسارة هي الخطأ التربيعي المتوسّط. ربما يكون خسارة التدريب (متوسط الخطأ التربيعي) للتكرار العاشر هو 2.2، وفقدان التدريب للتكرار 100 هو 1.9.

يعرض منحنى الخسارة خسارة التدريب مقابل عدد التكرارات. يوفر منحنى الخسارة التلميحات التالية حول التدريب:

  • يشير الانحدار لأسفل إلى أن النموذج يتحسن.
  • يشير الانحدار لأعلى إلى أنّ النموذج يزداد سوءًا.
  • يشير الانحدار المستقيم إلى أنّ النموذج قد وصل إلى التقارب.

على سبيل المثال، يُظهر منحنى الخسارة التالي المثالي إلى حد ما:

  • يشير ذلك المصطلح إلى انحدار حاد في النموذج أثناء التكرارات الأولية.
  • الانحدار التدريجي (ولكن لا يزال لأسفل) حتى الاقتراب من نهاية التدريب، ما يعني استمرار تحسين النموذج بوتيرة أبطأ إلى حد ما أثناء التكرارات الأولية.
  • منحدر مستوٍ نحو نهاية التدريب، مما يشير إلى التقارب.

مخطط خسارة التدريب مقابل التكرارات. يبدأ منحنى الخسارة هذا بمنحدر حاد لأسفل. ويصبح الانحدار مسطّحًا تدريجيًا إلى أن يصبح الانحدار صفرًا.

على الرغم من أهمية فقدان التدريب، يُرجى الاطّلاع أيضًا على التعميم.

انحراف عرض التدريب

#fundamentals

الفرق بين أداء النموذج أثناء التدريب وأداء النموذج نفسه أثناء العرض.

مجموعة تدريب

#fundamentals

المجموعة الفرعية من مجموعة البيانات المُستخدَمة لتدريب نموذج.

تقليديًا، يتم تقسيم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية الثلاث التالية:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة فرعية واحدة فقط سابقة. على سبيل المثال، لا ينبغي أن ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقق من الصحة.

المسار

#rl

في التعلُّم المعزّز، تمثّل هذه السمة سلسلة من الصفوف تمثل سلسلة من انتقالات الحالة لـ الوكيل، حيث يتوافق كل صف مع الحالة والإجراء والمكافأة والحالة التالية لانتقال حالة معيّنة.

التعلّم القائم على نقل البيانات

يشير ذلك المصطلح إلى نقل المعلومات من مهمة تعلُّم الآلة إلى أخرى. على سبيل المثال، في التعلّم المتعدّد المهام، يحلّ نموذج واحد عدة مهام، مثل نموذج عميق يحتوي على عُقد إخراج مختلفة للمهام المختلفة. قد يتضمن نقل التعلم نقل المعرفة من حل مهمة أبسط إلى حل أكثر تعقيدًا، أو يتضمن نقل المعرفة من مهمة يوجد بها المزيد من البيانات إلى حل حيث توجد بيانات أقل.

حلّ معظم أنظمة تعلُّم الآلة مهمة واحدة. تشكّل عملية نقل التعلّم خطوة صغيرة نحو الذكاء الاصطناعي، حيث يمكن لبرنامج واحد حلّ المهام المتعددة.

المحوّل

#language

يشير ذلك المصطلح إلى بنية للشبكة عصبية تم تطويرها في Google وتعتمد على آليات الانتباه الذاتي لتحويل سلسلة من إدخالات المدخلات إلى سلسلة من عمليات تضمين النتائج بدون الاعتماد على عمليات الالتفاف أو الشبكات العصبونية المتكررة. يمكن النظر إلى المحوِّل كحزمة من طبقات الانتباه الذاتي.

يمكن أن يتضمن المحوِّل أيًا مما يلي:

يحوّل برنامج الترميز سلسلة من التضمينات إلى تسلسل جديد بالطول نفسه. يشتمل برنامج التشفير على عدد N من الطبقات المتطابقة، تحتوي كل منها على طبقتين فرعيتين. يتم تطبيق هاتين الطبقتين الفرعيتين في كل موضع من موضع تسلسل تضمين الإدخال، ما يؤدي إلى تحويل كل عنصر من عناصر التسلسل إلى تضمين جديد. وتجمع الطبقة الفرعية الأولى لبرنامج الترميز المعلومات من كل تسلسل الإدخال. وتحول الطبقة الفرعية الثانية في برنامج الترميز المعلومات المجمعة إلى تضمين إخراج.

يحوّل برنامج فك الترميز سلسلة من تضمينات الإدخالات إلى سلسلة من تضمينات المخرجات، وقد يكون طولها مختلفًا. يشتمل برنامج فك الترميز أيضًا على N من الطبقات المتطابقة مع ثلاث طبقات فرعية، اثنتان منها تشبه الطبقات الفرعية لبرنامج الترميز. تأخذ الطبقة الفرعية الثالثة لبرنامج فك الترميز إخراج برنامج الترميز وتطبّق آلية الانتباه الذاتي لجمع المعلومات منها.

مقالة المدونة المحول: بنية الشبكة العصبية الجديدة لفهم اللغة توفر مقدمة جيدة حول المحولات.

الثبات الانتقالي

#image

في مشكلة تصنيف الصور، قدرة الخوارزمية على تصنيف الصور بنجاح حتى عندما يتغير موضع الأجسام داخل الصورة. على سبيل المثال، بإمكان الخوارزمية تحديد كلب، سواء كان في وسط الإطار أو في الطرف الأيسر من الإطار.

راجِع أيضًا ثابت الحجم والثبات الدوراني.

مثلث

#seq
#language

ن غرام يكون فيه N=3.

سالب صحيح (TN)

#fundamentals

يشير ذلك المصطلح إلى مثال يتوقّع فيه النموذج الفئة السالبة بشكل صحيح. على سبيل المثال، يستنتج النموذج أن رسالة إلكترونية معينة ليست رسالة غير مرغوب فيها وأن هذه الرسالة الإلكترونية ليست رسالة غير مرغوب فيها.

موجب صحيح (TP)

#fundamentals

يشير ذلك المصطلح إلى مثال يتوقّع فيه النموذج الفئة الموجبة بشكل صحيح. على سبيل المثال، يستنتج النموذج أن رسالة بريد إلكتروني معينة هي رسالة غير مرغوب فيها، وأن هذه الرسالة الإلكترونية هي حقًا رسالة غير مرغوب فيها.

معدّل الموجب الصحيح (TPR)

#fundamentals

مرادف الاستدعاء. والمقصود:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

المعدّل الموجب الصحيح هو المحور الصادي في منحنى RoC.

U

عدم الوعي (بسمة حساسة)

#fairness

يشير ذلك المصطلح إلى حالة تتوفّر فيها سمات حسّاسة، ولكن لا يتم تضمينها في بيانات التدريب. بما أنّ السمات الحساسة غالبًا ما ترتبط بسمات أخرى خاصة ببيانات الفرد، قد يُحدث نموذج تم تدريبه بدون الوعي بسمة حساسة تأثيرًا متفاوتًا في ما يتعلق بتلك السمة أو ينتهك قيود الإنصاف الأخرى.

فرط التعميم

#fundamentals

إنتاج model يتسم بقدرة تنبؤية ضعيفة لأنّ النموذج لم يلتقط بالكامل مدى تعقيد بيانات التدريب. يمكن أن تتسبب العديد من المشكلات في فرط التعميم، بما في ذلك:

التقليل من العيّنات

إزالة أمثلة من فئة الأغلبية من مجموعة بيانات غير متوازنة مع الفئات لإنشاء مجموعة تدريب أكثر توازنًا

على سبيل المثال، بالنظر إلى مجموعة بيانات تكون فيها نسبة الفئة الأعلى إلى فئة الأقل 20:1. للتغلب على عدم توازن الفئات هذه، يمكنك إنشاء مجموعة تدريب تتكون من جميع أمثلة فئة الأقليات ولكن فقط عاشر أمثلة الفئة الأكثرية، مما يؤدي إلى إنشاء نسبة 2:1 لفئة مجموعة التطبيق. بفضل التقليل من العيّنات، قد ينتج عن مجموعة التدريب الأكثر توازنًا هذه نموذجًا أفضل. وبدلاً من ذلك، قد تحتوي مجموعة التدريب الأكثر توازنًا على أمثلة غير كافية لتدريب نموذج فعال.

تباين الألوان مع زيادة حجم العينات.

أحادي الاتجاه

#language

يشير ذلك المصطلح إلى نظام يقيّم فقط النص الذي يسبق قسمًا مستهدَفًا من النص. وفي المقابل، يقيّم النظام الثنائي الاتجاه النص الذي يسبق قسمًا مستهدَفًا من النص ويتّبعه. اطّلِع على ثنائي الاتجاه لمعرفة المزيد من التفاصيل.

نموذج لغوي أحادي الاتجاه

#language

نموذج لغوي يستند احتمالاته فقط إلى الرموز المميّزة التي تظهر قبل الرموز المميّزة المستهدَفة، وليس بعدها. التباين مع النموذج اللغوي الثنائي الاتجاه.

مثال غير مصنَّف

#fundamentals

مثال يحتوي على ميزات بدون تصنيف على سبيل المثال، يعرض الجدول التالي ثلاثة أمثلة غير مصنفة من نموذج تقييم المنازل، لكل منها ثلاث ميزات ولكن بدون قيمة للشركة:

عدد غرف النوم عدد الحمّامات عمر المنزل
3 2 15
2 1 72
4 2 34

في تعلُّم الآلة الخاضع للإشراف، تتدرب النماذج على الأمثلة المصنَّفة وتقدّم توقّعات بشأن الأمثلة غير المصنَّفة.

في التعلُّم غير الخاضع للإشراف وغير الخاضع للإشراف، يتم استخدام أمثلة غير مصنَّفة أثناء التدريب.

قارِن المثال غير المصنَّف مع مثال مصنَّف.

التعلم الآلي غير المُوجّه

#clustering
#fundamentals

تدريب model للعثور على أنماط في مجموعة بيانات، وهي عادةً مجموعة بيانات غير مصنَّفة.

الاستخدام الأكثر شيوعًا لتعلّم الآلة غير الخاضع للإشراف هو تجميع البيانات في مجموعات من الأمثلة المتشابهة. على سبيل المثال، يمكن لخوارزمية التعلّم الآلي غير المُوجّه تجميع الأغاني بناءً على خصائص مختلفة للموسيقى. ويمكن أن تصبح المجموعات الناتجة مدخلاً إلى خوارزميات التعلم الآلي الأخرى (على سبيل المثال، لخدمة اقتراح الموسيقى). يمكن أن يكون التجميع العنقودي مفيدًا عندما تكون التصنيفات المفيدة قليلة أو غير موجودة. على سبيل المثال، في مجالات مثل مكافحة إساءة الاستخدام والاحتيال، يمكن أن تساعد المجموعات البشر على فهم البيانات بشكل أفضل.

التباين مع تعلُّم الآلة الخاضع للإشراف.

وضع نماذج للإحالات الناجحة

يشير ذلك المصطلح إلى أسلوب نمذجة يشيع استخدامه في التسويق، وهو يمثّل "التأثير السببي" (المعروف أيضًا باسم "التأثير المتزايد") لأي "علاج" على "فرد". وإليك مثالان:

  • قد يستخدم الأطباء نمذجة تحسين الأداء للتنبؤ بانخفاض عدد الوفيات (التأثير السببي) لإجراء طبي (العلاج) اعتمادًا على العمر والتاريخ الطبي للمريض (الفرد).
  • قد تستخدم جهات التسويق نماذج التحسين للتنبؤ بزيادة احتمالية إجراء عملية شراء (التأثير السببي) نتيجة إعلان (علاج) على شخص (فرد).

يختلف نمذجة التحسين عن التصنيف أو الانحدار في أنّ بعض التصنيفات (على سبيل المثال، نصف التصنيفات في العلاجات الثنائية) تكون مفقودة دائمًا في وضع نماذج التحسين. على سبيل المثال، يمكن للمريض تلقي العلاج أو عدم تلقيه، لذلك، يمكننا أن نلاحظ فقط ما إذا كان المريض على وشك الشفاء أم لن يتعافى في واحدة فقط من هاتين الحالتين (وليس كلتاهما). تتمثل الميزة الرئيسية لنموذج التحسين في أنه يمكنه إنشاء تنبؤات للوضع غير المرصود (العكس الواقعي) واستخدامه لحساب التأثير السببي.

زيادة الوزن

تطبيق قيمة ترجيحية على الفئة المستندة إلى عيّنات مأخوذة من عيّنات مساوٍ للعامل الذي استخدمته للأخذ في الاعتبار.

مصفوفة المستخدمين

#recsystems

في أنظمة الاقتراح، تمثّل هذه السمة متّجه تضمين يتم إنشاؤه من خلال تحليل عوامل المصفوفة والذي يحتوي على الإشارات الكامنة حول الإعدادات المفضّلة للمستخدم. يحتوي كل صف من مصفوفة المستخدمين على معلومات حول القوة النسبية لمختلف الإشارات الكامنة لمستخدم واحد. على سبيل المثال، ضع في اعتبارك نظام اقتراح الأفلام. في هذا النظام، قد تمثّل الإشارات الكامنة في مصفوفة المستخدم اهتمام كل مستخدم بأنواع معيّنة، أو قد تكون إشارات يصعب تفسيرها وتتضمن تفاعلات معقدة على مستوى عدة عوامل.

تحتوي مصفوفة المستخدمين على عمود لكل ميزة كاتمة وصف لكل مستخدم. وهذا يعني أن مصفوفة المستخدم لها نفس عدد الصفوف مثل المصفوفة المستهدفة التي يتم تحليلها إلى عوامل. على سبيل المثال، إذا كان نظام توصية الأفلام يضم 1,000,000 مستخدم، سيكون لدى مصفوفة المستخدمين 1,000,000 صف.

V

التحقّق من الصحة

#fundamentals

التقييم الأولي لجودة أحد النماذج. تتحقّق عملية التحقّق من جودة توقّعات النموذج في مقابل مجموعة التحقّق.

ولأنّ مجموعة التحقق من الصحة تختلف عن مجموعة التدريب، يساعد التحقق في الحماية من الإفراط في التوافق.

قد تفكر في تقييم النموذج مقابل مجموعة التحقق من الصحة باعتباره الجولة الأولى من الاختبار وتقييم النموذج مقابل مجموعة الاختبار كجولة ثانية من الاختبار.

فقدان التحقّق

#fundamentals

مقياس يمثّل خسارة للنموذج في مجموعة التحقّق خلال تكرار معيّن من التدريب.

اطّلِع أيضًا على منحنى التعميم.

مجموعة التحقق من الصحة

#fundamentals

المجموعة الفرعية من مجموعة البيانات التي تُجري تقييمًا أوّليًا مقابل نموذج مدرَّب. يتم عادةً تقييم النموذج المُدرَّب مقابل مجموعة التحقّق عدة مرات قبل تقييم النموذج وفقًا لمجموعة الاختبار.

تقليديا، تقوم بتقسيم الأمثلة في مجموعة البيانات إلى المجموعات الفرعية الثلاث التالية:

من الناحية المثالية، يجب أن ينتمي كل مثال في مجموعة البيانات إلى مجموعة فرعية واحدة فقط سابقة. على سبيل المثال، لا ينبغي أن ينتمي مثال واحد إلى كل من مجموعة التدريب ومجموعة التحقق من الصحة.

احتساب القيمة

يشير ذلك المصطلح إلى عملية استبدال قيمة غير متوفّرة ببديل مقبول. عندما تكون إحدى القيم مفقودة، يمكنك إما تجاهل المثال بأكمله أو يمكنك استخدام حساب القيمة لاسترداد المثال.

على سبيل المثال، إليك مجموعة بيانات تحتوي على ميزة temperature من المفترض أن يتم تسجيلها كل ساعة. ومع ذلك، لم تكن قراءة درجة الحرارة متاحة لساعة معينة. فيما يلي قسم من مجموعة البيانات:

الطابع الزمني درجة الحرارة
1680561000 10
1680564600 12
1680568200 غير متاحة
1680571800 20
1680575400 21
1680579000 21

يمكن للنظام حذف المثال الناقص أو احتساب درجة الحرارة الناقصة على 12 أو 16 أو 18 أو 20 اعتمادًا على خوارزمية الاحتساب.

مشكلة التدرج المتلاشٍ

#seq

ميل تدرّجات الطبقات المخفية المبكرة من بعض الشبكات العصبونية العميقة إلى أن تصبح مسطحة بشكلٍ مدهش (منخفضة). ينتج عن انخفاض التدرجات بشكل متزايد تغييرات أصغر على الأوزان على العقد في الشبكة العصبية العميقة، مما يؤدي إلى التعلم بقليل أو عدم التعلم. ويصبح تدريب النماذج التي تعاني من مشكلة التدرج المتلاشٍ صعبًا أو مستحيلاً. تعالج خلايا الذاكرة القصيرة المدى هذه المشكلة.

المقارنة مع مشكلة التدرج المتفجر.

الأهمية المتغيرة

#df

مجموعة من النتائج التي تشير إلى الأهمية النسبية لكل ميزة بالنسبة إلى النموذج.

على سبيل المثال، جرّب شجرة القرار التي تقدّر أسعار المساكن. لنفترض أن شجرة القرار هذه تستخدم ثلاث ميزات: الحجم والعمر والأسلوب. إذا تم حساب مجموعة من الأهمية المتغيرة للميزات الثلاث على أنها {size=5.8, age=2.5, style=4.7}، فإن الحجم أكثر أهمية لشجرة القرار من العمر أو النمط.

توجد مقاييس مختلفة للأهمية المتغيرة، والتي يمكن أن تُعلم خبراء تعلُّم الآلة بالجوانب المختلفة للنماذج.

برنامج الترميز التلقائي المتغير (VAE)

#language

يشير ذلك المصطلح إلى نوع من برامج الترميز التلقائي يستفيد من التناقض بين الإدخالات والمخرجات لإنشاء نُسخ معدَّلة من تلك الإدخالات. تُعدّ برامج الترميز التلقائي المتنوّعة مفيدة للذكاء الاصطناعي التوليدي.

تستند قيم VAE إلى الاستنتاج المتباين: وهو أسلوب لتقدير معاملات نموذج الاحتمال.

المتّجه

عبارة تحميل زائدة جدًّا ويختلف معناها عبر مختلف المجالات الرياضية والعلمية. في التعلم الآلي، يكون للمتجه خاصيتان:

  • نوع البيانات: عادةً ما تحتوي المتجهات في التعلم الآلي على أرقام النقطة العائمة.
  • عدد العناصر: عبارة عن طول المتّجه أو بُعده.

على سبيل المثال، ضع في الاعتبار متّجه الميزة الذي يحتوي على ثمانية أرقام عائمة. طول الخط المتجه هذا أو أبعاده ثمانية. لاحظ أن متجهات التعلم الآلي غالبًا ما يكون لها عدد كبير من الأبعاد.

يمكنك تمثيل العديد من أنواع المعلومات المختلفة كمتجه. مثلاً:

  • يمكن تمثيل أي موضع على سطح الأرض كمتجه ثنائي الأبعاد، حيث يمثل أحد البعد خط العرض والآخر هو خط الطول.
  • يمكن تمثيل الأسعار الحالية لكل سهم من 500 سهم كمتّجه 500 بُعد.
  • يمكن تمثيل توزيع الاحتمالية على عدد محدود من الفئات كمتجه. على سبيل المثال، يمكن أن يؤدي نظام التصنيف المتعدّد الفئات الذي يتوقّع لونًا من ثلاثة ألوان للمخرجات (أحمر أو أخضر أو أصفر) إلى إخراج الخط المتجه (0.3, 0.2, 0.5) بما يعني P[red]=0.3, P[green]=0.2, P[yellow]=0.5.

يمكن إجراء تسلسل للمتجهات؛ وبالتالي، يمكن تمثيل مجموعة متنوعة من الوسائط المختلفة كمتجه واحد. تعمل بعض النماذج مباشرةً على سلسلة من ترميزات واحدة سريعة.

تم تحسين المعالجات المتخصّصة مثل وحدات معالجة الموتّرات لتنفيذ العمليات الحسابية على المتجهات.

المتجه هو tensor للمقياس الترتيب 1.

واط

خسارة "فاسرشتاين"

إحدى دوال الخسارة الشائعة الاستخدام في الشبكات الخادعة التوليدية استنادًا إلى المسافة بين محرِّك الأرض بين توزيع البيانات التي تم إنشاؤها والبيانات الحقيقية.

الوزن

#fundamentals

يشير ذلك المصطلح إلى قيمة يضربها نموذج في قيمة أخرى. التدريب هي عملية تحديد القيم التقديرية المثالية للنموذج، بينما الاستنتاج هو عملية استخدام قيم الترجيحات التي تم تعلّمها لتقديم التوقّعات.

المربّعات الصغرى البديلة المرجحة (WALS)

#recsystems

يشير ذلك المصطلح إلى خوارزمية لخفض الدالة الموضوعية أثناء تحليل عوامل المصفوفة في أنظمة التوصية، ما يسمح بتقليل أهمية الأمثلة غير المتوفّرة. تقلل WALS الخطأ التربيعي الموزون بين المصفوفة الأصلية وإعادة البناء بالتناوب بين إصلاح تحليل الصف إلى عوامله وتحليل الأعمدة. يمكن حلّ كل من هذه التحسينات باستخدام المربعات الصغرى تحسين المقياس المحدب. لمزيد من التفاصيل، يُرجى الاطّلاع على الدورة التدريبية لأنظمة الاقتراح.

المجموع المرجح

#fundamentals

مجموع كل قيم الإدخال ذات الصلة مضروبة في ترجيحاتها المقابلة. على سبيل المثال، لنفترض أن المدخلات ذات الصلة تتكون مما يلي:

القيمة التي تم إدخالها وزن الإدخال
2 1.3-
-1 0.6
3 0.4

وبالتالي، يكون المجموع المرجح:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

المجموع المرجح هو وسيطة الإدخال دالة تفعيل.

نموذج واسع

نموذج خطي يتضمّن عادةً العديد من ميزات الإدخال العشوائية. ونشير إلى النموذج باسم "واسع" لأنّ هذا النموذج هو نوع خاص من الشبكة العصبونية التي تتضمّن عددًا كبيرًا من الإدخالات التي تتصل مباشرةً بعقدة الإخراج. غالبًا ما تكون النماذج العريضة أسهل في تصحيح الأخطاء وفحصها مقارنةً بالنماذج التفصيلية. وعلمًا أنّ النماذج الواسعة لا يمكنها التعبير عن القيم غير الخطية من خلال الطبقات المخفية، يمكن للنماذج الواسعة استخدام عمليات التحويل مثل دمج الميزات والتجميع لوضع نماذج للقيم غير الخطية بطرق مختلفة.

تباين مع النموذج العميق.

العرض

عدد الخلايا العصبية في طبقة معينة من الشبكة العصبونية.

حكمة الجمهور

#df

إن فكرة أن متوسط آراء أو تقديرات مجموعة كبيرة من الأشخاص ("الحشد") غالبًا ما ينتج عنه نتائج جيدة بشكل مدهش. على سبيل المثال، ضع في اعتبارك لعبة يخمّن فيها الأشخاص عدد حبوب الهلام المعبأة في وعاء كبير. وبالرغم من أن معظم التخمينات الفردية غير دقيقة، فإن متوسط جميع التخمينات قد ثبت بشكل تجريبي أنه قريب من العدد الفعلي لحبوب الهلام في إناء.

Ensembles هي نسخة برمجية تناظرية لحكمة الحشود. حتى إذا كانت النماذج الفردية تطرح توقّعات غير دقيقة إلى حد كبير، غالبًا ما يؤدي تقدير متوسط التوقّعات للعديد من النماذج إلى توقّعات جيدة على نحو مدهش. على سبيل المثال، على الرغم من أنّ شجرة القرار الفردية قد تتوقّع توقّعات سيئة، إلا أنّ غابة القرار تُقدّم توقّعات جيدة جدًا في أغلب الأحيان.

تضمين الكلمات

#language

تمثيل كل كلمة في مجموعة كلمات ضمن متّجه تضمين، أي تمثيل كل كلمة كمتّجه لقيم النقطة العائمة بين 0.0 و1.0 الكلمات ذات المعاني المتشابهة لها تمثيلات أكثر تشابهًا من الكلمات ذات المعاني المختلفة. على سبيل المثال، سيكون لكل من الجزر والكرفس والخيار تمثيلات متشابهة نسبيًا، حيث قد تكون مختلفة جدًا عن أشكال الطائرة والنظارات الشمسية ومعجون الأسنان.

X

XLA (الجبر الخطي المسرّع)

هو برنامج تجميع مفتوح المصدر لتعلُّم الآلة لوحدات معالجة الرسومات ووحدات المعالجة المركزية (CPU) ومسرِّعات تعلُّم الآلة.

يستخدم برنامج التحويل البرمجي XLA نماذج من أُطر عمل تعلُّم الآلة الشائعة، مثل PyTorch وTensorFlow وJAX، كما يُحسِّنها لتنفيذها العالي الأداء على منصات مختلفة للأجهزة، بما في ذلك وحدات معالجة الرسومات ووحدة المعالجة المركزية مسرِّعات تعلُّم الآلة.

Z

التعلّم القائم على المشاريع

يشير ذلك المصطلح إلى نوع من تدريب تعلُّم الآلة يستنتج فيه النموذج توقّعًا لمهمة لم يتم التدريب عليها في السابق. بعبارة أخرى، لا يتم تقديم أمثلة تدريبية خاصة بالنموذج، ولكن طُلب منه الاستنتاج لتلك المهمة.

طلب بدون لقطة

#language
#GenerativeAI

طلب لا يقدّم مثالاً على الطريقة التي تريد أن يستجيب بها النموذج اللغوي الكبير مثلاً:

أجزاء من طلب واحد Notes
ما هي العملة الرسمية للبلد المحدّد؟ السؤال الذي تريد أن يجيب عليه النموذج اللغوي الكبير
الهند: الاستعلام الفعلي.

وقد يستجيب النموذج اللغوي الكبير بأي مما يلي:

  • روبية
  • INR
  • الروبية الهندية
  • الروبية
  • الروبية الهندية

كل الإجابات صحيحة، على الرغم من أنك قد تفضل تنسيقًا معينًا.

حدِّد أوجه التشابه والاختلاف بين الطلب بدون لقطة مع المصطلحات التالية:

تسوية الدرجة المعيارية

#fundamentals

يشير ذلك المصطلح إلى أسلوب تحجيم يستبدل قيمة الميزة الأولية بقيمة نقطة عائمة تمثّل عدد الانحرافات المعيارية عن القيمة المتوسطة لهذه الميزة. على سبيل المثال، بالنظر إلى ميزة متوسطها 800 وانحرافها القياسي 100. يوضح الجدول التالي كيف ستقوم تسوية الدرجة القياسية بتعيين القيمة الأولية إلى درجة Z:

قيمة أساسية الدرجة المعيارية
800 0
950 +1.5
575 -2.25

يتدرب نموذج التعلم الآلي بعد ذلك على درجات Z لهذه الميزة بدلاً من القيم الأولية.