المصطلحات الأساسية في الذكاء الاصطناعي

الذكاء الإصطناعي و الذكاء الإصطناعي العام

أصبح مصطلح الذكاء الاصطناعي (Ai) يستخدم في وسائل الإعلام بشكل إستهلاكي لوصف اي نوع تقريبا من الحوسبة التحليلية و الأتوميشن (Automation). و لتجنب الارتباك ، يفضل الخبراء التقنيون في مجال الذكاء الاصطناعي استخدام مصطلح الذكاء الاصطناعي العام (AGI) للإشارة إلى الأجهزة ذات الذكاء البشري أو ذكاء عالي ، القادرة على إستيعاب المفاهيم بعد  خبرة محدودة ونقل المعرفة بين المجالات المختلفة. يُطلق على الذكاء الاصطناعي العام (AGI) أيضًا اسم الذكاء الاصطناعي القوي (Strong AI)  للتمييز عن الذكاء الاصطناعي الضعيف (Weak AI) أو الذكاء الاصطناعي الضيق (Narrow AI) ، الذي يشير إلى الأنظمة المصممة لمهمة معينة والتي لا يمكن نقل إمكانياتها بسهولة إلى أنظمة أخرى.

على الرغم من أن Deep Blue ، الذي فاز على بطل العالم في لعبة الشطرنج في عام 1997 ، و AlphaGo ، التي فعلت الشيء نفسه في لعبة Go في عام 2016 ، حققت نتائج رائعة ، فإن جميع أنظمة الذكاء الاصطناعي التي نمتلكها اليوم هي أنظمة ذكاء الاصطناعي ضعيف (Weak AI). يمكن أن تهزم البرامج البشر في مهام محددة ، ولكن لا يمكنهم تطبيق هذه الخبرة على مهام أخرى ، مثل قيادة السيارات أو إنشاء الفن. يتطلب حل المهام خارج النطاق الأصلي للبرنامج بناء برامج إضافية ضيقة أخرى.

قال يان لوكون (Yann LeCun)  ، رئيس قسم الذكاء الاصطناعي في فيسبوك ، في مقابلة مع The Verge: “نحن بعيدون جدًا عن امتلاك آلات يمكنها تعلم أبسط الأشياء حول العالم بالطريقة التي يتعلم بها البشر والحيوانات. في مجالات محدودة فالألات  تتميز بأداء خارق مقارنة بالبشر ، ولكن فيما يتعلق بالذكاء العام ، فنحن لسنا قريبين من الفئران “. بالإضافة إلى ذلك ، فإن الطريق نحو الذكاء الاصطناعي العام (AGI) غير واضح أيضًا. إن الأساليب التي تعمل بشكل جيد لحل المشكلات الضيقة لا تعمم جيدًا في مهام مثل التفكير المجرد ، وصياغة المفاهيم ، والتخطيط الاستراتيجي – القدرات التي يمتلكها حتى الأطفال الصغار ولكن أجهزة الكمبيوتر الخاصة بنا لا تمتلكها.

تقنيات الذكاء الاصطناعي الحديثة

غالبًا ما يُطلب منا شرح الاختلافات الرئيسية بين التعلم الآلة (machine learning)  وعلوم البيانات (data science)  والذكاء الاصطناعي (AI) والتعلم العميق (deep learning) وما إلى ذلك. كل هذه أمثلة على ذكاء الآلة (machine intelligence) ، ولكنها تختلف في استخدامها وتأثيرها المحتمل.

بشكل عام ، تستخدم معظم التقنيات على مستوى الشركات التقنية مجموعة واسعة من منهجيات الأتمتة (automation methodologies,) ، ولكن لا يتم اعتبارها كلها ذكاء اصطناعي. يمكن أن يكون التمييز بين الأساليب التي تكون من الذكاء الاصطناعي وتلك التي لا تكون صعبة ، وغالبًا ما يكون هناك تداخل. ستجد أن الطرق الأبسط غالبًا ما تتفوق على الطرق المعقدة في الحياة الواقعية ، حتى لو كانت أقل تقدمًا من الناحية الفكرية.

على الرغم من أن الذكاء الاصطناعي يشير إلى مجموعة كبيرة من التقنيات الحسابية ، إلا أن حلول الذكاء الاصطناعي الحديثة الأكثر نجاحًا يتم دعمها بواسطة خوارزميات التعلم الآلي.

الإحصاء وتعدين البيانات

الإحصائيات (Statistics)

هي المجال المعني بجمع وتحليل ووصف وتصور ورسم الاستدلالات من البيانات. ينصب تركيزها على وصف خصائص مجموعة البيانات والعلاقات الموجودة بين نقاط البيانات. لا تعتبر الإحصاءات بشكل عام جزءًا من الذكاء الاصطناعي ، ولكن العديد من التقنيات الإحصائية تشكل الأساس لتقنيات التعلم الآلي الأكثر تقدمًا أو يتم استخدامها جنبًا إلى جنب معها.

الإحصائيات الوصفية (Descriptive statistics)

تصف أو تصور الميزات الأساسية للبيانات قيد الدراسة. يمكن أن يكون أحد التطبيقات البسيطة هو العثور على عنصر البيع بالتجزئة الأكثر مبيعًا في متجر في فترة زمنية محددة.

الإحصاءات الاستدلالية (Inferential statistics)

 يتم استخدامها لاستخلاص النتائج التي تنطبق على أكثر من مجرد البيانات التي تتم دراستها. يعد ذلك ضروريًا عندما يجب إجراء التحليل على مجموعة بيانات تمثيلية محدودة من مجموعة بيانات أكبر يصعب دراستها إما لحجمها الضخم أو بسبب تعقيدها. نظرًا لأن التحليل يتم على مجموعة فرعية من إجمالي البيانات ، فإن الاستنتاجات التي يمكن الوصول إليها باستخدام الإحصائيات الاستدلالية ليست دقيقة بنسبة 100% أبدًا ، بل هي رهانات احتمالية فقط. يعتمد الاقتراع الانتخابي ، على سبيل المثال ، على مسح نسبة صغيرة من المواطنين لقياس مشاعر جميع السكان. كما رأينا خلال دورة الانتخابات الأمريكية لعام 2016 ، قد لا تعكس الاستنتاجات المستخلصة من العينات الواقع!

تعدين البيانات (Data mining)

 هو أتمتة (automation) التحليل الإحصائي الاستكشافي على قواعد البيانات واسعة النطاق ، على الرغم من أن المصطلح غالبًا ما يستخدم لوصف أي نوع من تحليل البيانات الخوارزمية ومعالجة المعلومات ، والتي قد تشمل أيضًا التعلم الآلي وتقنيات التعلم العميق. الهدف من تعدين البيانات هو استخراج الأنماط والمعرفة من مجموعات البيانات واسعة النطاق (large-scale datasets) بحيث يمكن إعادة تشكيلها في هيكل أكثر قابلية للفهم لتحليله لاحقًا.

أنظمة الرموز والخبراء

الأنظمة الرمزية (Symbolic systems)

 هي برامج تستخدم رموزًا مفهومة من قبل الإنسان لتمثيل المشكلات والمنطق. أنجح شكل من أشكال الأنظمة الرمزية هو النظام الخبير(expert system) ، الذي يحاكي عملية صنع القرار من قبل الخبراء البشريين. تتكون الأنظمة الخبيرة من سلسلة من قواعد الإنتاج ، على غرار عبارات if-then ، التي تحكم كيفية وصول البرنامج إلى قاعدة المعرفة وإجراء الاستدلالات.

الأنظمة الخبيرة المستندة إلى القواعد (Rule-based expert systems) تعتبر أكثر فعالية عند تطبيقها على العمليات الحسابية الآلية والعمليات المنطقية حيث تكون القواعد والنتائج واضحة نسبيًا. عندما يصبح صنع القرار أكثر تعقيدًا أو اختلافًا في الدقة تصبح عملية بناء القواعد للوصول إلى المعرفة المطلوبة والخطط اللازمة لاتخاذ قرارات على مستوى الإنسان أمرًا مستحيلاً.

يجب تصميم محرك القواعد وقاعدة المعرفة لأي نظام خبير يدويًا بواسطة خبراء المجال. هذا عيب كبير بسبب العدد المحدود من الخبراء الذين يمكنهم أداء المهمة والوقت اللازم لبرمجة مثل هذا النظام المعقد. إن “اكتمال” قاعدة المعرفة أمر مشكوك فيه وسيتطلب صيانة مستمرة (عيب كبير آخر يتطلب نفقات هائلة) ، ودقة النظام تعتمد بشكل مفرط على آراء الخبراء التي قد تكون خاطئة. في حين أن الأنظمة الرمزية ليست قابلة للتطوير أو قابلة للتكيف تاريخياً ، فقد بحثت الأبحاث الحديثة دمجها مع طرق أحدث مثل التعلم الآلي والتعلم العميق لتحسين الأداء.

التعلم الالي

ماذا يحدث إذا كنت تريد تعليم الكمبيوتر القيام بمهمة ، ولكنك لست متأكدًا تمامًا من كيفية القيام بذلك بنفسك؟ ماذا لو كانت المشكلة معقدة للغاية بحيث يستحيل عليك ترميز جميع القواعد والمعرفة مقدمًا؟

يمكّن التعلم الآلي أجهزة الكمبيوتر من التعلم دون أن تتم برمجتها بشكل صريح. إنه مجال في علوم الكمبيوتر مبني فوق الإحصاءات الحسابية و تعدين البيانات.

التعلم الخاضع للإشراف (Supervised learning)

 يحدث عندما يتم إعطاء الكمبيوتر بيانات تدريب مصنفة ، والتي تتكون من إدخالات ومخرجات مقترنة (على سبيل المثال صورة قطة مصنفة  بشكل صحيح “قطة”) ، وتتعلم الخوارزميات القواعد العامة التي يمكن أن تحدد المدخلات الجديدة للمخرجات الصحيحة. يستخدم التعلم تحت الإشراف بشكل شائع في التصنيف ، حيث تنقسم المدخلات إلى فئات مخرجات منفصلة وغير مرتبة ، و مسائل للانحدار (Regression Problems) ، حيث يتم استخدام المدخلات للتنبؤ أو تقدير المخرجات ذات القيم العددية (numeric values) . إذا كنت تحاول التنبؤ بما إذا كانت الصورة لقط أو كلب ، فهذه مشكلة تصنيف مع تصنيفات متعددة. إذا كنت تحاول التنبؤ بقيمة السعر للسهم أو بعض الأصول الأخرى ، فيمكن وصف ذلك على أنه مشكلة انحدار مع مخرجات المستمرة (continuous outputs) .

التعلم بدون إشراف (Unsupervised learning)

  يحدث  عندما تُعطى أجهزة الكمبيوتر بيانات غير منظمة بدلاً من البيانات المصنفة ، أي لا توجد أزواج من المدخلات والمخرجات ، ويُطلب منها اكتشاف الهياكل والأنماط المتأصلة التي تقع داخل البيانات. أحد التطبيقات الشائعة للتعلم بدون إشراف هو التجميع (clustering) ، حيث يتم تقسيم بيانات الإدخال إلى مجموعات مختلفة بناءً على مقياس “التشابه”. على سبيل المثال ، قد ترغب في تجميع أصدقائك على LinkedIn أو Facebook في مجموعات اجتماعية بناءً على مدى ارتباطهم بكل منهم على عكس التعلم الخاضع للإشراف ، لا تُعرف المجموعات مسبقًا ، وستؤدي مقاييس التشابه المختلفة إلى نتائج مختلفة.

التعلم شبه الخاضع للإشراف (clustering)

  يكمن  بين التعلم الخاضع للإشراف و بدون إشراف. تحتوي العديد من مجموعات بيانات في العالم الحقيقي على تسميات صاخبة أو غير صحيحة أو مفقودة بالكامل ، مما يعني أن المدخلات والمخرجات تقترن بشكل غير صحيح مع بعضها البعض أو لا يتم إقرانها على الإطلاق. التعلم النشط (Active learning) ، وهو حالة خاصة من التعلم شبه الخاضع للإشراف ، يحدث عندما تستعلم الخوارزمية المستخدم بشكل مستمر لاكتشاف الناتج أو المسمسى المناسب لمدخل جديد. يتم استخدام التعلم النشط لتحسين أنظمة التوصيات (recommendation systems) ، مثل تلك المستخدمة لتوصية الأفلام على Netflix أو المنتجات على Amazon.

التعلم المعزز (Reinforcement learning)

 هو التعلم من خلال التجربة والخطأ ، حيث يتم توجيه برنامج الكمبيوتر لتحقيق هدف معلن في بيئة ديناميكية. يتعلم البرنامج من خلال اتخاذ إجراءات متكررة ، وقياس ردود الفعل من تلك الإجراءات ، وتحسين سياستها السلوكية بشكل متكرر. يمكن تطبيق التعلم المعزز بنجاح على اللعب ، والتحكم الآلي ، وغيرها من المشكلات المحددة والمحددة بشكل جيد. إنها أقل فعالية مع وجود مشاكل معقدة وغامضة حيث لا يتم فهم أو تحديد المكافآت والبيئات جيدًا.

التعلم العميق

التعلم العميق (Deep learning)

 هو مجال فرعي لتعلم الآلة حيث تبنى الخوارزميات باستخدام الشبكات العصبية الاصطناعية متعددة الطبقات ، وهي هياكل رياضية مستوحاة بشكل فضفاض من طريقة عمل الخلايا العصبية البيولوجية. تم اختراع الشبكات العصبية في الخمسينيات من القرن العشرين ، لكن التطورات الحديثة في القوة الحسابية وتصميم الخوارزميات – بالإضافة إلى نمو البيانات الضخمة – مكنت خوارزميات التعلم العميق من الاقتراب من الأداء على المستوى البشري في مهام مثل التعرف على الكلام وتصنيف الصور. مكّن التعلم العميق ، جنبًا إلى جنب مع التعلم المعزز ، AlphaGo من Google DeepMind من هزيمة أبطال العالم من Go في عام 2016 ، وهو إنجاز اعتبره العديد من الخبراء مستحيلًا من الناحية الحسابية.

تم تركيز الكثير من اهتمام وسائل الإعلام على التعلم العميق ، ونفذ عدد متزايد من شركات التكنولوجيا المتطورة بنجاح التعلم العميق للمنتجات على مستوى المؤسسة. استبدلت Google الأساليب الإحصائية السابقة للترجمة الآلية بشبكات عصبية لتحقيق أداء فائق. أعلنت Microsoft في عام 2017 أنها حققت التكافؤ البشري في التعرف على الكلام التحادثي. تستخدم الشركات الناشئة الواعدة للرؤية مثل Clarifai التعلم العميق لتحقيق الحالة أحدث النتائج في التعرف على الأشياء في الصور والفيديو لعلامات التجارية.

بينما تتفوق نماذج التعلم العميقة على نُهج التعلم الآلي القديمة للعديد من المشكلات ، إلا أنها أكثر صعوبة في التطوير لأنها تتطلب تدريبًا قويًا لمجموعات البيانات وخبرة متخصصة في تقنيات التحسين. يتطلب أيضًا تشغيل النماذج وإنتاجها للاستخدام على مستوى الشركات خبرة فنية مختلفة ولكن يصعب الحصول عليها بنفس القدر. من الناحية العملية ، يمكن أن يؤدي استخدام أساليب أبسط للذكاء الاصطناعي مثل تقنيات التعلم الآلي القديمة وغير العميقة إلى تحقيق نتائج أسرع وأفضل من الشبكات العصبية الهائلة. بدلاً من إنشاء حلول التعلم العميق المخصصة ، تختار العديد من الشركات حلول التعلم الآلي كخدمة (Machine Learning as a Service (MLaaS)) من Google أو Amazon أو IBM أو Microsoft أو الشركات الرائدة في مجال الذكاء الاصطناعي.

يعاني التعلم العميق أيضًا من العوائق الفنية. تتطلب النماذج الناجحة عادةً حجمًا كبيرًا من البيانات ذات العلامات الموثوقة. كما أنها تتطلب قوة حوسبة كبيرة ومتخصصة في شكل وحدات معالجة رسومية (GPUs) أو بدائل GPU مثل وحدات معالجة التنسور (TPUs) من غوغل. بعد النشر ، تتطلب أيضًا تدريبًا وتحديثًا مستمرين للحفاظ على الأداء.

يشير منتقدو التعلم العميق إلى أن الأطفال الصغار يحتاجون فقط إلى رؤية بعض الأمثلة على شيء ما لتكوين مفهوم عقلي ، في حين تحتاج خوارزميات التعلم العميق إلى رؤية الآلاف من الأمثلة لتحقيق دقة معقولة. حتى ذلك الحين ، لا يزال بإمكانهم ارتكاب أخطاء مضحكة.

البرمجة الإحتمالية

البرمجة الاحتمالية (Probabilistic Programming)

 تتيح لنا  إنشاء أنظمة تعليمية تتخذ قرارات في مواجهة عدم اليقين من خلال استدلالات من المعرفة السابقة. وفقًا لـ Avi Pfeffer في كتابه (Practical Probabilistic Programming) ، النموذج يتم تم إنشاء  في البداية لالتقاط المعرفة بالمجال المستهدف بأوصاف كمية واحتمالية.  و بعد تدريبه ، يتم تطبيق النموذج على أدلة محددة لتوليد إجابة على استفسار أكثر تحديدًا في عملية تسمى الاستدلال (inference).

في حين أن أبحاث و تطبيقات البرمجة الإحتمالية في أيامها الأولى ، يرى العديد من الخبراء أنها تعتبر نهج بديل في المجالات التي يكون فيها التعلم العميق ضعيفًا ، مثل صياغة المفاهيم باستخدام بيانات متفرقة أو متوسطة الحجم. تم استخدام البرامج الاحتمالية بنجاح في تطبيقات مثل التصوير الطبي وإدراك الآلة والتنبؤات المالية والتنبؤات الاقتصادية والجوية.

أساليب الذكاء الإصطناعي الأخرى

هناك العديد من الأساليب الأخرى للذكاء الاصطناعي التي يمكن استخدامها بمفردها أو بالاشتراك مع التعلم الآلي والتعلم العميق لتحسين الأداء. الأساليب المجمعه (Ensemble methods) ، على سبيل المثال ، تجمع بين نماذج التعلم الآلي المختلفة أو تمزج نماذج التعلم العميق مع النماذج القائمة على القواعد. تستخدم معظم التطبيقات الناجحة للتعلم الآلي لمشاكل المؤسسات أساليب المجموعات (Ensemble methods)  لتحقيق نتائج أفضل من أي نموذج فردي.

هناك أربع فئات عريضة من التجميع: التضمين (bagging) ، والتعزيز(boosting) ، والتكديس (stacking)، والدمج (bucketing). يستلزم التضمين تدريب نفس الخوارزمية على مجموعات فرعية مختلفة من البيانات وتتضمن خوارزميات شائعة مثل مجموعة التفرعات العشوائية (random forest). يتضمن التعزيز تدريب سلسلة من النماذج ، حيث يعطي كل نموذج الأولوية للتعلم من الأمثلة التي فشل عليها النموذج السابق. في التكديس ، تجمع نتائج العديد من النماذج. في الدمج ، تقوم بتدريب نماذج متعددة لمشكلة معينة واختيار أفضل نموذج لكل إدخال محدد.

يتم استخدام تقنيات أخرى ، مثل الخوارزميات التطورية والجينية  (evolutionary and genetic algorithms) ، و التي تستخدم في للتصميم التوليدي بالاقتران مع الشبكات العصبية لتحسين التعلم. نهج مثل تحميل الدماغ الكامل (Whole Brain Uploading (WBE)) ، والمعروفة أيضًا باسم “تحميل العقل” ، تسعى لتكرار الذكاء على مستوى الإنسان في الأجهزة عن طريق رقمنة العقول البشرية بالكامل. ومع ذلك ، تسعى طرق أخرى إلى الابتكار على مستوى الأجهزة من خلال الاستفادة من الحوسبة البصرية (optical computing) ، الحوسبة الكمومية (quantum computing) ، أو واجهات الإنسان والآلة (Human-machine interfaces) لتسريع أو زيادة الأساليب الحالية.

المراجع

https://goo.gl/RtDL5.

http://en.wikipedia.org/wiki/Symbolic_artificial_intelligence

https://research.googleblog.com/2016/09/a-neural-network-for-machine.html

http://blog.clarifai.com/customer-case-studies

http://probcomp.org/reading-list/

http://en.wikipedia.org/wiki/Optical_computing

http://en.wikipedia.org/wiki/Quantum_computing

إضافة تعليق