مجله علمی تفریحی بیبیس
0

دانلود کتاب بهینه‌سازی بدون مشتق – مبانی نظری، الگوریتم‌ها و کاربردها

  • عنوان کتاب: Derivative-Free Optimization -Theoretical Foundations, Algorithms, and Applications
  • نویسنده: Yang Yu · Hong Qian · Yi-Qi Hu
  • حوزه: نظریه ریاضی
  • سال انتشار: 2025
  • تعداد صفحه: 194
  • زبان اصلی: انگلیسی
  • نوع فایل: pdf
  • حجم فایل: 6.40 مگابایت

پیگیری حل مسائل بهینه‌سازی از دیرباز سنگ بنای علوم کامپیوتر و هوش مصنوعی بوده است. در حالی که الگوریتم‌های تخصصی متناسب با مسائل خاص توسعه یافته‌اند، ظهور قابل توجهی از روش‌های بهینه‌سازی عمومی نیز مشاهده شده است. این روش‌ها، از جمله جستجوی تصادفی، شبیه‌سازی تبرید و الگوریتم‌های تکاملی، اغلب بر اساس اصول اکتشافی ساخته می‌شوند. در نتیجه، خواص آنها عمدتاً از طریق مطالعات تجربی بررسی می‌شود و درک نظری جامع هنوز تا حد زیادی دور از دسترس است.

یانگ یو، نویسنده اول این تک‌نگاری، پیش از این کتابی با عنوان «یادگیری تکاملی: پیشرفت در نظریه‌ها و الگوریتم‌ها» را با پروفسور ژی-هوا ژو و چائو کیان به طور مشترک نوشته است که در سال ۲۰۱۹ توسط انتشارات اشپرینگر منتشر شد. در آن اثر، تمرکز نظری اصلی بر تحلیل زمان اجرا بود که زمان و پیچیدگی نمونه مورد نیاز برای یافتن یک راه‌حل بهینه را ارزیابی می‌کند. متعاقباً، یانگ به کاوش در مبانی نظری جایگزین برای روش‌های بهینه‌سازی عمومی، که مکمل نظریه‌های جاافتاده یادگیری ماشین هستند، علاقه نشان داد. با توجه به اینکه یادگیری ماشینی توسط یک چارچوب آماری محکم پشتیبانی می‌شود، طبیعتاً این سوال مطرح می‌شود: آیا می‌توانیم از منظر آماری، یک پایه نظری قوی مشابه برای روش‌های بهینه‌سازی ایجاد کنیم؟ به طور خاص، چنین نظریه‌ای می‌تواند توضیح دهد که چگونه این روش‌های بهینه‌سازی، راه‌حل‌های بهینه را تقریب می‌زنند.

با همکاری نویسنده دوم، هونگ چیان، که دانشجوی دکترای یانگ در سال ۲۰۱۳ بود، یک چارچوب اولیه توسعه داده شد. در ابتدا، این چارچوب برای برآورده کردن برخی از خواسته‌های نظری طراحی شد. به طور شگفت‌آوری، الگوریتم حاصل، عملکرد عملی رقابتی را نیز در برابر برخی از روش‌های پیشرفته نشان داد. نویسنده سوم، یی-کی هو، که در سال ۲۰۱۵ دانشجوی دکترای یانگ شد، به تلاش برای اصلاح و گسترش بیشتر چارچوب و بهبود الگوریتم پیوست. این مونوگراف، مروری جامع بر تحقیقات نویسندگان ارائه می‌دهد که شامل توسعه چارچوب، طراحی الگوریتم و کاربردهای عملی است.

این مونوگراف به چهار بخش تقسیم شده است. بخش اول به طور خلاصه بهینه‌سازی بدون مشتق را در زمینه یادگیری ماشینی معرفی می‌کند. بخش دوم، چارچوب بهینه‌سازی مبتنی بر طبقه‌بندی را به همراه الگوریتم پایه آن ارائه می‌دهد. برای مقابله با چالش‌های عملی مانند اجرای متوالی، ابعاد بالا، ارزیابی‌های نویزی و اجرای موازی در مقیاس بزرگ، بخش سوم چندین نوع از الگوریتم پایه را معرفی می‌کند. این بخش همچنین شامل مقدمه‌ای بر ZOOpt، یک جعبه ابزار بهینه‌سازی عمومی ساخته شده بر اساس الگوریتم‌های بهینه‌سازی مبتنی بر طبقه‌بندی، است. بخش چهارم، کاربردهای مختلف بهینه‌سازی مبتنی بر طبقه‌بندی را در زمینه یادگیری ماشین خودکار، از جمله انتخاب فراپارامتر، انتخاب الگوریتم و جستجوی معماری عصبی، نشان می‌دهد.

نویسندگان از صمیم قلب از خانواده، دوستان و همکاران خود به خاطر حمایت و کمک‌های بی‌دریغشان قدردانی می‌کنند.

The pursuit of solving optimization problems has long been a cornerstone in the realms of computer science and artificial intelligence. While specialized algorithms tailored to specific problems have been developed, there has also been a signifi-cant emergence of general-purpose optimization methods. These methods, including random search, simulated annealing, and evolutionary algorithms, are often crafted based on heuristic principles. Consequently, their properties are predominantly explored through empirical studies, with a comprehensive theoretical understanding still largely out of reach.
Yang Yu, the first author of this monograph, previously co-authored a book entitled Evolutionary Learning: Advances in Theories and Algorithms with Prof. Zhi-Hua Zhou and Chao Qian, which was published by Springer in 2019. In that work, the central theoretical focus was on running time analysis, which evaluates the time and sample complexity required to find an optimal solution. Subsequently, Yang devel-oped an interest in exploring alternative theoretical foundations for general-purpose optimization methods, complementing the well-established theories of machine learning. Given that machine learning is underpinned by a solid statistical frame-work, it naturally raises the question: can we establish a similarly strong theoret-ical foundation for optimization methods from a statistical perspective? Specifically, such a theory could elucidate how these optimization methods approximate optimal solutions.
Collaborating with the second author, Hong Qian, who was Yang’s Ph.D. student in 2013, a preliminary framework was developed. Initially, this framework was designed to meet certain theoretical desiderata. Surprisingly, the resulting algorithm also demonstrated competitive practical performance against some state-of-the-art methods. The third author, Yi-Qi Hu, who became Yang’s Ph.D. student in 2015, joined the effort to further refine and extend the framework and enhance the algo-rithm. This monograph provides a comprehensive overview of the authors’ research, encompassing the development of the framework, algorithm design, and practical applications.
The monograph is structured into four parts. Part I briefly introduces derivative-free optimization within the context of machine learning. Part II presents the classification-based optimization framework along with its basic algorithm. To tackle practical challenges such as sequential execution, high-dimensionality, noisy evalu-ations, and large-scale parallel execution, Part III introduces several variants of the basic algorithm. This part also includes an introduction to ZOOpt, a general opti-mization toolbox built on classification-based optimization algorithms. Part IV show-cases various applications of classification-based optimization in the field of auto-matic machine learning, including hyper-parameter selection, algorithm selection, and neural architecture search.
The authors extend their heartfelt gratitude to their families, friends, and collaborators for their unwavering support and contributions.

این کتاب را میتوانید از لینک زیر بصورت رایگان دانلود کنید:

Download: Derivative-Free Optimization

نظرات کاربران

  •  چنانچه دیدگاه شما توهین آمیز باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه تبلیغاتی داشته باشد تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بیشتر بخوانید

X
آموزش نقاشی سیاه قلم کانال ایتا