مجله علمی تفریحی بیبیس
0

دانلود کتاب روش های حداقل واگرایی در یادگیری ماشین آماری

بازدید 901
  • عنوان کتاب: Minimum Divergence Methods in Statistical Machine Learning
  • نویسنده: Shinto Eguchi
  • حوزه: یادگیری ماشین
  • سال انتشار: 2022
  • تعداد صفحه: 224
  • زبان اصلی: انگلیسی
  • نوع فایل: pdf
  • حجم فایل: 4.71 مگابایت

این کتاب حداقل روش‌های واگرایی یادگیری ماشین آماری را برای تخمین، رگرسیون، پیش‌بینی و غیره بررسی می‌کند، که در آن ما در هندسه اطلاعات شرکت می‌کنیم تا ویژگی‌های ذاتی آن‌ها از توابع از دست دادن مربوطه، الگوریتم‌های یادگیری و مدل‌های آماری را روشن کنیم. یکی از ابتدایی‌ترین مثال‌ها برآوردگر حداقل مربعات گاوس در مدل رگرسیون خطی است که در آن برآوردگر با کمینه‌سازی مجموع مربع‌های بین بردار پاسخ و بردار زیرفضای خطی که توسط بردارهای توضیحی پوسته شده است، به دست می‌آید. این به تخمین‌گر حداکثر احتمال فیشر (MLE) برای یک مدل نمایی گسترش می‌یابد، که در آن برآوردگر با کمینه‌سازی واگرایی Kullback-Leibler (KL) بین توزیع داده و توزیع پارامتری مدل نمایی در یک آنالوگ تجربی ارائه می‌شود. بنابراین، ما یک تفسیر هندسی از چنین روش‌های کمینه‌سازی را در نظر می‌گیریم، به طوری که یک مثلث قائم‌الزاویه با هویت فیثاغورثی به معنای واگرایی KL حفظ می‌شود. این درک یک تعامل دوگانه بین یک تخمین آماری و مدل را تعالی می بخشد، که به مسیرهای ژئودزیکی دوگانه به نام مسیرهای m-geodesic و e-geodesic در چارچوبی از هندسه اطلاعات نیاز دارد. ما چنین ساختار دوگانه ای از MLE و مدل نمایی را به تخمینگر واگرایی حداقل و مدل آنتروپی حداکثر گسترش می دهیم، که برای آمارهای قوی، حداکثر آنتروپی، تخمین چگالی، تجزیه و تحلیل مؤلفه اصلی، تجزیه و تحلیل مؤلفه های مستقل، تحلیل رگرسیون، یادگیری چندگانه اعمال می شود. تقویت الگوریتم، خوشه‌بندی، رژیم‌های درمان پویا، و غیره. یک واگرایی اطلاعاتی به آنتروپی متقاطع و آنتروپی (مورب) تجزیه می شود که در آن آنتروپی با یک مدل مولد به عنوان خانواده ای از حداکثر توزیع های آنتروپی مرتبط است. آنتروپی متقابل با روش تخمین آماری از طریق به حداقل رساندن آنالوگ تجربی بر اساس داده‌های داده شده مرتبط است. بنابراین هر واگرایی آماری شامل یک شی ذاتی بین مدل تولیدی و روش تخمین است. به طور معمول، واگرایی KL منجر به مدل نمایی و برآورد حداکثر احتمال می شود. نشان داده شده است که هر گونه واگرایی اطلاعاتی منجر به یک متریک ریمانی و یک جفت اتصال خطی در چارچوب هندسه اطلاعات می شود.

This book explores minimum divergence methods of statistical machine learning for estimation, regression, prediction, and so forth, in which we engage in information geometry to elucidate their intrinsic properties of the corresponding loss functions, learning algorithms, and statistical models. One of the most elementary examples is Gauss’s least squares estimator in a linear regression model, in which the estimator is given by minimization of the sum of squares between a response vector and a vector of the linear subspace hulled by explanatory vectors. This is extended to Fisher’s Maximum Likelihood Estimator (MLE) for an exponential model, in which the estimator is provided by minimization of the Kullback-Leibler (KL) divergence between a data distribution and a parametric distribution of the exponential model in an empirical analogue. Thus, we envisage a geometric interpretation of such minimization procedures such that a right triangle is kept with Pythagorean identity in the sense of the KL divergence. This understanding sublimates a dualistic interplay between a statistical estimation and model, which requires a dual-geodesic paths called m-geodesic and e-geodesic paths, in a framework of information geometry. We extend such a dualistic structure of the MLE and exponential model to that of theminimum divergence estimator and themaximum entropy model,which is applied to robust statistics, maximum entropy, density estimation, principal component analysis, independent component analysis, regression analysis, manifold learning, boosting algorithm, clustering, dynamic treatment regimes, and so forth.We consider a variety of information divergence measures typically including KL divergence to express departure from one probability distribution to another. An information divergence is decomposed into the cross-entropy and the (diagonal) entropy in which the entropy associates with a generative model as a family of maximum entropy distributions; the cross-entropy associates with a statistical estimation method via minimization of the empirical analogue based on given data. Thus any statistical divergence includes an intrinsic object between the generative model and the estimation method. Typically, KL divergence leads to the exponential model and the maximum likelihood estimation. It is shown that any information divergence leads to a Riemannian metric and a pair of the linear connections in the framework of information geometry.

این کتاب را میتوانید از لینک زیر بصورت رایگان دانلود کنید:

Download: Minimum Divergence Methods in Statistical Machine Learning

نظرات کاربران

  •  چنانچه دیدگاه شما توهین آمیز باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه تبلیغاتی داشته باشد تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

بیشتر بخوانید