- عنوان کتاب: Pretrain Vision and Large Language Models in Python
- نویسنده: Emily Webber
- حوزه: مدل زبانی
- سال انتشار: 2023
- تعداد صفحه: 475
- زبان اصلی: انگلیسی
- نوع فایل: pdf
- حجم فایل: 10.3 مگابایت
بنابراین، می خواهید با مدل های فونداسیون کار کنید؟ این یک مکان عالی برای شروع است! بسیاری از ما در جامعه یادگیری ماشینی، این موجودات کنجکاو را برای سالها دنبال کردهایم. جهان امروز اما مدل های فونداسیون از کجا می آیند؟ چگونه کار می کنند؟ چه چیزی باعث می شود که آنها را تیک بزنند، و چه زمانی باید آنها را از قبل تمرین و تنظیم کنید؟ چگونه می توانید دستاوردهای عملکردی را در مجموعه داده ها و برنامه های کاربردی خود بدست آورید؟ چند تا شتاب دهنده نیاز دارید؟ یک برنامه انتها به انتها چگونه به نظر می رسد و چگونه می توانید از مدل های پایه برای تسلط بر این موج جدید علاقه به هوش مصنوعی مولد استفاده کنید؟ این صفحات امیدوارند به این سوالات بسیار مهم پاسخ دهند. همانطور که بدون شک می دانید، سرعت نوآوری در این فضا واقعاً نفس گیر است، با مدل های پایه بیشتری هر روز از فروشندگان مدل های منبع باز و اختصاصی آنلاین. برای دست و پنجه نرم کردن با این واقعیت، من سعی کرده ام بر روی مهمترین مبانی مفهومی در سراسر کتاب تمرکز کنم. این بدان معناست که مطالعه دقیق شما در اینجا باید حداقل برای چند سال آینده نتیجه دهد. از نظر کاربردهای عملی و راهنمایی، من به شدت بر گزینه های محاسبات ابری در دسترس از طریق AWS و به خصوص Amazon SageMaker تمرکز کرده ام. من بیش از پنج سال گذشته را با خوشحالی در AWS گذراندم و از به اشتراک گذاشتن همه دانش و تجربیاتم با شما لذت می برم! لطفاً توجه داشته باشید که تمام افکار و نظرات به اشتراک گذاشته شده در این کتاب متعلق به من است و بیانگر نظرات آمازون نیست. فصل های بعدی بر مفاهیم تمرکز دارند، نه کد. این به این دلیل است که نرم افزار به سرعت تغییر می کند، در حالی که تغییرات اساسی بسیار آهسته است. پیوندهای کتاب را به منابع اصلی من برای همه موضوعات کلیدی ذکر شده در این پانزده فصل در مخزن همراه با کتاب پیدا خواهید کرد، که می توانید فوراً از آنها استفاده کنید تا به همه چیزهایی که در اینجا یاد می گیرید دسترسی پیدا کنید. از 1 ژوئیه 2023، همچنین مجموعهای از نمونههای پیشآموزشی و تنظیم دقیق را در مخزن خواهید دید که واقعاً تمام موضوعات را تکمیل میکند. شاید باور این موضوع برای شما سخت باشد، اما در اوایل بیست سالگی من در واقع برنامهنویسی نمیکردم: زندگی یک رهبان بودایی را بررسی میکردم. من پنج سال را در یک مرکز استراحت مراقبه در آریزونا زندگی کردم، موسسه گارچن. در این مدت، یاد گرفتم که چگونه مراقبه کنم، ذهنم را متمرکز کنم، احساساتم را تماشا کنم و عادات با فضیلت ایجاد کنم. بعد از سالها بعد از مدرک کارشناسی ارشد در دانشگاه شیکاگو، و اکنون در آمازون، می توانم ببینم که این ویژگی ها در دنیای امروز نیز بسیار مفید هستند! این را ذکر می کنم تا دلتان بیاید. یادگیری ماشینی، هوش مصنوعی، محاسبات ابری، اقتصاد، توسعه اپلیکیشن، هیچ یک از این موضوعات ساده نیستند. اما اگر خودتان را به کار ببندید، اگر واقعاً ذهن خود را برای در نظر گرفتن پایههای اصلی موضوعات مورد نظر کشیده باشید، اگر دوباره و دوباره به چالش برگردید، واقعاً کاری وجود ندارد که نتوانید انجام دهید. این زیبایی انسانیت است! و اگر یک یوگی مراقبه مستقیماً از سکوت عمیق یک کلبه خلوتگاهی بتواند در نهایت یاد بگیرد که برای پیشآموزش و تنظیم مدلهای فونداسیون چه چیزی لازم است، پس شما هم میتوانید!
So, you want to work with foundation models? That is an excellent place to begin! Many of us in the machine learning community have followed these curious creatures for years, from their earliest onset in the first days of the Transformer models, to their expansion in computer vision, to the near ubiquitous presence of text generation and interactive dialogue we see in the world today. But where do foundation models come from? How do they work? What makes them tick, and when should you pretrain and fine-tune them? How can you eke out performance gains on your datasets and applications? How many accelerators do you need? What does an end-to-end application look like, and how can you use foundation models to master this new surge of interest in generative AI? These pages hope to provide answers to these very important questions. As you are no doubt aware, the pace of innovation in this space is truly breathtaking, with more foundation models coming online every day from both open-source and proprietary model vendors. To grapple with this reality, I’ve tried to focus on the most important conceptual fundamentals throughout the book. This means your careful study here should pay off for at least a few more years ahead. In terms of practical applications and guidance, I’ve overwhelmingly focused on cloud computing options available through AWS and especially Amazon SageMaker. I’ve spent more than the last five years very happily at AWS and enjoy sharing all of my knowledge and experience with you! Please do note that all thoughts and opinions shared in this book are my own, and do not represent those of Amazon’s. The following chapters focus on concepts, not code. This is because software changes rapidly, while fundamentals change very slowly. You’ll find in the repository with the book links to my go-to resources for all of the key topics mentioned throughout these fifteen chapters, which you can use right away to get hands-on with everything you’re learning here. Starting July 1, 2023, you’ll also find in the repository a set of new pretraining and fine-tuning examples from yours truly to complete all of the topics. You might find this hard to believe, but in my early twenties I wasn’t actually coding: I was exploring the life of a Buddhist monastic. I spent five years living at a meditation retreat center in Arizona, the Garchen Institute. During this time, I learned how to meditate, focus my mind, watch my emotions and develop virtuous habits. After my master’s degree at the University of Chicago years later, and now at Amazon, I can see that these traits are extremely useful in today’s world as well! I mention this so that you can take heart. Machine learning, artificial intelligence, cloud computing, economics, application development, none of these topics are straightforward. But if you apply yourself, if you really stretch your mind to consider the core foundations of the topics at hand, if you keep yourself coming back to the challenge again and again, there’s truly nothing you can’t do. That is the beauty of humanity! And if a meditating yogi straight from the deep silence of a retreat hut can eventually learn what it takes to pretrain and fine-tune foundation models, then so can you!
این کتاب را میتوانید بصورت رایگان از لینک زیر دانلود نمایید.
Download: Pretrain Vision and Large Language Models in Python
نظرات کاربران