مجله علمی تفریحی بیبیس
0

دانلود کتاب نقشه برداری جریان داده در کارخانه داده Azure – ساخت پروژه های مقیاس پذیر ETL در Microsoft Cloud

بازدید 528
  • عنوان کتاب: Mapping Data Flows in Azure Data Factory
  • نویسنده: Mark-Kromer
  • سال انتشار: 2022
  • حوزه: Microsoft Azure
  • تعداد صفحه: 204
  • زبان اصلی: انگلیسی
  • نوع فایل: pdf
  • حجم فایل: 10.0 مگابایت

فرآیند ETL (استخراج، تبدیل، بارگذاری) برای چندین دهه سنگ بنای انبارهای داده، بازارهای داده و هوش تجاری بوده است. ETL روشی است که مهندسان داده به طور سنتی داده‌های خام را در تجزیه و تحلیل کسب‌وکار پالایش می‌کنند که کسب‌وکار را برای تصمیم‌گیری بهتر راهنمایی می‌کند. این پروژه‌ها به مهندسان این امکان را داده است که کتابخانه‌هایی از فرآیندها و شیوه‌های رایج ETL را از انبارهای داده داخلی سنتی ایجاد کنند، معمولاً با داده‌هایی که از پایگاه‌های داده Oracle، Microsoft، IBM، یا Sybase یا برنامه‌های کاربردی ERP/CRM تجاری مانند Salesforce می‌آیند. SAP، Dynamics، و غیره. با این حال، در دهه گذشته، صنعت ما شاهد مهاجرت این حجم های کاری تحلیلی به ابر با سرعت بسیار بالایی بوده است.
برای همگام شدن با این تغییرات، مجبور شدیم تکنیک‌های ETL را طوری تنظیم کنیم که داده‌های متنوع‌تر و بزرگ‌تر را در نظر بگیرد. انقلاب کلان داده و مهاجرت ابر ما را وادار کرده است که در بسیاری از الگوهای اثبات شده ETL خود تجدید نظر کنیم تا چالش ها و خواسته های تبدیل داده های مدرن را برآورده کنیم. امروزه، اکثریت قریب به اتفاق داده‌هایی که پردازش می‌کنیم، عمدتاً در فضای ابری وجود دارد. و این داده‌ها ممکن است همیشه توسط فرآیندهای تجاری سفت و سخت به روشی که فرآیندهای قبلی ETL ما می‌توانستند بر آن تکیه کنند، کنترل و مدیریت نمی‌شوند.
سناریوهای رایج پردازش طرحواره های سخت شده شناخته شده از صادرات SAP و CSV اکنون ظاهر و چالش جدیدی خواهند داشت. منابع داده احتمالاً از نظر شکل، اندازه و دامنه روز به روز متفاوت خواهند بود. ما باید برای تغییر طرحواره، جابجایی داده ها و سایر موانع احتمالی برای پالایش داده ها به گونه ای که داده ها را به تجزیه و تحلیل تجاری تصفیه شده تبدیل کند، حساب کنیم.

The ETL (extract, transform, load) process has been a cornerstone of data warehouses, data marts, and business intelligence for decades. ETL is how data engineers have traditionally refined raw data into business analytics that guide the business to make better decisions. These projects have allowed engineers to build up libraries of common ETL processes and practices from traditional on-premises data warehouses over the years, very commonly with data coming from Oracle, Microsoft, IBM, or Sybase databases or business ERP/CRM applications like Salesforce, SAP, Dynamics, etc. However, over the past decade, our industry has seen these analytical workloads migrate to the cloud at a very rapid pace.

To keep up with these changes, we’ve had to adjust ETL techniques to account for more varied and larger data. The big data revolution and cloud migrations have forced us to rethink many of our proven ETL patterns to meet modern data transformation challenges and demands. Today, the vast majority of data that we process exists primarily in the cloud. And that data may not always be governed and curated by rigid business processes in the way that our previous ETL processes could rely on.

The common scenarios of processing well-known hardened schemas from SAP and CSV exports will now have a new look and challenge. The data sources will likely vary in shape, size, and scope from day to day. We need to account for schema drift, data drift, and other possible obstructions to refining data in a way that turns the data into refined business analytics.

این کتاب را میتوانید از لینک زیر بصورت رایگان دانلود کنید:

Download: Mapping Data Flows in Azure Data Factory

بیبیس برچسب‌ها:

نظرات کاربران

  •  چنانچه دیدگاه شما توهین آمیز باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه تبلیغاتی داشته باشد تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

بیشتر بخوانید