معرفی و دانلود کتاب داده‌های بزرگ

عکس جلد کتاب داده‌های بزرگ
قیمت:
۱۲۵,۰۰۰ تومان
۵۰٪ تخفیف اولین خرید با کد welcome

برای دانلود قانونی کتاب داده‌های بزرگ و دسترسی به هزاران کتاب و کتاب صوتی دیگر، اپلیکیشن کتابراه را رایگان نصب کنید.

برای دانلود قانونی کتاب داده‌های بزرگ و دسترسی به هزاران کتاب و کتاب صوتی دیگر، اپلیکیشن کتابراه را رایگان نصب کنید.

معرفی کتاب داده‌های بزرگ

علی متین وفا و رضا متین وفا در کتاب داده‌های بزرگ، راهنمایی جامع برای معرفی داده‌های کلان و نقش آن‌ها در تحلیل‌شناسی نوین پرداخته‌اند. آن‌ها با بررسی نمونه‌های کاربردی و همچنین معرفی مزایا و معایب ابزارهای رایج در این حوزه، نشان داده‌اند که دنیای مدرن تا چه اندازه به تحلیل داده‌هایی وابسته است که به صورت تصاعدی در حال افزایش هستند.

درباره‌ی کتاب داده‌های بزرگ

هر ردپایی که در فضای مجازی برجای می‌گذاریم، بخش کوچکی از داده‌های عظیمی را می‌سازد که امروزه تاثیر زیادی بر توسعه‌ی کسب و کارها و نحوه‌ی تصمیم‌گیری‌ها خواهند گذاشت. در کتاب داده‌های بزرگ، با تالیف و ترجمه‌ی علی متین وفا و رضا متین وفا، با دنیای کلان داده‌ها و ابزارهایی مانند MapReduce و Hadoop آشنا خواهید شد و درمی‌یابید چگونه شرکت‌های بزرگی مانند آمازون و ای‌بی کوچک‌ترین اطلاعات مشتریانشان مانند هر جست‌وجو، بازدید محصول یا حتی هر کلیکی که صورت می‌گیرد را ثبت و تحلیل می‌کنند تا ارزش بازدید کاربر را به حداکثر برسانند.

در کتاب داده‌های بزرگ می‌بینیم که جمع‌آوری کلان‌داده‌ها تنها به حوزه‌ی مارکتینگ محدود نمی‌شود، بلکه ستاره‌شناسی، فیزیک هسته‌ای و حتی نظارت نظامی هم به آن‌ها وابسته است. علی و رضا متین وفا با به کار بردن نمونه‌های کاربردی در میان بحث‌ها، تلاش کرده‌اند تا مخاطبشان را با کاربردهای داده‌های بزرگ آشنا کنند.

کتاب داده‌های بزرگ از تعریف این داده‌ها و عناصر سازنده‌ی آن‌ها شروع می‌شود و پس از آن فناوری‌های کلیدی مانند MapReduce و Hadoop معرفی می‌شوند. مولفان نشان می‌دهند که SQL تنها ابزار ممکن برای تحلیل داده نیست. در بخش‌های بعدی به ارتباط میان داده‌های بزرگ و نحوه‌ی طبقه‌بندی آن‌ها پرداخته شده و در بخش پایانی، علی متین وفا و رضا متین وفا وارد دنیای تحلیل‌شناسی جریانی می‌شوند؛ جایی که تفاوت تحلیل دائمی و جریانی، پردازش رویداد بحرانی و کاوش جریان داده بررسی شده و کاربردهای آن در حوزه‌هایی چون تجارت الکترونیکی، مخابرات، امنیت سایبری، انرژی، خدمات مالی، بهداشت و دولت تشریح می‌شود.

کتاب داده‌های بزرگ به همت انتشارات وینا به چاپ رسیده است.

کتاب داده‌های بزرگ برای شما مناسب است اگر

  • در سمت مدیریت و تصمیم‌گیری برای یک کسب و کار قرار دارید و می‌خواهید بدانید داده‌های بزرگ چه مسائلی را برایتان حل می‌کند.
  • تحلیلگر داده یا دانشجوی حوزه‌ی داده هستید و نیاز دارید با مفاهیم پایه، فناوری‌ها و رویکردهای تحلیلی آشنا شوید.
  • در حوزه‌ی معماری فناوری اطلاعات و حوزه‌های صنعتی و دولتی فعالیت می‌کنید و می‌خواهید تاثیر استفاده از راهبردهای مختلف در تحلیل داده را در صنعت خود درک کنید.

در بخشی از کتاب داده‌های بزرگ می‌خوانیم

یک کلاینت از منابعی شامل فایل‌های ثبت، فیدهای رسانه‌های اجتماعی و مخازن داده داخلی به داده‌های بدون ساختار و نیمه ساختاریافته دسترسی پیدا می‌کند. Hadoop داده‌ها را به «بخش‌هایی» تقسیم می‌کند که سپس در یک سیستم فایل بارگذاری می‌شوند که از چندین گره تشکیل شده است که روی سخت‌افزار متداول اجرا می‌شوند. مخزن فایل پیش‌فرض در Hadoop سیستم فایل توزیع‌شده Hadoop یا HDFS، است. سیستم‌های فایل از قبیل HDFS در ذخیره‌سازی حجم‌های بزرگی از داده‌های بدون ساختار و نیمه ساختاریافته ماهر هستند زیرا این سیستم‌ها به این نیاز ندارند که داده‌ها در سطرها و ستون‌های رابطه‌ای سازماندهی شوند. هر «بخش» چند مرتبه تکرار شده و در سیستم فایل بارگذاری می‌شود تا چنانچه گرهی از کار بیفتد، گره دیگر یک کپی از داده‌های موجود در گره از کار افتاده را داشته باشد. یک Name Node به‌عنوان هماهنگ‌کننده عمل کرده، اطلاعاتی از قبیل این که کدام گره‌ها موجود هستند، داده‌های خاصی در کجای خوشه قرار دارند و کدام گره‌ها از کار افتاده‌اند را به کلاینت منتقل می‌کند.

هنگامی‌که داده‌ها در خوشه بارگذاری می‌شوند، داده‌ها از طریق چارچوب MapReduce آماده تحلیل می‌شوند. کلاینت یک کار «نقشه (Map)» - که معمولاً یک پرس‌وجوی نوشته شده به Java است- را به یکی از گره‌ها در خوشه‌ای موسوم به Job Tracker ارائه می‌کند. Job Tracker برای تعیین این که جهت کامل کردن کار باید به کدام داده‌ها دسترسی داشته باشد و این داده‌ها در خوشه در کجا قرار دارند به گره Name Node مراجعه می‌کند. پس از تعیین، Job Tracker پرس‌وجو را به گره‌های مرتبط ارائه می‌کند. به جای آوردن تمام داده‌ها به یک مکان مرکزی برای پردازش، پردازش به‌طور همزمان در هر گره یا به‌صورت موازی، اتفاق می‌افتد. این یک ویژگی ضروری Hadoop است.

فهرست مطالب کتاب

فصل 1: تعریف داده‌های بزرگ
"V"هایی که داده‌های بزرگ را تعریف می‌کنند
فصل 2: مبانی تحلیل‌شناسی داده‌های بزرگ
مسائل کسب‌وکار‌ی که تحلیل‌شناسی داده‌های بزرگ آن‌ها را مرتفع می‌سازد
فصل 3: فناوری‌های داده‌های بزرگ
MapReduce
چرا از MapReduce استفاده کنیم؟
Hadoop
Hadoop چگونه کار می‌کند؟
اجزای فنی Hadoop
Hadoop: مزایا و معایب
NoSQL
فصل 4: داده‌های بزرگ و انبارش داده
موارد استفاده Hadoop
موارد استفاده از انبارش داده‌ها
حوزه‌های خاکستری (هر یک از این دو کار را انجام میدهند)
هم‌زیستی Hadoop و انبار داده
فصل 5: فروشندگان و پلت‌فرم‌های داده‌های بزرگ
IBM InfoSphere BigInsights
Teradata Aster
فصل 6: داده‌های بزرگ و تحلیل‌شناسی جریانی
تحلیل‌شناسی جریانی در مقابل تحلیل‌شناسی دائمی
پردازش رویداد بحرانی
کاوش جریان داده
فصل 7: کاربردهای تحلیل‌شناسی جریانی
تجارت الکترونیکی
مخابرات
اجرای قانون و امنیت سایبری
صنعت برق
خدمات مالی
خدمات بهداشتی
دولت
منابع و مأخذ

مشخصات کتاب الکترونیک

نام کتابکتاب داده‌های بزرگ
نویسنده،
ناشر چاپیانتشارات وینا
سال انتشار۱۴۰۰
فرمت کتابEPUB
تعداد صفحات94
زبانفارسی
شابک978-964-8816-86-0
موضوع کتابکتاب‌های پایگاه داده
قیمت نسخه الکترونیک

نقد، بررسی و نظرات کتاب داده‌های بزرگ

هیچ نظری برای این کتاب ثبت نشده است.

راهنمای مطالعه کتاب داده‌های بزرگ

برای دریافت کتاب داده‌های بزرگ و دسترسی به هزاران کتاب الکترونیک و کتاب صوتی دیگر و همچنین مطالعه معرفی کتاب‌ها و نظرات کاربران درباره کتاب‌ها لازم است اپلیکیشن کتابراه را نصب کنید.

کتاب‌ها در اپلیکیشن کتابراه با فرمت‌های epub یا pdf و یا mp3 عرضه می‌شوند.

👋 سوالی دارید؟