داده های عظیم، ابر داده، بزرگداده یا داده های بزرگ (Big Data) اصطلاحی است که به مجموعه داده هایی اطلاق میشود که مدیریت، کنترل و پردازش آنها فراتر از توانایی ابزارهای نرمافزاری در یک زمان قابل تحمل و مورد انتظار است. مقیاس بزرگ داده، به طور مداوم در حال رشد از محدوده چند ۱۰ ترابایت به چندین پتابایت، در یک مجموعه داده واحد است. نـمونههایی از بزرگ داده، گــزارش های وبی، سامانه های بازشناسی با امواج رادیویی، شبکههای حسگر، شبکههای اجتماعی، متون و اسناد اینترنتی، نمایههای جستجوهای اینترنتی، نجوم، مدارک پزشکی، آرشیو عکس، آرشیو ویدیو، پژوهشهای زمینشناسی و تجارت در مقیاس بزرگ هستند.
در دوره آموزشی Machine Learning A-Z™: Hands-On Python & R In Data Science به طور کامل با یادگیری ماشین و آشنایی با پایتون و آر در علوم داده آشنا می شوید.
یادگیری ماشینی (Machine learning) به بررسی روش هایی می پردازد که به رایانه ها امکان استفاده از داده ها و یاد گیری از آن ها برای بهبود عملکردهای مختلف را می دهد. هدف یادگیری ماشینی این است که کامپیوتر (در کلیترین مفهوم آن) بتواند به تدریج و با افزایش دادهها بازدهی بالاتری در وظیفهٔ مورد نظر پیدا کند. نمونه هایی از کاربردهای یادگیری ماشین می تواند الگوریتم های تشخیص چهره، جداسازی هرزنامه و بازشناسی گفتار می باشد.