در نظریه یادگیری محاسباتی، یادگیری احتمالاً تقریباً صحیح (یادگیری PAC) چارچوبی ست برای تحلیل ریاضی یادگیری ماشین که در سال ۱۹۸۴ توسط لسلی والینت پیشنهاد شد.
یادگیری ماشین
داده کاوی
خطا تحمل (PAC یادگیری)
در این چارچوب یادگیرنده نمونه هایی را دریافت کرده و باید از کلاس مشخصی از توابع ممکن یک تابع تعمیم (به نام فرضیه) انتخاب کند. هدف این است که با احتمال بالا ("احتمالاً") تابع انتخاب شده خطای تعمیم پایینی دارد (تقریباً صحیح). یادگیرنده باید قادر به یادگیری مفهوم با هر ضریب تقریب، احتمال موفقیت، یا توزیع نمونه ها باشد.
این مدل بعدها به منظور استفاده در محیط ها و داده های دارای نویز نیز توسعه داده شد (نمونه misclassified).
یک نوآوری مهم چارچوب PAC وارد کردن مفاهیم محاسباتی نظریه پیچیدگی در یادگیری ماشین است. به ویژه، انتظار می رود که یادگیرنده توابع بهینه (زمان و فضای مورد نیاز محدود به یک چند جملهای (زمان و فضای چند جمله ای) از اندازه نمونه هستند) و یادگیرنده خود را باید یک روند بهینه را پیاده سازی نماید.
یادگیری ماشین
داده کاوی
خطا تحمل (PAC یادگیری)
در این چارچوب یادگیرنده نمونه هایی را دریافت کرده و باید از کلاس مشخصی از توابع ممکن یک تابع تعمیم (به نام فرضیه) انتخاب کند. هدف این است که با احتمال بالا ("احتمالاً") تابع انتخاب شده خطای تعمیم پایینی دارد (تقریباً صحیح). یادگیرنده باید قادر به یادگیری مفهوم با هر ضریب تقریب، احتمال موفقیت، یا توزیع نمونه ها باشد.
این مدل بعدها به منظور استفاده در محیط ها و داده های دارای نویز نیز توسعه داده شد (نمونه misclassified).
یک نوآوری مهم چارچوب PAC وارد کردن مفاهیم محاسباتی نظریه پیچیدگی در یادگیری ماشین است. به ویژه، انتظار می رود که یادگیرنده توابع بهینه (زمان و فضای مورد نیاز محدود به یک چند جملهای (زمان و فضای چند جمله ای) از اندازه نمونه هستند) و یادگیرنده خود را باید یک روند بهینه را پیاده سازی نماید.