دانلود ترجمه مقاله مات زدایی تصاویر متن با دانش پیشین شدت روشنایی
عنوان فارسی |
مات زدایی تصاویر متن با دانش پیشین شدت روشنایی و گرادیان L0-Regularized |
عنوان انگلیسی |
Deblurring Text Images via L0-Regularized Intensity and Gradient Prior |
کلمات کلیدی : |
  مات زدایی تصویر؛ دانش پیشین L0-Regularized؛ تصاویر متنی؛ تصاویر کم نور |
درسهای مرتبط | پردازش تصویر؛ بینایی ماشین |
تعداد صفحات مقاله انگلیسی : 8 | نشریه : IEEE |
سال انتشار : 2014 | تعداد رفرنس مقاله : 21 |
فرمت مقاله انگلیسی : PDF | نوع مقاله : ISI |
پاورپوینت :
ندارد سفارش پاورپوینت این مقاله |
وضعیت ترجمه مقاله : انجام شده و با خرید بسته می توانید فایل ترجمه را دانلود کنید |
1. مقدمه 2. مات زدایی تصاویر متنی 3. تحلیل الگوریتم پیشنهادی 4. نتایج آزمایشی 5. نتیجه گیری
مقدمه: در سالهای اخیر شاهد پیشرفتهای چشمگیری در تصویر واحد بودهایم [ ۸ ]. بسیاری از الگوریتم های موفقیت موجود [ ۶، ۱۶، ۳، ۱۸، ۱۰، 12، ۲۰ ] را می توان به استفاده از دانش پیشین آموخته شده از تصاویر طبیعی و انتخاب لبههای برجسته برای تخمین هسته مرتبط دانست. اگر چه روشهای متعددی برای مات زدایی حرکتی پیشنهاد شده است [ ۶، ۱۶، ۱۲، ۱۰، ۲۰ ] که این دانش های پیشین برای تصاویر متنی به دلیل محتویات مورد علاقه عمدتا دو رنگ (سیاه و سفید)که از آمار heavy-tailed gradient تصاویر طبیعی پیروی نمیکنند، کمتر موثر هستند. مات زدایی تصویر متن توجه قابلتوجهی را در سالهای اخیر به علت دامنه وسیعی از کاربردها به خود جلب کردهاست. در [ ۱ ]، Chen و همکاران، یک دانش پیشین جدید مبتنی بر شدت روشنایی تصویر را به جای دانش پیشین heavy-tailed gradient از صحنههای طبیعی پیشنهاد میکنند. با این حال، این روش به طور خاص برای تصاویر مستند ساخته شدهاست (به عنوان مثال، تصاویر متن دودویی)و بعید است که به خوبی برای تصاویر به هم ریخته با متن کار کند. یک روش مستقیم که از ویژگیهای تنکی تصاویر طبیعی بهره میبرد، برای مات زدایی تصاویر طبیعی و مستند پیشنهاد شدهاست [ ۱۴ ]. با این وجود، کرنل تاری صریحا از یک تصویر ورودی تخمین زده نمیشود و بار محاسباتی برای یادگیری یک فرهنگ لغت کامل برای مات زدایی قابلتوجه است. Li وLii در]13 [یک روش برآورد مشترک برای تخمین کرنل های تاری از تصاویر دو رنگ را پیشنهاد کردند. با این حال، این روش تنها بر روی تصاویر دو رنگ کاربرد دارد و برای تصاویر متنی با پس زمینههای پیچیده کمتر موثر است. Cho و همکاران [ ۲ ] روشی را برای ترکیب ویژگیهای خاص متن (یعنی کنتراست تیز بین متن و پیشزمینه، گرادیان یکنواخت در متن، و گرادیان پس زمینه به دنبال آمار تصویر طبیعی) برای مات زدایی توسعه دادند. در حالی که این الگوریتم به نتایج روش های خوب موجود دست مییابد، فرآیند تخمین کرنل، پیچیده است و عملکرد تا حد زیادی بستگی به این دارد که آیا تغییر عرض حرکت (SWT) ]5 [به مناطق متنی و غیر متنی یک تصویر را جدا میکند یا نه. اگر حروف در یک تصویر متن کوچک و متصل باشند، بعید است عملکرد خوبی داشته باشد.
Introduction: The recent years have witnessed significant advances in single image deblurring [8]. Much success of the state-ofthe- art algorithms [6, 16, 3, 18, 12, 10, 20] can be attributed to the use of learned prior from natural images and the selection of salient edges for kernel estimation. Although numerous methods [6, 16, 12, 10, 20] have been proposed for motion deblurring, these priors are less effective for text images due to the contents of interest being mainly two-toned (black and white) which do not follow the heavy-tailed gradient statistics of natural images. Text image deblurring has attracted considerable attention in recent years due to its wide range of applications. In [1], Chen et al. propose a new prior based on the image intensity rather than the heavy-tailed gradient prior of natural scenes. However, this method is developed specifically for document images (i.e., binary text images) and is unlikely to work well for cluttered images with text. A direct method that exploits sparse characteristics of natural images is proposed for deblurring natural and document images [14]. Nevertheless, the blur kernel is not explicitly estimated from an input image and the computational load for learning an over-complete dictionary for deblurring is significant. Li and Lii [13] propose a joint estimation method to estimate blur kernels from two-tone images. However, this method is only applied to two-tone images and is less effective for text images with complex backgrounds. Cho et al. [2] develop a method to incorporate text-specific properties (i.e., sharp contrast between text and background, uniform gradient within text, and background gradient following natural image statistics) for deblurring. While this algorithm achieves the state-of-the-art deblurring results, the kernel estimation process is complicated and the performance depends largely on whether the stroke width transform (SWT) [5] separates an image into text and nontext regions well or not. If the characters in a text image are small and connected, it is unlikely to perform well.
بخشی از ترجمه مقاله (صفحه 7 فایل ورد ترجمه)
محتوی بسته دانلودی:
PDF مقاله انگلیسی ورد (WORD) ترجمه مقاله به صورت کاملا مرتب (ترجمه شکل ها و جداول به صورت کاملا مرتب)
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.