دانلود مقاله ISI
دانلود مقاله ISI سال 2013
 
 

 فشرده‌سازی تصاویر، کاربردی از فشرده‌سازی اطلاعات بر روی تصاویر دیجیتال است به عبارتی هدف از این کار کاهش افزونگی (redundancy)محتویات عکس می‌باشد برای توانایی ذخیره کردن یا انتقال اطلاعات به فرم بهینه .

فشرده سازی عكس می تواند بصورت بدون اتلاف و پر اتلاف صورت گیرد. فشرده سازی بدون اتلاف گاهی اوقات برای بعضی عکس‌ها مثل نقشه کشی‌های تکنیکی و آیکون‌ها ترجیح داده می‌شود و به این دلیل است که در روش‌های فشرده سازی پراتلاف خصوصا وقتی برای نرخ بیت‌های پایین استفاده شود فشرده سازی به کیفیت عکس لطمه می‌زند. روش‌های فشرده سازی بدون اتلاف همچنین ممکن است برای محتویات پر ارزش مثل عکس‌های پزشکی یا عکس‌های اسکن شده برای اهداف بایگانی شدن نیز ترجیح داده شوند. روش پراتلاف مخصوصا برای عکس‌های طبیعی مناسب است مثل عکس هایی برای کاربردهای کوچک (گاهی اوقات جزئی) که از دست رفتن درستی (fidelity) برای دست یافتن به کاهش نرخ بیت قابل توجه است .

روش‌های فشرده سازی بدون اتلاف عکس‌ها عبارتند از:

- كد گذاری طول اجرا (run-length encoding) استفاده شده در روش‌های پیش فرض در dcx و یکی از امکانات TIFF ,TGA ,BMP

- entropy coding

- الگوریتم های مطابق واژه نامه مثل lzw استفاده شده در GIF,TIFF

- كاهش اعتبار (deflation) استفاده شده در TIFF ,MNG ,PNG

روش‌های فشرده سازی پراتلاف عبارتند از:

- كاهش فضای رنگی برای رنگ هایی كه بیشتر در عکس استفاده شده اند. رنگی که انتخاب شده در پالت رنگ در بالای عکس فشرده شده مشخص می‌شود. هرپیکسل فقط به شاخص رنگ در پالت رنگ اشاره داده می‌شود.

- chroma subsampling این روش امتیازی برای واقعیت است چون چشم روشنی را سخت تر از رنگ درک می‌کند بوسیله حذف کردن نصف یا بیشتر اطلاعات رنگ تابی یک عکس.

'- تغییر شكل دادن كد گذاری ('transform coding) این روش بطور عادی بیشترین استفاده را دارد.

- fractal compression بهترین كیفیت عكس در یك نرخ بیت (یا نرخ فشرده سازی) معین هدف اصلی از فشرده سازی عکس است. به هر حال ویژگی‌های مهم دیگری از رویه‌های فشرده سازی عکس وجود دارد که عبارتند از :

'مقیاس پذیری('scability): به طور كلی به كاهش كیفیت حاصل شده در اثر دستكاری گروه بیتی یا فایل گفته می شود. (بدون بازیابی). نامهای دیگر برای مقیاس پذیری ،progressive coding یا embedded biststream است. با وجود خلاف واقعی بودنش مقیاس پذیری نیز می‌تواند در رمز گذارهای (codec) بدون اتلاف یافت می شود . مقیاس پذیری خصوصاَ برای پیش نمایش عکس‌ها در حال دریافت کردن آنها یا برای تهیه کیفیت دستیابی متغیر در پایگاه‌های داده مفید است .

انواع مختلف مقیاس پذیری عبارتنداز :

- كیفیت مترقی(quality progressive ')یالایه مترقی('layer progressive):گروه بیتی پی درپی عکس را از نو می سازد.

- وضوح مترقی(resoloution progressive):ابتدا یک عکس وضوح پایین را کد گذاری می کند سپس تفاوتهای وضوح بالاتر را کد گذاری می‌کند .

- مؤلفه مترقی (component progressive): ابتدا رنگ را کد گذاری می‌کند .

ناحیه جذاب کدگذاری (region of interest coding)نواحی خاصی از عکس با کیفیت بالاتری نسبت به سایر نقاط کد گذاری می‌شوند و می‌تواند با مقیاس پذیری (کدگذاری ابتدایی یک بخش و دیگران بعداَ) ترکیب شود.

اطلاعات غیر نمادین(meta information)داده‌های فشرده شده می‌توانند شامل اطلاعاتی در رابطه با عکس باشد که می توان برای طبقه بندی کردن، جستجو یا بررسی عمومی عکس از آنها استفاده کرد. مانند اطلاعاتی که می‌توانند شامل رنگ و الگو و پیش نمایش کوچکتر عکس‌ها و اطلاعات خالق و کپی رایت باشد.

قدرت پردازش(processing power) الگوریتم‌های فشرده سازی اندازه های متفاوتی از قدرت پردازش را برای کدگذاری و کدگشایی درخواست می کنند. بعضی از الگوریتم‌های فشرده سازی عالی قدرت پردازش بالا می خواهند.

كیفیت روش فشرده سازی اغلب بوسیله سیگنال ماکزیمم به نسبت پارازیت (peak signal-to-noise ratio) اندازه گیری می شوند . اندازه پارازیت‌ها نشان دهند? فشرده سازی پراتلاف عکس است به هر حال قضاوت موضوع گرایانه بیننده همیشه بیان کنند? اهمیت اندازه گیری است .

Jpeg2000

Jpeg2000 یك استاندارد فشرده‌سازی عكس براساس wavelet (wavelet-based) است. و در سال 2000 به‌وسیله کمیته Joint Photographic Experts Group با نیت جایگزین کردن با استاندارد اصلی Jpegکه براساس تغییر گسسته(discrete cosine transform-based) است(محصول سال1991) تولید شده است.

JPEG 2000 زمان بیشتری را برای عملیات بازکردن فشردگی نسبت به JPEG طلب می‌کند.

اثبات از بالا به پایین محصولات فشرده‌سازی JPEG 2000: شماره‌ها نشان‌دهنده ضریب تراکم استفاده شده‌است.برای مقایسه بهتر شکل بدون مقیاس را نگاه کنید.

محصولات JPEG 2000 به فرم JPEG متفاوت به نظر می‌رسند و یک جلوه صیقلی روی عکس وجود دارد و برای نمایان

شدن  سطوح فشرده‌سازی بالاتری اختیار می کنند. اغلب یک عکس گرفته شده می‌تواند به اندازه اندازه فایل اصلی خود(bitmap فشرده نشده) بدون متحمل شدن اثر نمایان شدن فشرده شوند.

برگرفته از ویکی پدیا

 

برای دانلود جدیدترین مقالات ISI به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.

با تشکر

 

 


ارسال شده در تاریخ : چهار شنبه 30 اسفند 1391برچسب:, :: 9:40 :: توسط : همایون

 به نام خدا

 

این وبلاگ را برای دسترسی رایگان دانشجویان و پژوهشگران به مقالات معتبر راه اندازی کرده ایم. امیدواریم با کمک شما عزیزان بتوانیم کمکی هر چند کوچک به جامعه علمی خود داشته باشیم.

 

با تشکر

 


ارسال شده در تاریخ : سه شنبه 29 اسفند 1391برچسب:, :: 22:18 :: توسط : همایون

به نام خدا

 

برای دانلود رایگان مقالات IEEE و Springer و Science Direct می توانید از وب سایت ایران سای استفاده کنید.

ایران سای - مرجع علمی فنی مهندسی

با تشکر

 

ارسال شده در تاریخ : سه شنبه 29 اسفند 1391برچسب:, :: 22:17 :: توسط : همایون

فیلتر کالمن (Kalman Filter) یک فیلتر بازگشتی کارامد است که حالت یک سیستم پویا را از یک سری اندازه گیری‌های همراه با خطا بر آورد می‌کند. به همراه یک تنظیم کننده خطی مرتبه دوم (linear-quadratic regulator -LQR) فیلتر کالمن مسائل Gaussian control خطی مرتبه دوم (linear-quadratic-Gaussian control - LQG) را حل می‌کند. فیلتر کالمن ، LQR و LQG راه حلی هستند برای آنچه شاید اساسی‌ترین مسائل تئوری کنترل می نامند.


مثالی برای کاربرد : تهیه اطلاعات پیوسته به روز و دقیق در مورد مکان و سرعت یک شی معین فقط به کمک توالی مشاهدات در مورد موقعیت آن شی، که هر کدام شامل مقداری خطاست امکان پذیر است. این فیلتر در طیف گسترده‌ای از کاربری‌های مهندسی از رادار گرفته تا بصیرت رایانه‌ای کاربرد دارد. روش تصفیه کالمن یکی از عناوین مهم در تئوری کنترل و مهندسی سیستم‌های کنترلی می‌باشد.

به عنوان مثال، برای کاربری آن در رادار، آنجا که علاقه مند به ردیابی هدف هستید، اطلاعات در مورد موقعیت، سرعت و شتاب هدف با حجم عظیمی از انحراف به لطف پارازیت در هر لحظه اندازه گیری می‌شود. فیلتر کالمن از پویایی هدف بهره می‌گیرد به این صورت که سیر تکاملی آن را کنترل می‌کند، تا تاثیرات پارازیت را از بین ببرد و یک برآورد خوب از موقیت هدف در زمان حال (تصفیه کردن) و در آینده (پیش بینی) و یا در گذشته (الحاق یا هموار سازی) ارائه می‌دهد. یک نسخه ساده شده فیلتر کالمن، فیلتر آلفا بتا (alpha beta filter)، که همچنان عموماً استفاده می‌شود از ثابت‌های static weighting به جای ماتریس‌های کواریانس استفاده می‌کند.


نام گذاری و تاریخچه توسعه : اگر چه Thorvald Nicolai Thiele و Peter Swerling قبلاً الگوریتم مشابهی ارائه داده بودند، این فیلتر به افخار Rudolf E. Kalman، فیلتر کالمن نام گذاری شد و Stanley F. Schmidt عموماً به خاطر توسعه اولین پیاده سازی فیلتر کالمن شهرت یافت. این رخدادهنگام ملاقات با کالمن در مرکز تحقیقاتی ناسا (NASA Ames Research Center) روی داد و وی شاهد کارائی ایده کالمن در برآورد مسیر پرتاب پروژه آپولو بود، که منجر به الحاق آن به رایانه ناوبری آپولو شد. این فیلتر بر روی کاغذ در 1958 توسط Swerling، در 1960 توسط Kalman و در 1961 توسط Kalman and Bucy ایجاد و بسط داده شد.

این فیلتر بعضی مواقع فیلتر Stratonovich-Kalman-Bucy نامیده می‌شود، چرا که یک نمونه خاص از فیلتر بسیار معمولی و غیر خطی ای است که قبلاً توسط Ruslan L. Stratonovich ایجاد شده، در حقیقت معادله این نمونه خاص، فیلتر خطی در اسنادی که از Stratonovich قبل از تابستان 1960، یعنی زمانی که کالمن ،Stratonovich را در کنفرانسی در موسکو ملاقات کرد به چاپ رسید بود.

در تئوری کنترل، فیلتر کالمن بیشتر به برآورد مرتبه دوم (LQE) اشاره دارد. امروزه تنوع گسترده‌ای از فیلتر کالمن بوجود آمده، از فرمول اصلی کالمن در حال حاضر فیلترهای : کالمن ساده، توسعه یافته اشمیت، اطلاعاتی و فیلترهای گوناگون جذر بیرمن، تورنتون و بسیاری دیگر بوجود آمده اند. گویا مرسوم‌ترین نوع فیلتر کالمن فاز حلقهٔ بسته (phase-locked loop) می‌باشد که امروزه در رادیوها، رایانه‌ها و تقریباً تمامی انواع ابزارهای تصویری و ارتباطی کاربرد دارد.


اساس مدل سیستم پویا فیلترهای کالمن بر اساس سیستم‌های خطی پویا (linear dynamical systems) گسسته در بازه زمانی هستند. آنها بر اساس زنجیره ماکوف (Markov chain) مدل شده، به کمک عملگرهای خطی ساخته شده اند و توسط پارازیت گاشین (Gaussian noise) تحریک می‌شوند. حالت سیستم توسط برداری از اعداد حقیقی بیان می‌شود. در هر افزایش زمانی که در بازه‌های گسسته صورت می‌گیرد، یک عملگر خطی روی حالت فعلی اعمال می‌شود تا حالت بعدی را با کمی پارازیت ایجاد کند و اختیاراً در صورت شناخت روی کنترل کننده‌های سیستم برخی اطلاعات مرتبط را استخراج می‌کند. سپس عملگر خطی دیگر به همراه مقدار دیگری پارازیت خروجی قابل مشاهده‌ای از این حالت نامشخص تولید می‌کند. فیلتر کالمن قادر است مشابه مدل نامشخص مارکوف برخورد کند. با این تفاوت کلیدی که متغییرهای حالت نامشخص در یک فضای پیوسته مقدار می‌گیرند( نقطهٔ مقابل فضای حالت گسسته در مدل مارکوف). بعلاوه، مدل نامشخص مارکوف می‌تواند یک توزیع دلخواه برای مقادیر بعدی متغییرهای حالت ارائه کند، که در تناقض با مدل پارازیت گاشین ای است که در فیلتر کالمن استفاده می‌شود. در اینجا یک دوگانگی بزرگ بین معادلات فیلتر کالمن و آن مدل مارکوف وجود دارد. مقاله‌ای در رابطه با این مدل و دیگر مدل‌ها در Roweis and Ghahramani (1999) ارائه شده است. از فیلتر کالمن برای پیش بینی و اعلام خطرسیلاب نیز استفاده میشودیعنی به عنوان یک آلارم دهنده برای خطرسیلاب عمل می نماید.

بر گرفته از ویکی پدیا

 

برای دانلود مقالات ISI به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید..

 

با تشکر

 


ارسال شده در تاریخ : 29 اسفند 1391برچسب:, :: 18:6 :: توسط : همایون

ینایی رایانه‌ای یا بینایی کامپیوتری (Computer vision) یا بینایی ماشینی (Machine vision) یکی از شاخه‌های مدرن، و پرتنوٌع هوش مصنوعیست که با ترکیب روشهای مربوط به پردازش تصاویر[۱] و ابزارهای یادگیری ماشینی[۲] رایانه‌ها را به بینایی اشیاء، مناظر، و "درک" هوشمند خصوصیات گوناگون آنها توانا می‌گرداند.

کاوش در داده‌ها

مقالهٔ اصلی: کاوش‌های ماشینی در داده‌ها

بینایی ماشینی را می‌شود یکی از مصادیق و نمونه‌های بارز زمینهٔ مادر و اصلی‌تر کاوش‌های ماشینی داده‌ها به‌حساب آورد که در آن داده‌ها تصاویر دوبعدی یا سه‌بعدی هستند، که آن‌ها را با هوش مصنوعی مورد آنالیز و ادراک قرار می‌دهیم.

وظایف اصلی در بینایی رایانه‌ای

تشخیص شیء

تشخیص حضور و/یا حالت شیء در یک تصویر. به عنوان مثال:

•        جستجو برای تصاویر دیجیتال بر اساس محتوایشان (بازیابی محتوامحور تصاویر).

•        شناسایی صورت انسان‌ها و موقعیت آنها در عکس‌ها.

•        تخمین حالت سه‌بعدی انسان‌ها و اندام‌هایشان.

پیگیری

پیگیری اشیاء شناخته شده در میان تعدادی تصویر پشت سر هم. به عنوان مثال:

•        پیگیری یک شخص هنگامی که در یک مرکز خرید راه می‌رود.

تفسیر منظره

ساختن یک مدل از یک تصویر/تصویر متحرک. به‌عنوان مثال:

•        ساختن یک مدل از ناحیهٔ پیرامونی به کمک تصاویری که از دوربین نصب شده بر روی یک ربات گرفته می‌شوند.

خودمکان‌یابی

مشحص کردن مکان و حرکت خود دوربین به عنوان عضو بینایی رایانه. به‌عنوان مثال:

•        مسیریابی یک ربات درون یک موزه.

سامانه‌های بینایی رایانه‌ای

یک سامانهٔ نوعی بینایی رایانه‌ای را می‌توان به زیرسامانه‌های زیر تقسیم کرد:

تصویربرداری

تصویر یا دنباله تصاویر با یک سامانه تصویربرداری(دوربین، رادار، لیدار، سامانه توموگرافی) برداشته می‌شود. معمولاً سامانه تصویربرداری باید پیش از استفاده تنظیم شود.

پیش‌پردازش

در گام پیش‌پردازش، تصویر در معرض اَعمال "سطح پایین" قرار می‌گیرد. هدف این گام کاهش نوفه (کاهش نویز - جدا کردن سیگنال از نویز) و کم‌کردن مقدار کلی داده ها است. این کار نوعاً با به‌کارگیری روش‌های گوناگون پردازش تصویر(دیجیتال) انجام می‌شود. مانند:

•        زیرنمونه‌گیری تصویر.

•        اعمال فیلترهای دیجیتال.

•        پیچشها.

•        همبستگیها یا فیلترهای خطی لغزش‌نابسته.

•        عملگر سوبل.

•        محاسبهٔ گرادیان x و y(و احتمالاً گرادیان زمانی).

•        تقطیع تصویر.

•        آستانه‌گیری پیکسلی.

•        انجام یک ویژه‌تبدیل بر تصویر.

•        تبدیل فوریه.

•        انجام تخمین حرکت برای ناحیه‌های محلی تصویرکه به نام تخمین شارش نوری هم شناخته می‌شود.

•        تخمین ناهمسانی در تصاویر برجسته‌بینی.

•        تحلیل چنددقتی.

استخراج ویژگی

هدف از استخراج ویژگی کاهش دادن بیشتر داده‌ها به مجموعه‌ای از ویژگی‌هاست، که باید به اغتشاشاتی چون شرایط نورپردازی، موقعیت دوربین، نویز و اعوجاج ایمن باشند. نمونه‌هایی از استخراج ویژگی عبارت‌اند از:

•        انجام آشکارسازی لبه.

•        استخراج ویژگی‌های گوشهای.

•        استخراج تصاویر چرخش از نقشه‌های ژرفا.

•        بدست آوردن خطوط تراز و احتمالاً گذر از صفرهای خمش.

ثبت

هدف گام ثبت برقراری تناظر میان ویژگی‌های مجموعه برداشت شده و ویژگی‌های اجسام شناخته‌شده در یک پایگاه داده‌های مدل و/یا ویژگی‌های تصویر قبلی است. در گام ثبت باید به یک فرضیه نهایی رسید. چند روش این کار عبارت‌اند از:

•        تخمین کمترین مربعات.

•        تبدیل هاگ در انواع گوناگون.

•        درهم‌سازی هندسی.

•        پالودن ذره‌ای.

 

برگرفته از ویکی پدیا

 

برای دانلود جدیدترین مقالات ISI  بینایی ماشین به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.

 

با تشکر

 


ارسال شده در تاریخ : 29 اسفند 1391برچسب:, :: 18:6 :: توسط : همایون

نظریّهٔ آشوب یا نظریّهٔ بی‌نظمی‌ها به مطالعهٔ سیستم‌های دینامیکی آشوب‌ناک می‌پردازد. سیستم‌های آشوب‌ناک، سیستم‌های دینامیکی‌ای غیرخطی هستند که نسبت به شرایط اولیه‌شان بسیار حساس‌اند. تغییری اندک در شرایط اولیهٔ چنین سیستم‌هایی باعث تغییرات بسیار در آینده خواهد شد. این پدیده در نظریهٔ آشوب به اثر پروانه‌ای مشهور است.

رفتار سیستم‌های آشوب‌ناک به ظاهر تصادفی می‌نماید. با این‌حال هیچ لزومی به وجود عنصر تصادف در ایجاد رفتار آشوبی نیست و سیستم‌های دینامیکی‌ی معین (deterministic) نیز می‌توانند رفتار آشوب‌ناک از خود نشان دهند.

می‌توان نشان داد که شرط لازم وجود رفتار آشوب‌گونه در سیستم‌های دینامیکی‌ی زمان‌پیوسته مستقل از زمان (time invariant) داشتن کمینه سه متغیر حالت است (سیستم مرتبه سه). دینامیک لورنتس نمونه‌ای از چنین سیستم‌ای است. برای سیستم‌های زمان‌گسسته، وجود یک متغیر حالت کفایت می‌کند. نمونهٔ مشهور چنین سیستم‌ای، مدل جمعیتی‌ی بیان‌شده توسط logistic map است.

تاریخچه

این نظریه، گسترش خود را بیشتر مدیون کارهای هانری پوانکاره، ادوارد لورنز، بنوا مندلبروت و مایکل فیگن‌باوم می‌باشد. پوانکاره اولین کسی بود که اثبات کرد، مساله سه جرم (به عنوان مثال، خورشید، زمین، ماه) مساله‌ای آشوبی و غیر قابل حل است. شاخه دیگر از نظریه آشوب که در مکانیک کوانتومی به کار می‌رود، آشوب کوانتومی نام دارد. گفته می‌شود که پیر لاپلاس و عمر خیام قبل از پوانکاره، به این مساله و پدیده پی برده بودند.

اولین آزمایش واقعی در زمینه ی آشوب توسط یک هواشناس به نام ادوارد لورنز انجام شد. در سال ۱٩۶٠، وی روی یک مسئله ی پیش بینی وضع هوا کار می کرد. وی بر روی کامپیوترش ۱۲ معادله برای پیش بینی وضع هوا درنظر گرفته بود. این معادلات وضع هوا را پیش بینی نمی کرد. ولی این برنامه ی کامپیوتری به طور نظری پیش بینی می کرد که هوا چگونه می تواند باشد. او می خواست دنباله ی مشخصی را دوباره ببیند. برای کاهش زمان، وی به جای شروع از اول، از وسط دنباله شروع کرد. او عددی را که دفعه ی قبل از دنباله در دست داشت وارد کرد و کامپیوتر را برای پردازش رها نمود و رفت. وقتی یک ساعت بعد برگشت، دنباله به صورتی متفاوت از دفعه ی قبل پیشرفت کرده بود. به جای حالت قبلی، الگوی جدید آن واگرا می شد و در آخر شکلی کاملا به هم ریخته نسبت به اولی پیدا می کرد. او بالاخره فهمید که مشکل کار کجاست. کامپیوتر تا ۶ رقم اعشار را در خود ذخیره می کرد و برای اینکه وی کاغذ کمتری مصرف کند فقط تا ۳ رقم اعشار را برای خروجی درنظر گرفته بود. در الگوی اولیه، عدد بدست آمده در اصل۵۰۶۱۲۷/٠ بود ولی وی برای حالت بعدی فقط ۵۰۶/۰ را وارد کرد. براساس تمام ایده های آن زمان، این دنباله باید شبیه و یا خیلی نزدیک به حالت اولیه می شد. رقم های پنجم و ششم، که برای بعضی از روش ها غیر قابل اندازه گیری هستند، نمی توانند تاثیر زیادی روی خروجی داشته باشند. لورنز این باور را رد کرد. این اثر به عنوان اثر پروانه ای شناخته شد. مقدار تفاوت بین نقاط شروع دو نمودار آنقدر کم است، که به اندازه ی بال زدن یک پروانه می تواند باشد: بال زدن یک پروانه تغییر بسیار اندکی در وضعیت اتمسفر ایجاد می کند. در طول یک دوره، اتمسفر از حالتی که باید می بود، عملأ دور می شود. به همین دلیل، در طول یک دوره، یک گردباد که قرار بود سواحل اندونزی را تخریب کند، هیچ وقت اتفاق نمی افتد و یا ممکن است، گردبادی که اصلا قرار نبود اتفاق بیفتد، رخ دهد. این پدیده، به عنوان حساسیت بالا به شرایط اولیه نیز شناخته شده است. *

آشوب دقیقا چیست؟

اگر فقط ذره ای در هر سوی این بازه جابجا شوید همه چیز به بی نهایت میرود ! یک بار به هم خوردن بالهای یک پروانه کافیست تا شما با یک رفتار آشوبگونه روبرو شوید. این رفتار به آرامی به آشوبگونگی میل نمیکند بلکه سیستم از نقطه ای ناگهان به سمت بی نهایت می رود . آیا در طبیعت پدیده ای – مثلا دانه های برف یا کریستال ها – وجود دارد که در قالب ابعاد کلاسیک طبیعت که تا به امروز می شناختیم نگنجد؟ پدیده هایی مثل دانه برف دارای ویژگی جالبی به نام خود متشابهی هستند به این معنا که شکل کلی شان از قسمت هایی تشکیل شده است که هرکدام به شدت شبیه به این شکل کلی هستند. ایده اصلی آشوب تعریف رفتار سیستمهای مشخصی است که شدیدا به شرایط اولیه شان حساسند. ادوارد لورنتز در دهه ۶۰ میلادی اعلام کرد که معادلات دیفرانسیل می توانند خاصیت فوق را داشته باشند. این ویژگی اثر پروانه ای نام گرفت.

آشوب از نقطه نظر ریاضی به چه معناست؟

یک سیستم جوی ساده را در نظر بگیرید. تابع   برای تخمین دمای فردا از روی دمای امروز در دست است. اوربیت یک نقطه تحت یک تابع مجموعه اتفاقاتی است که در اثر تکرار تابع (دینامیک) برای آن نقطه می افتد. برای مثال اربیت نقطه 1 تحت تابع ما این است که ۱ ابتدا ۳ سپس ۵ بعد ۷ و ... می شود. مهمترین گونه اربیت ها نقطه ثابت است که هرگز تحت اجرای تابع تغییر نمی کند ولی تابع ما چنین نقطه ای ندارد. حال   را در نظر بگیرید. این تابع ما را به دنیای آشوب می برد. به نظر می رسد اربیتهای تمام نقاط به بی نهایت میل می کنند. باید اشاره شود که نقاط پایانی هر بازه ای روی این تابع ثابتند. با اجرای تابع و ادامه دادن آن می بینیم که تمام نقاط داخل بازه به بی نهایت میل می کنند ولی حدود بازه همچنان متناهی اند . این رفتار یک رفتار آشوب گونه است. مثلث سرپینسکی و پوست مار کخ دو فرکتال یا برخال معروف اند. در مورد پوست مار کخ جالب اینکه ناحیه متناهی ولی پارامتر نامتناهی دارد. می توان سطح خود تشابهی در فرکتالها را با مفهوم جدیدی از بعد که مبتنی بر تعداد کپی های مجموعه های خودمتشابه در فرکتال و میزان بزرگنمایی هر مجموعه است اندازه گیری کرد. به این معنی که بعد فرکتالی یک مجموعه از تقسیم لگاریتم تعداد کپی ها به لگاریتم بزرگنمایی به دست می آید. این مقدار برای مثلث سرپینسکی 1.584 و برای پوست مار کخ 1.261 است.

 

برگرفته از ویکی پدیا

 

برای دانلود مقالات ISI سال 2013 مربوط به نظریه آشوب به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.

 

با تشکر

 

 


ارسال شده در تاریخ : 29 اسفند 1391برچسب:, :: 18:6 :: توسط : همایون

انبار داده به انگلیسی: Data warehouse‏ یک بانک اطلاعاتی بزرگ می‌باشد که از طریق آن کلیه داده‌های حال و گذشته یک سازمان جهت انجام عملیات گزارش گیری و آنالیز در دسترس مدیران قرار می‌گیرد. انبار داده نقش مهمی در تصمیم گیری مدیران کمپانی برای تعیین یک استراتژی موفق دارد.

بعضی از داده‌ها قبل از ورود به انبار به یک فضای عملیاتی کوچکتر (operational data store) برای پردازش بیشتر وارد می‌شود.

انبار داده سه لایه دارد که به ترتیب (Integration),(Staging) و(Presentation) نام دارد.

داده‌های خام از منابع اطلاعاتی مختلفی جمع آوری شده ودر لایه staging وارد می‌شوند. منبع داده خام می‌تواند یک سیستم ERP,پایگاه داده یک برنامه کاربردی و یا یک فایل Excel باشد.

ایجاد یکنواختی بین داده‌های وارد شده به انبار در دومین لایه یعنی integration انجام می‌شود. به عنوان مثال حذف رکوردهای تکراری و یا نرمال سازی داده‌ها.

در لایه Presentation داده‌ها در دسترس کاربران قرار می‌گیرد. نرم‌افزارهای تهیه گزارش مانند Cognos ,Business Object,SAP با دسترسی به این لایه می‌توانند اطلاعات مورد نیاز مدیران و تحلیلگران را استخراج و در قالب گزارش یا Dashboard عرضه نمایند.

در لایه Presentation می‌تواند چندین Data mart وجود داشته باشد.

 

برگرفته از ویکی پدیا

 

برای دانلود مقاله های ISI چاپ شده در ژورنالهای 2013 و 2012 به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.

 

 


ارسال شده در تاریخ : 29 اسفند 1391برچسب:, :: 18:6 :: توسط : همایون

به نام خدا

فرا رسیدن سال 1392 پیشاپیش بر شما مبارک باد!

برای دانلود پس زمینه های ایران سای – مرجع علمی مهندسی (تقویم سال 1392) از لینکهای زیر استفاده کنید.

 

 فروردین، اردیبهشت، خرداد 
 تیر
، مرداد، شهریور 
 مهر
، آبان، آذر 
 دی
، بهمن، اسفند 

 

با تشکر

 


ارسال شده در تاریخ : 29 اسفند 1391برچسب:, :: 18:6 :: توسط : همایون

کدگذاری منبع روش‌های فشرده‌سازی یک منبع اطلاعات را مطالعه می‌کند. منابع اطلاعاتی طبیعی، مانند گفتار یا نوشتار انسان‌ها، دارای افزونگی است؛ برای مثال در جمله «من به خانه مان برگشتم» ضمایر «مان» و شناسه «م» در فعل جمله را می‌توان از جمله حذف نمود بدون اینکه از مفموم مورد نظر جمله چیزی کاسته شود. این توضیح را می‌توان معادل با انجام عمل فشرده سازی روی اطلاعات یک منبع اطلاعات دانست؛ بنابراین منظور از فشرده سازی اطلاعات کاستن از حجم آن به نحوی است که محتوی آن دچار تغییر نامناسبی نشود.

در علوم کامپیوتر و نظریه اطلاعات، فشرده سازی داده‌ها یا کد کردن داده ها، در واقع فرایند رمزگذاری اطلاعات با استفاده از تعداد بیت هایی (یا واحدهای دیگر حامل داده) کمتر از آنچه یک تمثال رمزگذاری نشده از همان اطلاعات استفاده می‌کند و با به کار گرفتن روش‌های رمزگذاری ویژه ای است.

مانند هر ارتباطی، ارتباطات با اطلاعات فشرده، تنها زمانی کار می‌کند که هم فرستنده و هم گیرندهٔ اطلاعات، روش رمزگذاری را بفهمند.به عنوان مثال این نوشته تنها زمانی مفهوم است که گیرنده متوجه باشد که هدف پیاده سازی با استفاده از زبان فارسی بوده. به همین ترتیب، دادهٔ فشرده سازی شده تنها زمانی مفهوم است که گیرنده روش رمزگشایی آن را بداند.

فشرده سازی به این دلیل مهم است که کمک می‌کند مصرف منابع با ارزش، مانند فضای هارد دیسک و یا پهنای باند ارسال، را کاهش دهد. البته از طرفی دیگر، اطلاعات فشرده سازی شده برای اینکه مورد استفاده قرار بگیرند باید از حال فشرده خارج شوند و این فرایند اضافه ممکن است برای بعضی از برنامه‌های کاربردی زیان آور باشد. برای مثال یک روش فشرده سازی برای یک فیلم ویدئویی ممکن است نیازمند تجهیزات و سخت‌افزار گران قیمتی باشد که بتواند فیلم را با سرعت بالایی از حالت فشرده خارج سازد که بتواند به طور همزمان با رمزگشایی پخش شود(گزینه ای که ابتدا رمزگشایی شود و سپس پخش شود، ممکن است به علت کم بود فضای برای فیلم رمزگشایی شده حافظه امکان پذیر نباشد). بنابراین طراحی روش فشرده سازی نیازمند موازنه و برآیندگیری بین عوامل متعددی است. از جمله این عوامل درصد فشرده سازی، میزان پیچیدگی معرفی شده (اگر از یک روش فشرده سازی پر اتلاف استفاده شود) و منابع محاسباتی لازم برای فشرده سازی و رمزگشایی اطلاعات را می توان نام برد. فشرده سازی به دو دسته فشرده‌سازی اتلافی (فشرده‌سازی با اتلاف) و فشرده‌سازی بهینه فشرده‌سازی بی‌اتلاف اطلاعات تقسیم می‌شوند. کدگذاری منبع ، علم مطالعه روش‌های انجام این عمل ، برای منابع متفاوت اطلاعاتی موجود است.

فشرده سازی بهینه در مقابل اتلافی

الگوریتم های فشرده سازی بهینه معمولاً فراوانی آماری را به طریقی به کار می گیرند که بتوان اطلاعات فرستنده را اجمالی تر و بدون خطا نمایش دهند. فشرده سازی بهینه امکان پذیر است چون اغلب اطلاعات جهان واقعی دارای فراوانی آماری هستند. برای مثال در زبان فارسی حرف "الف" خیلی بیش تر از حرف "ژ" استفاده می شود و احتمال اینکه مثلا حرف "غین" بعد از حرف "ژ" بیاید بسیار کم است. نوع دیگری از فشرده سازی، که فشرده سازی پر اتلاف یا کدگذاری ادراکی نام دارد که در صورتی مفید است که درصدی از صحت اطلاعات کفایت کند. به طور کلی فشرده سازی اتلافی توسط جستجو روی نحوهٔ دریافت اطلاعات مورد نظر توسط افراد راهنمایی می شود. برای مثال، چشم انسان نسبت به تغییرات ظریف در روشنایی حساس تر از تغییرات در رنگ است. فشرده سازی تصویر به روش JPEG طوری عمل می‌کند که از بخشی از این اطلاعات کم ارزش تر "صرف نظر" می کند. فشرده سازی اتلافی روشی را ارائه می‌کند که بتوان بیشترین صحت برای درصد فشرده سازی مورد نظر را به دست آورد. در برخی موارد فشرده سازی شفاف (نا محسوس) مورد نیاز است؛ در مواردی دیگر صحت قربانی می‌شود تا حجم اطلاعات تا حد ممکن کاهش بیابد.

روش‌های فشرده سازی بهینه برگشت پذیرند به نحوی که اطلاعات اولیه قابلیت بازیابی به طور دقیق را دارند در حالی که روش‌های اتلافی، از دست دادن مقداری از اطلاعات را برای دست یابی به فشردگی بیشتر می پذیرند. البته همواره برخی از داده وجود دارند که الگوریتم‌های فشرده سازی بهینهٔ اطلاعات در فشرده سازی آن‌ها ناتوان اند. در واقع هیچ الگوریتم فشرده سازی ای نمی تواند اطلاعاتی که هیچ الگوی قابل تشخیصی ندارند را فشرده سازی کند. بنابراین تلاش برای فشرده سازی اطلاعاتی که قبلاً فشرده شده اند معمولاً نتیجهٔ عکس داشته( به جای کم کردن حجم، آن را زیاد می کند)، هم چنین است تلاش برای فشرده سازی هر اطلاعات رمز شده ای ( مگر حالتی که رمز بسیار ابتدایی باشد).

در عمل، فشرده سازی اتلافی نیز به مرحله ای می رسد که فشرده سازی مجدد دیگر تأثیری ندارد، هرچند یک الگوریتم بسیار اتلافی، مثلا الگوریتمی که همواره بایت آخر فایل را حذف می کند، همیشه به مرحله ای می رسد که دیگر فایل تهی می شود.

مثالی از یک الگوریتم اتلافی در مقابل یک الگوریتم بهینه، می توان رشتهٔ مقابل است:

25.888888888

این رشته می تواند به روش بهینه به شکل زیر فشرده شود:

8[9]25

که خوانده می‌شود "بیست و پنج ممیز ۹ تا هشت"، و رشتهٔ اصلی دقیقاً بازسازی می‌شود و تنها به شکل کوچک تری نوشته می شود. در عوض در روش اتلافی از

26

استفاده می‌شود که مقدار دقیق عبارت در ازای حجم کمتر از دست خواهد رفت.

الگوریتم‌ها و برنامه‌های اجرایی نمونه

مثال فوق مثال بسیار ساده ای از یک رمزنگاری الگو-طول ( Run-length encoding، که در آن "الگو" عبارت است از رشته ای از عناصر که به طور متوالی تکرار شده است و "طول" تعداد تکرار آن است) است. این روش اغلب برای بهینه سازی فضای دیسک در کامپیوترهای اداری و یا استفادهٔ بهتر از طول باند اتصال در یک شبکهٔ کامپیوتری به کار می رود. برای داده‌های نمادی مانند متن ها، صفحه گسترده‌ها ( Spreadsheet)، برنامه‌های اجرایی و… غیراتلافی بودن ضروری است زیرا تغییر کردن حتی یک بیت داده قابل قبول نمی باشد ( مگر در موارد بسیار محدود). برای داده‌های صوتی و تصویری کاهش قدری از کیفیت بدون از دست دادن طبیعت اصلی داده قابل قبول می باشد. با بهره بردن از محدودیت‌های سیستم حواسی انسان، می توان در حجم زیادی از فضا صرفه جویی کرد و در عین حال خروجی ای را تولید کرد که با اصل آن تفاوت محسوسی ندارد. این روش‌های فشرده سازی اتلافی به طور کلی یک برآیند گیری سه جانبه بین سرعت فشرده سازی، حجم نهایی فشرده سازی و میزان کیفیت قابل چشم پوشی (درصد اتلاف قابل قبول) است.

نظریه

سابقهٔ نظری فشرده سازی برای فشرده سازی‌های بهینه توسط نظریهٔ اطلاعات (که رابطه نزدیکی با نظریهٔ اطلاعات الگوریتمی دارد) و برای فشرده سازی‌های اتلافی توسط نظریهٔ آهنگ-پیچیدگی ( Rate–distortion theory) ارائه شده اند. این شاخه‌های مطالعاتی در اصل توسط کلوده شانون( Claude Shannon)، که مقالاتی بنیادی در این زمینه در اواخر دهه ای ۱۹۴۰ و اوایل دههٔ ۱۹۵۰ به چاپ رسانده است به وجود آمده. "رمزنگاری" و "نظریهٔ رمزگذاری" نیز رابطه بسیار زیادی با این زمینه دارند. ایدهٔ فشرده سازی رابطهٔ عمیقی با آمار استنباطی دارد.

 

آنتروپی

دو جملهٔ زیر را در نظر می‌گیریم:

# فردا هوا گرفته و ابری خواهد بود.

# من یک میلیارد برنده شدم.

اگر چه جملهٔ دوم کوتاه‌تر از اولی‌ست، بار اطلاعاتی بیشتری نسبت به آن دارد.

 

برگرفته از ویکی  پدیا

 

برای دانلود مقاله های ISI مربوط به فشرده سازی چاپ شده در ژورنالهای 2012 و 2013 به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.

 

با تشکر


ارسال شده در تاریخ : 29 اسفند 1391برچسب:, :: 18:6 :: توسط : همایون

رمزنگاری خم بیضوی

 منحنی بیضوی (ECC) یک رمزنگاری به روش کلید عمومی می‌باشد که بر اساس ساختاری جبری از منحنی های بیضوی بر روی زمینه‌های محدود طراحی شده. استفاده از منحنی‌های بیضوی در رمزنگاری به طور جداگانه توسط نیل کوبلیتز و ویکتور س. میلر در سال ۱۹۸۵ پیشنهاد شد. منحنی‌های بیضوی همچنین در چندین الگوریتم فاکتورگیری عدد صحیح نیز استفاده شده‌است که این الگوریتم‌ها دارای کاربردهایی در زمینهٔ رمزنگاری می‌باشند، مانند فاکتور منحنی بیضویLenstra.

رمزنگاری کلید عمومی مبتنی بر اشکالات برخی از مسائل ریاضی است. در اوایل سیستم‌های مبتنی بر کلید عمومی با این فرض که پیدا کردن دو یا بیشتر از دو عامل اول بزرگ برای یک عدد صحیح بزرگ مشکل است امن تلقی می‌شدند. برای پروتکلهای مبتنی بر منحنی بیضوی، فرض بر این است که پیدا کردن لگاریتم گسسته از یک عنصر تصادفی منحنی بیضوی با توجه به یک نقطه پایهٔ عمومی شناخته شده غیر عملی می‌باشد. اندازه منحنی بیضوی تعیین کننده سختی مسئله‌است. مزیت اصلی که توسط ECC وعده داده می‌شد یک کلید با اندازه کوچکتر بود، که این موضوع به معنی کاهش ذخیره سازی و انتقال مورد نیاز است، به این معنی که، یک سیستم منحنی بیضوی می‌تواند همان سطح ازامنیت را که یک سیستم مبتنی بر RSA با ماژولهای بزرگ و طول بلند کلید فراهم می‌کند را ایجاد کند، به عنوان مثال، یک کلید عمومی ۲۵۶ بیتی مبتنی بر ECC می‌بایست امنیت قابل مقایسه‌ای با یک کلید عمومی ۳۰۷۲ بیتی مبتنی بر RSA داشته باشد. برای اهداف امروزی رمزنگاری، منحنی بیضوی یک منحنی مسطح است که متشکل از نقاط رضایت بخش معادله می‌باشد.  y^2 = x^3 + ax + b,!
همراه با یک نقطه برجسته در بی نهایت (نشان داده شده به شکل ∞)(مختصات در اینجا از یک حوزه ثابت متناهی از مشخصه که با ۲ یا ۳ برابر نیست انتخاب می‌شوند، و یا اینکه معادله منحنی تا حدودی پیچیده تر خواهد بود.) این مجموعه همراه با عملیات گروهی از نظریه گروه بیضوی از گروه Abelian، با نقطه‌ای در بینهایت به عنوان عنصر هویت می‌باشند. ساختار گروه از گروه مقسوم علیه تنوع جبری زیرین ارث بری می‌کند. همانطور که برای دیگر سیستم‌های رمزنگاری کلید عمومی محبوب، بدون اثبات ریاضی برای امنیت ECC از سال ۲۰۰۹ منتشر شد. با این حال، آژانس امنیت ملی ایالات متحده ECC و از جمله طرح‌های مبتنی بر آن را در سوئیت B خود قرار داد، که مجموعه‌ای از الگوریتم‌های توصیه شده بود و با این کار این الگوریتم را تایید کرد و اجازه داد تا از آن برای حفاظت از اطلاعات طبقه بندی شده و محرمانه با کلید ۳۸۴ بیتی استفاده شود. در حالی که حق ثبت اختراع RSA در سال ۲۰۰۰ منقضی می‌شد، سیستم‌های ثبت اختراع به شدت در حال ثبت برخی از ویژگی‌های تکنولوژی ECC بودند. هر چند برخی استدلال می‌کردند که امضای دیجیتال منحنی بیضوی استاندارد فدرال (ECDSA NIST FIPS 186-3) و برخی طرح‌های تبادل کلید قابل انجام مبتنی بر ECC (شامل ECDH) را می توان بدون نقض این حقوق نیز استفاده نمود.

منیت کاملECC بستگی به توانایی محاسبهٔ ضرب نقطه‌ای و عدم توانایی برای محاسبه حاصلضرب با توجه به نقاط اصلی و نقاط تولید شده دارد.

از آنجایی که پر سرعت ترین الگوریتم‌های شناخته شده که حل رمزنگاری منحنی بیضوی با آنها ممکن است (مانند baby-step giant-step, Pollard's rho و غیره) به( sqrt{n})O مرحله نیاز دارند، از این رو زمینه زیرین باید تقریباً ۲ برار پارامتر امنیت باشد. برای مثال برای امنیت ۱۲۸ بیتی ما نیاز به منحنی ای با Fq داریم به طوری که مقدار q در حدود ۲۵۶^۲. این را می توان با رمزنگاری با زمینه محدود


ارسال شده در تاریخ : 29 اسفند 1391برچسب:, :: 18:6 :: توسط : همایون
درباره وبلاگ
به وبلاگ من خوش آمدید
آخرین مطالب
نويسندگان
پيوندها

تبادل لینک هوشمند
برای تبادل لینک  ابتدا ما را با عنوان دانلود مقاله ISI و آدرس downloadpaperisi.LXB.ir لینک نمایید سپس مشخصات لینک خود را در زیر نوشته . در صورت وجود لینک ما در سایت شما لینکتان به طور خودکار در سایت ما قرار میگیرد.






خبرنامه وب سایت:





آمار وب سایت:  

بازدید امروز : 34
بازدید دیروز : 49
بازدید هفته : 103
بازدید ماه : 103
بازدید کل : 304199
تعداد مطالب : 143
تعداد نظرات : 1
تعداد آنلاین : 1