بازیابی رمز عبور عضویت

پشتیبانی باتجربه و سریع

متخصصین با تجربه سامی هاست با بیش از ۸ سال تجربه در زمینه میزبانی وب و خدمات هاستینگ ، با کمال افتخار شما را یاری می نمایند، تمامی تلاش تیم پشتیبانی سامی هاست ارایه پشتیبانی مطلوب جهت جلب رضایت کاربران گرامی می باشد.

بیشتر
پشتیبانی

امنیت سرور و سایت

از آنجا که امنیت یکی از مهمترین و باالویت ترین مباحث در ارائه سرویس های میزبانی وب دارد ، سامی هاست تمام تلاش خود را در جهت ارائه سرویسی مطمئن و امن می نماید تا با خرید هاست و سرور امن ،پشتوانه فکری راحتی برای امنیت سایت خود داشته باشید.

بیشتر
امنیت

بکاپ گیری منظم

علی رغم اینکه پشتیبانگیری از اطلاعات همواره وظیفه مشتری بوده است ، لیکن جهت حفاظت هرچه بیشتر از اطلاعات کاربران، تمامی سرویس های میزبانی سامی هاست یه صورت خود کار به صورت های هفتگی و ماهانه بکاپ گیری می شوند.

بیشتر
بک آپ گیری

مانیتوریگ ۲۴ ساعته سرورها

کلیه سرور های هاستینگ قدرتمند سامی هاست به صورت مداوم و ۲۴ ساعته از طریق منابع انسانی و نرم افزارهای پیشرفته مانیتورینگ نظیر NaGius تحت نظر می باشند تا در صورت مشاهده هر مشکلی، در اسرع وقت برطرف شود.

بیشتر
مانیتورینگ
تعرفه دامنه
.com
35000
.net
38000
.org
36000
.ir
5000

بررسی ضعف های گوگل و الگوریتم ها

بررسی ضعف های گوگل و الگوریتم ها


گوگل

گوگل


ضعف های الگوریتم های گوگل , موضوعی که شاید خود مسوولین کمپانی نیز از آن آگاه بوده و هستند و اما به دلایل تجاری و بیزنسی , هرگز به زیر بار این ضعف ها نرفته اند . در این نوشته میخواهیم این موضوع را بیشتر تشریح نماییم و در نهایت خواهیم دید که بسیاری از آسیب هایی که به وبسایت ها وارد میشود , نه نتیجه کار غیرحرفه ای و نه نتیجه سهل انگاری مدیران و نه نتیجه عدم مدیریت صحیح و نه نتیجه عدم کیفیت سرورها و دامنه ها و زیر دامنه ها و نه نتیجه استاندارد نبودن و بلکه نتیجه ضعف الگوریتم هایی است که وظایف مختلفی را باید به عهده داشته باشند که این وظایف را گاها با ضعف های آشکاری , کامل و درست به پایان نمیرسانند و وبسایت هایی بی مسوولیت , خلافکار , اسپم نویس , سارق آثار پژوهشی و …. به راحتی از این ضعف ها استفاده کرده و الگوریتم هایی را که در تبلیغات و معرفی آنان , به عنوان غولهای کمپانی معرفی شدند را دور میزنند و در جایگاه هایی قرار میگیرند که شایسته آنها نیست . الگوریتم ها را کم و بیش میشناسیم و از تکرار مجدد تعاریف و کار و وظایف آنها خودداری کرده به سراغ اصل موضوع میروم .

الگوریتم گوگل پنگوئن Google Penguin algorithm

به نظر میرسد که کار این الگوریتم , مبارزه با کمپین لینک بوده و جریمه وبسایت هایی که از جایگاه خود سواستفاده کرده و لینک میفروشند و آنها که این لینکها را میخرند . این الگوریتم وظایف دیگری نیز دارد که جای بحث آن اینجا نیست . خب ببینیم که ضعف این الگوریتم چیست ؟ فرض میکنیم که وبسایتی دارای رتبه عالی بوده و برای مثال پیج رنک ۵ دارد و با این امکان , اقدام به فروختن لینک و یا راه اندازی کمپین لینکها در سایت خود نموده است . تا اینجا به ظاهر , گوگل با یک وبسایت خلافکار ( طبق قوانین کمپانی ) روبروست و الگوریتم پنگوئن , موظف است بعد از شناسایی و پی بردن به خلاف این وبسایت , آن را طبق اطلاعیه ای که در معرفی این الگوریتم ارائه شد , جریمه کرده و جایگاه آن را گرفته و از آن پس نیز هرگز ارتقا ندهد . خب تا اینجا بسیار هم عالیست . اما مشکل کجاست ؟ مشکل جاییست که پنگوئن , تر و خشکها را با هم میسوزاند و در واقع توان دنبال نمودن لینک هایی که در کمپین لینک وبسایت خلافکار بوده را ندارد .

پنگوئن تمام لینک هایی را که در کمپین بوده اند را به عنوان خریداران لینک شناسایی و آنان را نیز جریمه میکند . ایراد کار چیست ؟ ایراد از آن جایی نشات میگیرد که بسیاری از لینکهای قرار داده شده در کمپین ها میتوانند با هدف تخریب سایر وبسایت ها قرار داده شده باشند , بدون اینکه مسوولین آن , خلافی را مرتکب شده باشند و نمونه آن , وبسایت های ثبت لینک , تبادل لینک و سایر وبسایت هایی است که چه لینک را میفروشند و چه رایگان عرضه میکنند . رقبایی که توان رقابت سالم در محیط را ندارند , با پی بردن به این ضعف بزرگ پنگوئن , از این هربه برای آسیب رسانی به وبسایت های دیگر استفاده کرده و به راحتی این الگوریتم را دور زده و به آن به غلط تفهیم میکنند که سایت مقصد , خریدار بوده و خلافکار است و پنگوئن نیز , از انجا که توان دنبال نمودن و پی بردن به اصل ماجرا را ندارد , به سرعت تمامی لینکها را با چشم بسته جریمه میکند . نتیجه این میشود که فردی درستکار با وبسایتی بدون ۱ خط اسپم , میگوید که نمیدانم چرا وبسایتم پیشرفت نمیکند .

موضوع بعدی در رابطه با بخش بیزنس هاست که خواهیم دید چگونه گوگل , بر خلاف شعار خود , کیفیت را فدای درآمد میکند . در این کمپانی , دو بخش Google Adwords و Google Adsense که به ترتیب مسوول دریافت تبلیغات سازمانی و شخصی در امور وبسایت ها هستند , به نحو چشمگیری با بخش ضد اسپم این کمپانی ارتباط دارند . این دو سرویس که درآمد کل کمپانی نیز به میزان ۱۰ میلیارد دلار در ۸ سال پیش ( یعنی فقط در سال ۲۰۰۶ ) و ۱۶ میلیارد دلار در سالهای اخیر , را تامین میکنند ( گزارش ادوارد سیک در آنوال ریپورت  http://www.webcitation.org/61rPRmWhL ) , به اشکالی گوناگون نشان داده اند که آن دسته وبسایتها که هزینه میکنند , میتوانند به نوعی از الگوریتمها نیز عبور نموده و فارغ از محتوای خود ( چه اسپم چه محتوای سرقتی چه جدید و نوآورانه ) , جایگاه های خوبی را برای خود دست پا نمایند و آن دسته وبسایتها که هزینه نمیکنند را به راحتی لگد مال نمایند . نتیجه چه میشود ؟ فردی برای نمونه , عبارت مقالات وردپرس را در این موتور جستجو گر سرچ میکند و به ردیف , محتویاتی را خواهد دید که همگی از روی یکی کپی برداری شده اند , خب قضیه جالب تر مانده و آن این موضوع است که در صفحات سوم و چهارم و پنجم از نتایج جستجو , با تعجب به موارد تازه و جدیدی بر میخورد . این به چه معناست ؟ گوگلی که خود , وبسایت ها را از خرید بک لینک بازداشته و مجازات میکند , خود مقوله ای به نام پیج رنک را در معرض فروش قرار میدهد و آشکار و پنهان , این موضوع را القا میکند که میتوانید پول بدهید و فارغ از کیفیت محتوای خود , جایگاه های خوب را کسب کنید . اگر به نشریه خوارزمی در ۲۱ سپتامبر ۲۰۱۱ هم نگاهی داشته باشیم که گوگل از کلیک بر هر لینک تبلیغاتی ۶۰ سنت سود میکند , این روند هم منطقی به نظر میرسد که محتوای لینکی که تبلیغات داده است , میتواند برای گوگل بی اهمیت باشد . البته در این نکته که تبلیغات بسیار هم خوب است شکی نیست اما اینکه تبلیغات هر محتوایی از نظر گوگل , یکسان تلقی و یکسان مورد لطف قرار میگیرد , نه تنها یک ضعف برای الگوریتمها بلکه یک ضعف اساسی و ناعادلانه برای کل کمپانی گوگل محسوب میشود که فضای رقابت سالم را به فضای جنگ سرمایه تبدیل میکند . این یک اتهام نیست , بلکه واقعیتی است که وجود دارد , چه ما بر سر و کله یکدیگر بکوبیم و چه نکوبیم , این مورد وجود دارد .

الگوریتم گوگل پاندا

خب به الگوریتم پاندای گوگل میرسیم . الگوریتمی که شاید وقتی نسخه سوم آن معرفی شد , همگان فکر کردند که از شر کپی کنندگان راحت شدند در حالی که چنین نبود و در ادامه خواهیم دید که کپی کننده ها و سارقان آثار , چگونه این الگوریتم را دور میزنند .. پاندا ۳ در واقع چیز جدیدی نبود , بلکه به نوعی در آن تلاش شد ضعف های نسخه های قدیمی تر , اصلاح شود . با ورود این الگوریتم , از آنجا که ما در ایران ۷۰ میلیون نفر بهینه ساز داریم , این الگوریتم , غول مبارزه با کپی برداران محتوا و سارقان آثار منتشر شده معرفی شد . عده ای به شکلی ماهرانه که نشان داد همیشه خلافکارها یک قدم جلوتر از الگوریتمها هستند , با ثبت نام در خبرنامه های وبسایتهای درست نویس و تمیز کار , بلافاصله از ورود محتوای جدید به سایتها آگاه شده و در دم اقدام به های لایت و کپی مطلب در وبلاگ و یا وبسایت خود ( که سابقا نیز با تبلیغات بالاتر از آن وبسایتها قرار گرفته بود ) کرده و به نوعی پاندا ۳ و جانورهای گوگل و روبات ها و عنکبوت های کند گوگل را , قبل از رسیدن به آن مطلب , دور میزنند و آن مقاله و مطلب را به نام وبسایت خود , به عنوان محتوای جدید , منتشر میکنند . نتیجه چه میشود ؟ پاندا و روبات ها کند هستند . کند تر از خلافکاران , وبسایت اصلی جریمه میشود و وبسایت سارق تقدیر شده و لینکش در جایگاه بهتری قرار میگیرد . مدیران وبسایت جریمه شده بعد از چند روز , لینک خود را در ته نتایج دیده و یا همان مطلب را در رتبه اول اما با آدرس دیگری مشاهده میکنند . این به نظر عادلانه نمیرسد , اما ما باور داریم که فضا , فضای رقابت سرمایه است و نه رقابت نوآورانه و سالم و منطقی و تمیز .

الگوریتم مرغ مگس خوار

این الگوریتم که سالهای زیادی از عمر آن نمیگذرد , به نوعی آمده است تا خلاف تمام گفته های ما در این مقاله را اثبات نماید . اما هنوز نیامده ایرادی از جانب فارسی زبانان به آن وارد شد که جای تامل داشت . این الگوریتم , زبان فارسی را به درستی تشخیص نمیدهد و تعدادی از واژه های فارسی مانند ک و ی و گ و پ را به شکل عربی آن ( ی ) و  ( ک ) مورد تحلیل قرار میدهد که در نتایج کار آن در وب فارسی , یک ضعف محسوب میشود . این الگوریتم از آنجا که هنوز آنطور که باید و شاید مورد مطالعه قرار نگرفته , و از طرفی هدف آن , توجه بیشتر به محتوا اعلام شده است , کار خود , ادعای گوگل , ضعف ها و نقاط قوت خود و سایر موارد را در آینده بهتر نشان خواهد داد .


برچسب ها : , , , , , , , , ,


طراحی و برنامه نویسی : پنگاش