نقل قول نوشته اصلی توسط SV24.CO نمایش پست ها
این اطلاعات بر روی استوریج های High End که از کنترلرهای فوق العاده قدرتمندی برخوردار هستند نگهداری می شوند .
این کنترلرها از تکنولوژی های بسیار پیشرفته ای مانند Deduplication استفاده می کنند که باعث می شود حجم اطلاعاتی که تکراری هستند و در واقعیت هم همینطور هست به شدت کاهش پیدا کنند .
از سرورها هم فقط برای بحث Computing استفاده می شود و ذخیره سازی فقط در بستر شبکه SAN که در بالا به صورت مختصر توضیح داده شد انجام می گردد ، آن هم توسط سرورهای خاصی که با سرورهای مرسوم که شما می شناسید تفاوت عمده ای دارند مانند Z10 شرکت IBM .
در نهایت این مسئله را مد نظر داشته باشید که در مقیاس های اینچنینی همه چیز با آنچه شما تا به حال تصور می کردید کاملا متفاوت است .
ممنون برای توضیحات فقط مساله داده های تکراری که گفتید مثلا برای ویدئو ها چطور تشخیص داده میشه ؟ یه توضیح کامل ممنون میشم بدید راجب این قضیه یا اگر لینک چیزی دارید بدید

- - - Updated - - -

نقل قول نوشته اصلی توسط hamra نمایش پست ها
روی چندین سرور قدرتمند / نه یک سرور(با هزینه های بسیار بالا...)
پهنای باند کاملا اختصاصی / نه اشتراکی(مبا هزینه های بسیار بالا...)

قدمت یوتیوب را درنظر بگیرید یا فیسبوک یا تلگرام یا ... / آیا تا به الان به مشکل خوردند از نظر نگهداری ؟ قطعا از این پس هم به مشکل نخواهند خورد (البته مسائل مالی به کنار)
خرابی قطعات سرور هم امری طبیعی هست که ممکنه هر لحظه به وجود بیاد اما خب جایگزین میشه قطعات


چنین سایت هایی قطعا هزینه نگهداری بسیار بالایی دارند که حالا اون سازمان یا شرکت
---
چنین تاپیکی قبلا ایجاد شده بود در همین انجمن / یک جستجو کنید اون رو هم یک مطالعه کنید
عزیز درسته که تا الان تونستند از پسش دربیان ولی سوال بنده این بود به چه صورت این حجم اطلاعات ذخیره میشه و بقیه توضیحات در عنوان تایپک دادم ، عملن نمیشه گفت که تا الان نگه داری شده پس در ادامه هم میشه چون اگر به این صورت بود خیلی از مجموعه ها و سایت ها که از اول خوب بودند ولی یک دفعه جمع کردند باید الان ادامه میدادند که اینگونه نبوده و نیست !