Оцените процент полезной информации в интернете
Как и физическая Вселенная, информационная Вселенная человечества разнообразна и постоянно расширяется – она обогащается ресурсами, когда кто-нибудь снимает красивые закаты или восходы на цифровую фотокамеру, когда данные собираются и анализируются от множества установленных на гигантской газовой Турбине датчиков, что делает процесс выработки электроэнергии дешевле и эффективнее; когда ученые получают и обрабатывают данные, передаваемые со скоростью 2,8 гигабайт в секунду с австралийского радиотелескопа ASKAP; когда человек делает групповое селфи на церемонии вручения Оскар и выкладывает его в сеть, где его просматривают в течение 12-часового периода 26 миллионов человек. Ниже показано данное фото с участием Брэдли Купера, Брэда Питта, Анжелины Джоли, Мерил Стрип, Джулии Робертс, Кевина Спейси, Чэннинга Татума и др.
Сегодня более чем 2 миллиарда людей и миллионы предприятий выполняют свою работу через интернет, миллиарды устройств связи отправляют и принимают данные, более одного миллиарда часов телевизионных шоу, сериалов и фильмов транслируется в интернете на основе потокового мультимедиа за один месяц только одной компанией Netflix. Вся информация, начиная от данных, собранных марсоходом Curiosity Rover на Марсе, до ваших фотографий с последнего отпуска, выложенных в Вконтакте или инстаграме с каждым днем пополняет и пополняет информационную Вселенную человечества.
В прошлой статье мы оценили масштабы таких единиц информации как Эксабайт, Зеттабайт, Йоттабайт и поэтому сейчас готовы к осознанию масштабов того количества информации, которое генерируется, хранится, передается и анализируется в современном мире. В данной статье собрано множество фактов с конкретными цифрами о нашей информационной Вселенной: как она развивалась последнее десятилетие, в каком состоянии она сейчас и что нас ждет в будущем. Начнем разбирательство с рассмотрения значимых компаний, которые вносят наиболее существенный вклад в информационную Вселенную.
Вопрос: Какая компания обрабатывает больше всего данных в мире?
Ответ: Неудивительно, что ответ на этот вопрос – компания Google. Возможно, более удивительно, какие именно цифры сегодня стоят за этой корпорацией. Например, знаете ли вы, что Google обрабатывает 5.3 миллиарда запросов в день? Или что Google хранит более 10 эксабайт данных? Конечно Facebook, Microsoft и Amazon составляют Google серьезную конкуренцию: только Facebook имеет 2.5 миллиарда единиц контента, 2.7 миллиарда «лайков» и 300 миллионов фотографий – все это составляет более 500 терабайт данных.
Вопрос: какая компания имеет наибольшее количество серверов?
Ответ: После того, как дан ответ на предыдущий вопрос, логично подумать опять про Google. Но на самом деле ответ – Amazon. В компании размещают 1 000 000 000 гигабайт данных на более чем 1 400 000 серверах. Предполагается, что Google и Microsoft имеют около 1 000 000 серверов каждый, но, ни одна из компаний не оглашает точные цифры.
Вопрос: Какой процент данных хранится в цифровом формате?
Ответ: представьте каждую книгу в каждой библиотеке, каждой школе, каждом доме во всем мире – это много книг. Тем не менее, все эти книги вместе взятые составляют максимум 6 процентов от общей суммы всех человеческих данных. В 2007 году было подсчитано, что только 6% всех данных поступают из книг и из других печатных материалов – остальные 94% данных представляются уже в цифровом формате.
Вопрос: Что ждет нас в будущем?
Ответ: заглядывая в будущее, эксперты прогнозируют, что к 2020 году будет существовать 44 зеттабайт данных. Три года назад, по некоторым оценкам, вся всемирная паутина содержала около 500 эксабайт – это 5 миллиардов гигабайт, и только половина одного зеттабайта!
В настоящее время объемы цифровых данных удваиваются каждые два года. Международная исследовательская и консалтинговая компания IDC, занимающаяся изучением мирового рынка информационных технологий и телекоммуникаций, сначала прогнозировала, что с 2009 г до 2020 г. объем мировых данных увеличится в 44 раза, потом, что в 50 раз, теперь уже значится цифра 55 раз. Каждый год IDC с учетом анализа новых данных перестраивает кривую роста вверх, как правило, на несколько зеттабайт, по последнему отчету с 2009 г объем данных за год с 0,8 зеттабайт вырастет до 44 зеттабайт в 2020 г.
Картинка отлично показывает, насколько велик 44-кратный рост. Однако она в действительности не передает, насколько много 44 Зеттабайта на самом деле, и в каком объеме данных мы будем плавать (или тонуть) в 2020 году.
Число байт в 44 зеттабайтах является слишком большим даже для записи его в Microsoft Excel (Число настолько велико, что при вычислениях Excel урежет последние семь цифр точности). Предполагая, что закон Мура позволит нам удвоить емкость смартфонов в три раза до 2020 года, потребуется 188 978,561,024 (188+ триллион) смартфонов для хранения 44 ZB. Это число соответствует 25 смартфонам на человека для всего населения планеты. Представьте себе задачу управления данными, распределенными по множеству смартфонов.
Facebook в настоящее время хранит 300 Петабайт (PB) данных (это число растет на 600 ТБ в день, а по некоторым другим данным даже больше). Довольно внушительная цифра. Однако это намного, намного меньше, чем даже один Зеттабайт, который вмещает в себя 3 тысячи 495 хранилищ данных Facebook.
Сегодня Facebook имеет 1.3 миллиарда активных пользователей в месяц (стоит отметить, что при этом Facebook содержит около 81 миллиона фейковых профилей). Если бы к 2020 г. в Facebook зарегистрировались все жители на Земле – 7.5 миллиарда человек и данные продолжали бы увеличиваться ежегодно в 10 раз, то хранилище данных Facebook все равно содержало бы только 1/60 часть от 1 ZB:
Незаурядные попытки расчета количества информации человечества
В 2003 году Марк Либерман рассчитал требования к хранилищу всей когда-либо произносимой человеческой речи. Его расчеты показали примерно 42 зеттабайта, если бы оцифровка звука осуществлялась с параметрами 16 кГц/16-бит (что, на мой взгляд, для речи жирно). Он сделал это, чтобы проверить следующий факт: «все слова, произнесенные когда-либо людьми, несут около 5 эксабайт данных».
Расчеты были банально простыми:
Допустим в 1800 году на планете жил 1 миллиард человек, в 1900 году –1,6 миллиарда человек, а в 2000 году – 6,1 миллиарда человек. Предположим, что 10 миллиардов человек прожили в среднем 50 лет, говоря в среднем по 2 часа в день на протяжении всей своей жизни. Это
10 * 10^9 * 50 * 365 * 2 * 60 * 60 = 1.314 * 10^18 секунд.
Если оцифровать одноканальный звук со скоростью 32 КБ в секунду, то получим
1.314 * 10^18 * 3.2 * 10^4 = 4.208 * 10^22 байт или 42 зеттабайта
После полученных результатов Либерман предположил, что возможно, авторы приведенной выше фразы имели в виду «все слова, написанные когда-либо людьми».
Для тех, кому все эти биты и байты кажутся немного абстрактными в 2015 году студенты Лестерского университета попытались посчитать размер Интернета в физических терминах.
Сначала они подсчитали, что в индексированной поисковой сети насчитывается примерно 47 миллиардов страниц. Между тем, чтобы узнать, сколько печатных страниц будет у каждой веб-страницы из этих 47 миллиардов, нужно было посетить репрезентативную выборку веб-сайтов и попытаться распечатать каждый. Чтобы получить справедливое среднее значение с 5-процентной погрешностью и 95-процентным доверительным интервалом пришлось бы протестировать 385 случайных сайтов с помощью программы Random Website Machine. Цитата студента-исследователя Лестерского университета: «Это забавная игра, вы можете играть в нее у себя дома, если вам больше абсолютно нечем заняться: нажмите кнопку «случайный сайт»; нажмите CTRL+A и CTRL+P; и запишите полученное число страниц в таблицу».
Студенты подсчитали, что потребуется 2 процента тропических лесов Амазонки, чтобы сделать бумагу, на которой можно будет распечатать все текстовые данные сети интернет. Исследователи оценили, что средняя веб-страница содержит данных на 6,5 печатных страниц. При таком предположении для печати всех текстовых данных интернета потребуется 305,5 миллиарда листов (это 212 миллионов копий произведения «Война и мир» Льва Толстого или 75 миллионов копий всей серии книг о Гарри Поттере).
Конечно, оценивать огромный объем данных, размещенный в сети Интернет в текстовом виде нерационально. Согласно исследованиям Cisco, в 2015 году IP-трафик по передаче видео составил 8000 петабайт в месяц, по сравнению с около 3000 петабайт по загрузке web страниц и электронной почты. В целом, по итогам года видео составляло большую часть интернет трафика – 34 000 петабайт, второе место занял общий доступ к файлам – 14 000 петабайт.
Тезисная подборка других интересных фактов:
- Сегодня в цифровой Вселенной насчитывается 2.7 зеттабайт данных.
- Компания Akamai (поставщик услуг для акселерации веб-сайтов, провайдер платформ доставки контента и приложений) анализирует 75 миллионов событий в день, чтобы улучшить целевую рекламу.
- По всему миру сегодня более 5 миллиардов человек звонят, пишут друг другу в мессенджерах и просматривают веб-страницы на мобильных телефонах.
- На расшифровку генома человека первоначально было потрачено 10 лет. Сегодня эту же работу по обработке информации можно было выполнить за одну неделю.
- В 2008 году Google обрабатывал 20 000 терабайт данных в день.
- Самая большая база данных AT&T может похвастаться названиями, включая самый большой объем данных в одной уникальной базе данных (312 терабайт) и второе по величине количество строк в уникальной базе данных (1,9 триллиона), которая включает в себя обширные записи вызовов AT&T.
- Пользователи YouTube загружают 48 часов нового видео каждую минуту, каждый день загружается видео на 10 терабайт, что эквивалентно 405 Blu-Ray дискам.
- Каждую минуту создается 571 новых сайтов.
- В 2006 году совокупное пространство всех жестких дисков компьютера в мире оценивалось примерно в 160 эксабайт.
- В 1986 году технологический потенциал сетей телерадиовещания во всем мире составлял 0.432 зеттабайта оптимально сжатой информации, в 1993 году эта же цифра составила 0.715 зеттабайта, в 2000 году – 1,2 зеттабайта, в 2007 – 1,9 зеттабайта, что является информационным эквивалентом того, как если бы каждый человек на Земле получал в день 174 газеты.
- По состоянию на 2009 год, вся Всемирная паутина содержала около 0.5 зеттабайт данных.
- Компания Seagate Technology сообщила о продаже только в 2011 году жестких дисков общей емкостью 330 эксабайт.
- К 2025 году, согласно исследованию IDC по заказу Seagate, количество информации вырастет до 163 зеттабайт.
- Стандарт формата размещения таблиц разделов на физическом жестком диске допускает максимальный размер диска и раздела 7,02 зеттабайт или 5,946 зебибайт при использовании секторов размером 512 байт.
- Файловая система ZFS (Zettabyte File System), которая поддерживает большие объёмы данных, обеспечивает максимальный объем хранилища около 256 квадриллионов зеттабайт.
- Человеческий мозг способен хранить 10 терабайт информации.
- За месяц по WhatsApp отправляют 1 641 600 000 000 сообщений.
- По электронной почте за месяц отправляют 8 078 400 000 000 писем
Генерировать информацию это дело несложное, а вот обработать ее и проанализировать уже гораздо сложнее. В 2013 году только 22% информации в цифровой Вселенной потенциально можно было проанализировать, т. е. эта часть содержала хоть какие-то метаданные (чаще всего мы мало что знаем о данных, если только они каким-то образом не охарактеризованы или не помечены); менее 5% из этих данных были фактически проанализированы. Согласно некоторым оценкам к 2020 году этот полезный процент может вырасти до 35% за счет роста объема данных, получаемых от встраиваемых информационных систем. Если задуматься над приведенными цифрами, то в скором времени будет не только проблема большого количества мусора на нашей планете, но также появится проблема большого количества неперерабатываемого информационного мусора.
Напоследок, представляем вашему вниманию интересную картинку: «что происходит при помощи Интернета за 1 минуту?»
Источник
Илона С. · 4 сентября 2019
6,1 K
Агентство Webpage Profy. Разработка и продвижение сайтов.
Контентная составляющая продвижения, это основная часть SEO. Простыми словами, только за счет одних текстов сайт может вылезти в топ. Да, это будет дольше, чем при продвижение сайта. Да, не по всем запросам. Но на тексты поисковые системы обращают максимальное внимание. Поэтому, скорпированные тексты не только понизят позиции вашего ресурса в выдаче, но и могут… Читать далее
Это все понятно,ну как придумать и найти те слова -синонимы ,если продавцов товара тысячи?
Уникальность текстов — признанное и важное условие для продвижения порталов. Возможно, вы не знали, но каждый день помимо обычных пользователей ваш портал посещают роботы-поисковики. Они оценивают информацию на сайте по целому ряду критериев: читабельности, грамотности, длине, а также уникальности. Роботы быстро сравнивают опубликованную статью с уже имеющими в сети и… Читать далее
Комплексный интернет-маркетинг. Приводим клиентов для Вашего бизнеса. · web-comp.ru
Да, низкая уникальность текста вредит позициям сайта в поисковой выдаче. Если вы копируете тексты с других сайтов и размещаете на своём на сайт могут наложить санкции и страницы вообще перестанут отображаться в поиске. Необходимо уделять текстам особое внимание.
Основные требования, которым должны соответствовать SEO тексты в 2020 году:
— уникальность 100%;
— вода не… Читать далее
Уникальность статей и изображений — важные составляющие для продвижения сайта. Однако их значимость несколько преувеличена.
Так, на сайте могут быть 1-2 статьи (составляющие незначительный процент от общего контента), скопированные из других ресурсов. При этом, если они хорошо ранжируются, нет никаких проблем. В данном случае просто необходимо указать авторство текстов… Читать далее
Яндекс считает что мой текст плагиат, а проверит только через две недели.
Комплексный интернет-маркетинг. Приводим клиентов для Вашего бизнеса. · web-comp.ru
Да, низкая уникальность текста вредит позициям сайта в поисковой выдаче. Если вы копируете тексты с других сайтов и размещаете на своём на сайт могут наложить санкции и страницы вообще перестанут отображаться в поиске. Необходимо уделять текстам особое внимание.
Основные требования, которым должны соответствовать SEO тексты в 2020 году:
— уникальность 100%;
— вода не… Читать далее
Начальник отдела поискового продвижения веб-студии SeoVolga.
Потфолио https://vl…
Поисковые системы четко различают на сайте техническую и общую информацию.
Общая информация на сайте должна быть уникальна на 100%. Это описание компании, её особенностей, конкурентных преимуществ и др.
Техническая информация, описание товаров, характеристики – хватит 10% уникальности. Достаточен легкий рерайт.
А если уникальность будет 80-90 процентов как скажется такой фактор ?
Да, если делаешь тупо копию текста с другого сайта, то считай 100% будешь ниже него, до кучи добавим, что не даром уже давно все гонятся за уникальностью текстов и требуют её выше
https://анти-антиплагиат.рф — повышение уникальности текста и проверка работ на…
Конечно. Текста на сайте должны иметь максимальную уникальность , иначе позиции вашего сайта могут заметно проседать. Рекомендуем не пользоваться скаченным контентом и писать только авторские текста.
Стоит ли делать title уникальным или можно копировать у конкурентов?
Hardkod оказывает услуги удаленной технической поддержки и продвижения сайтов в Москве и… · hardkod.ru
Добрый день!
Копировать Title у конкурентов — нельзя. Можно смотреть на общий принцип формирования тега у других сайтов в ТОП-е, при этом писать нужно что-то своё.
Кроме того, не рекомендуется делать одинаковыми Title внутри страниц собственного сайта.
Если тема очень конкурентная, и практически невозможно придумать что-то уникальное, то тогда в конец тега можно вписать бренд.
Например: SEO-продвижение и поддержка сайтов по доступной цене — Hardkod
Т.к. бренд обычно уникален — то и за счёт него можно добиться уникальности среди других сайтов.
Какой длины должны быть статьи на сайте, чтобы они хорошо продвигались в поиске?
Консультируем по вопросам SEO
Все зависит от темы, обычно нужно от 5 до 20 тысяч знак для информационной темы, но бывают такие статьи, где и 3 тысячи выдать трудно. Ориентируйтесь на статьи из топа, берите размер самой большой. Обычно все зависит не от размера, а от глубины проработки статьи. С другой стороны, если Вы глубокого погрузились в контент, то и длина должна быть немалой.
В общем обычно нужно писать много, но именно по теме, по содержанию, вода там не нужна. Если можете что-то сказать, нужно писать. Если полностью покрыли тему, значит все.
Прочитать ещё 1 ответ
Как вставлять ключевые слова в статью ?
Digitalriff.ru — агентство поискового продвижения сайтов и контекстной рекламы · digitalriff.ru
Если ваша цель — продвинуть определенную страницу, то включение запросов в текст нужно делать максимально естественно, не нарушая логический баланс текста. Используйте «ключи» в заголовках H1-H3, ключевые запросы должны присутствовать в тегах Title и Description, используйте синонимы и LSI-фразы, которые помогут поисковой машине более объемно понять вашу тематику.
Поможет ли хорошее текстовое наполнение продвинуть мой сайт?
Digital-агентство. Честное SEO, Контекстная и таргетированная реклама. Только белые… · smenik-agency.ru
Люди приходят на ваш сайт (мы говорим про информационный ресурс) с целью получить информацию, значит хорошее текстовое наполнение напрямую влияет на поведенческие факторы. Грамотные и уникальные тексты, которые хорошо написаны, положительно сказываются на времени, проведенном пользователем на сайте. Текстовое содержание должно быть актуальным, интересным, иметь продуманную структуру, только в таком случае пользователь им заинтересуется и задержится на вашем ресурсе. Правил по написанию текстов можно найти очень много, про это написаны книги, но есть основные аспекты:
- Писать нужно просто и понятно, не используйте заумные слова, чтобы не раздражать читателей. Создавайте тексты для широкой аудитории, без необходимости не употребляйте термины и высокопарные обороты речи.
- Пишите кратко и емко. Не вставляйте в текст лишние слова и словосочетания, в наличии которых нет необходимости. Если пользователь не может в течение 20-30 секунд найти ответ в тексте на вопрос, то он уйдет.
- Не стоит навязывать свою точку зрения. Дайте возможность читателю самому принять решение исходя из фактов, и той информации, которую вы доносите до него в статье.
- Пишите часто и грамотно. Если вы допускаете орфографические и другие ошибки, то лучше наймите редактора.
Больше информации о нас: https://smenik-agency.ru/
Прочитать ещё 5 ответов
Источник
Мы уже привыкли к постоянному и безудержному росту объёма информации в сети. Остановить или замедлить этот процесс никому не под силу, да и смысла в этом нет. Все знают, что интернет огромен, как по количеству данных, так и по поголовью сайтов. Но насколько он велик? Можно ли как-то оценить, хотя бы приблизительно, сколько петабайт бегает по кабелям, опутывающим планету? Сколько сайтов ждут посетителей на сотнях тысяч серверов? Этим вопросом задаются многие, в том числе и учёные, которые пытаются разработать подходы к оценке безбрежного моря информации, называемого интернетом.
Всемирная сеть — очень оживлённое место. Согласно сервису Internet Live Stats, каждую секунду в Google делается более 50 000 поисковых запросов, просматривается 120 000 видео на Youtube, отправляется почти 2,5 млн электронных писем. Да, весьма впечатляет, но всё же эти данные не позволяют в полной мере представить себе размеры интернета. В сентябре 2014 года общее количество сайтов перевалило за миллиард, и сегодня их примерно 1,018 млрд. А ведь здесь ещё не подсчитана так называемая «глубокая паутина» (Deep Web), то есть совокупность сайтов, не индексируемых поисковиками. Как указывается на Википедии, это не синоним «тёмной паутины», к которой в первую очередь относятся ресурсы, на которых ведётся всевозможная противоправная деятельность. Тем не менее, контент в «глубокой паутине» может быть как совершенно безобидным (например, онлайновые базы данных), так и совершенно непригодным для глаз законопослушной публики (к примеру, торговые площадки чёрного рынка с доступом только через Tor). Хотя Tor’ом пользуются далеко не только нечистые на руку люди, но и вполне чистые перед законом пользователи, алчущие сетевой анонимности.
Конечно, вышеприведённая оценка численности веб-сайтов является приблизительной. Сайты возникают и исчезают, к тому же размеры глубокой и тёмной паутин определить практически невозможно. Поэтому даже приблизительно оценивать размеры сети по этому критерию весьма непросто. Но одно несомненно — сеть постоянно растёт.
Всё дело в данных
Если одних только веб-сайтов более миллиарда, то отдельных страницы гораздо больше. Например, на ресурсе WorldWideWebSize представлена оценка размера интернета именно по количеству страниц. Методика подсчёта разработана Морисом де Кундером (Maurice de Kunder), опубликовавшим её в феврале этого года. Вкратце: сначала система осуществляет поиск в Google и Bing по списку из 50 распространённых английских слов. На основании оценки частоты этих слов в печатных источниках полученные результаты экстраполируются, корректируются, вводится поправка на совпадения результатов по разным поисковикам, и в результате получается некая оценка. На сегодняшний день размер интернета оценивается в 4,58 млрд отдельных веб-страниц. Правда, речь идёт об англоязычном сегменте сети. Для сравнения, там же указан размер голландского сегмента — 225 млн страниц.
Но веб-страница в качестве единицы измерения — вещь слишком абстрактная. Куда интереснее оценить размер интернета с точки зрения объёма информации. Но и здесь есть нюансы. Какую именно информацию считать? Передаваемую или обрабатываемую? Если, к примеру, нас интересует информация передаваемая, то и здесь можно считать по-разному: сколько данных может быть передано за единицу времени, или сколько передано фактически.
Одним из способов оценки циркулирующей в интернете информации является измерение трафика. Согласно данным Cisco, к концу 2016 года по всему миру будет передано 1,1 зеттабайта данных. А в 2019 году объём трафика удвоится, достигнув 2 зеттабайт в год. Да, это ОЧЕНЬ много, но как можно попытаться представить себе 1021 байт? Как услужливо подсказывается в инфографике от той же Cisco, 1 зеттабайт эквивалентен 36 000 лет HDTV-видео. И понадобится 5 лет для просмотра видео, передаваемого по миру каждую секунду. Правда, там было предсказано, что этот порог трафика мы перейдём в конце 2015, ну ничего, немного не угадали.
В 2011 году было опубликовано исследование, согласно которому, в 2007 году человечество хранило на всех своих цифровых устройствах и носителях примерно 2,4 х 1021 бит информации, то есть 0,3 зеттабайта. Суммарная вычислительная мощность мирового парка вычислительных устройств «общего назначения» достигала 6,4 х 1012MIPS. Любопытно, что 25% от этой величины приходилось на игровые приставки, 6% — на мобильные телефоны, 0,5% — на суперкомпьютеры. При этом суммарная мощность специализированных вычислительных устройств оценивалась в 1,9 х 1014 MIPS (на два порядка больше), причём 97% приходилось на… видеокарты. Конечно, с тех пор прошло целых 9 лет. Но очень примерно оценить текущее положение дел можно исходя из того, что за период 2000-2007 среднегодовой рост объёмов хранимой информации составил 26%, а вычислительной мощности — 64%. Учитывая развитие и удешевление носителей, а также замедление прироста вычислительной мощности процессоров, предположим, что количество информации на носителях растёт на 30% в год, а вычислительная мощность — на 60%. Тогда объём хранимых данных в 2016 году можно оценить на уровне 1,96 х 1022 бит = 2,45 зеттабайта, а вычислительную мощность персональных компьютеров, смартфонов, планшетов и приставок на уровне 2,75 х 1014 MIPS.
В 2012 году появилось любопытное исследование количества используемых на тот момент IPv4-адресов. Изюминка в том, что информация была получена с помощью глобального сканирования интернета силами огромной хакерской ботнет-сети из 420 тыс. узлов.
После сбора информации и алгоритмической обработки выяснилось, что одновременно активными были около 1,3 млрд IP-адресов. Ещё 2,3 млрд бездействовали.
Физическое воплощение
Несмотря на восход цифрового века, для многих из нас биты и байты остаются понятиями несколько абстрактными. Ну, раньше память измеряли мегабайтами, теперь гигабайтами. А что если попробовать представить размер интернета в каком-то вещественном воплощении? В 2015 году двое учёных предложили использовать для оценки настоящие бумажные страницы А4. Взяв за основу данные с вышеупомянутого сервиса WorldWideWebSize, они решили считать каждую веб-страницу эквивалентной 30 страницам бумажным. Получили 4,54 х 109 х 30 = 1,36 х 1011 страниц А4. Но с точки зрения человеческого восприятия это ничем не лучше тех же байтов. Поэтому бумагу привязали к… амазонским джунглям. Согласно расчёту авторов, для изготовления вышеуказанного количества бумаги нужно 8 011 765 деревьев, что эквивалентно 113 км2 джунглей, то есть 0,002% от общей площади амазонских зарослей. Хотя позднее в газете Washington Post предположили, что 30 страниц — слишком много, и одну веб-страницу правильнее приравнять к 6,5 страницам А4. Тогда весь интернет можно распечатать на 305,5 млрд бумажных листов.
Но всё это справедливо лишь для текстовой информации, которая занимает далеко не самую большую долю от общего объёма данных. Согласно Cisco, в 2015 году на одно только видео приходилось 27 500 петабайт в месяц, а совокупный трафик веб-сайтов, электронной почты и «данных» — 7 700 петабайт. Немногим меньше пришлось на передачу файлов — 6 100 петабайт. Если кто забыл, петабайт равен миллиону гигабайт. Так что амазонские джунгли никак не позволят представить объёмы данных в интернете.
В упомянутом выше исследовании от 2011 года предлагалось визуализировать с помощью компакт-дисков. Как утверждают авторы, в 2007 году 94% все информации было представлено в цифровом виде — 277,3 оптимально сжатых эксабайта (термин, обозначающий сжатие данных с помощью наиболее эффективных алгоритмов, доступных в 2007 году). Если записать всё это богатство на DVD (по 4,7 Гб), то получим 59 000 000 000 болванок. Если считать толщину одного диска равной 1,2 мм, то эта стопка будет высотой 70 800 км. Для сравнения, длина экватора равна 40 000 км, а общая протяжённость государственной границы России — 61 000 км. Причём это объём данных по состоянию на 2007 год! Теперь попробуем таким же образом оценить общий объём трафика, который прогнозируется на этот год — 1,1 зеттабайта. Получим стопку DVD-дисков высотой 280 850 км. Тут уже впору переходить на космические сравнения: среднее расстояние до Луны составляет 385 000 км.
Другая аналогия: общая производительность всех вычислительных устройств в 2007 году достигала 6,4 х 1018 инструкций/сек. Если принять, что в человеческом мозге 100 млрд нейронов, каждый из которых имеет 1000 связей с соседними нейронами и посылает до 1000 импульсов в секунду, то максимальное количество нейронных импульсов в мозге равно 1017.
Глядя на все эти десятки в больших степенях возникает устойчивое ощущение информационного потопа. Радует хотя бы то, что наши вычислительные мощности растут быстрее, чем идёт накопление информации. Так что остаётся надеяться лишь на то, что нам удастся разработать системы искусственного интеллекта, которые будут способны худо-бедно обрабатывать и анализировать всё увеличивающиеся объёмы данных. Ведь одно дело, научить компьютер анализировать текст, а что делать с изображениями? Не говоря уже о когнитивной обработке видео. В конце концов, миром будут править те, кто сможет извлечь как можно больше пользы из всех этих петабайт, заполняющих всемирную сеть.
Источник