22 Ноября 2024, 10:41

Twitter

Автор turbo, 08 Апреля 2009, 19:48

« предыдущая тема - следующая тема »

0 Пользователей и 1 Гость просматривают эту тему.

turbo

08 Апреля 2009, 19:48 Последнее редактирование: 04 Августа 2011, 22:31 от Zhek@Ch
[size="3"]Часть Twitter переводят с языка Ruby на Scala[/size]

В интервью разработчики системы микро-блогов Twitter, одного из самых крупных web-проектов, использующих Ruby on Rails, признались, что начали в прошлом году работу по замене некоторых Ruby компонент на их аналоги, написанные на языке Scala и работающие внутри виртуальной машины JVM. С целью увеличения производительности и реализации более полного контроля над выполнением кода, на Scala переписаны некоторые серверные демоны, обеспечивающие внутренние взаимодействие между составными частями инфраструктуры проекта. В планах, реализовать на Scala все обработчики внешнего и внутреннего API. Тем не менее, создатели Twitter не намерены отказываться от Ruby on Rails в роли бэкенда для генерации выводимого пользователям контента.

В качестве примера переписанного на Scala проекта, можно упомянуть сервер управления очередями сообщений Kestrel.

http://www.opennet.r...shtml?num=21167

turbo

19 Февраля 2010, 00:49 #1 Последнее редактирование: 04 Августа 2011, 22:40 от Zhek@Ch
[size="3"]Проект Twitter представил раздел, посвященный своим открытым разработкам [/size]

В корпоративном разделе популярного сервиса микроблогов Twitter появился специальный раздел, в котором представлены все открытые проекты в создании которых непосредственно принимали участие инженеры Twitter. Представленные на странице разработки разделены по категориям, в зависимости от используемого языка программирования: Ruby, Scala, Java и C/C++. Кроме того, в начале февраля был введен в строй блог engineering.twitter.com в котором начата публикация заметок по внутреннему устройству сервиса и проблемам, с которыми приходится сталкиваться разработчикам.

Некоторые интересные открытые проекты, в разработку которых вовлечен Twitter:

 * mod_memcache_block - модуль для http-сервера apache с реализацией поддержки списков блокировки, хранимых в memcached;
 * scribe - высокомасштабируемый сервер для сбора и агрегации логов;
 * REE (Ruby Enterprise Edition) - вариант реализации языка Ruby 1.8.7, оптимизированного для использования в высоконагруженных проектах, отличается переработанным сборщиком мусора, усовершенствованной системой распределения памяти;
 * murder - система для организации копирования файлов (обновленных версии скриптов, системных файлов и т.п.) на большое число машин, базирующаяся на использовании протокола BitTorrent;
 * cassandra.gem написанный на языке Ruby клиент для распределенной БД Cassandra;
 * zookeeper.gem - Ruby-интерфейс к Zookeeper, серверу для организации блокировок в распределенных проектах;
 * memcached.gem - Ruby-интерфейс к libmemcached;
 * Участие в Java-проектах Hadoop, Pig и Cassandra;
 * cachet - HTTP-прокси для акселерации отдачи контента сайтами;
 * kestrel - система для надежной организации слабо упорядоченных очередей сообщений;
 * scala-json - тулкит для работы с данными в формате JSON на языке Scala.

PS. Напомню, что новости OpenNet в реальном режиме времени транслируются в ленте twitter.com/opennetru, а сформировать сообщение на основе текущей новости можно нажав на значок под текстом новости. В случае возникновения желания добавить поддержку быстрой трансляции новостей OpenNet в другие социальные сервисы необходимо написать об этом в комментариях или отправить заявку через данную форму.

http://www.opennet.r...shtml?num=25477

Zhek@Ch

07 Августа 2011, 01:20 #2 Последнее редактирование: 07 Августа 2011, 01:20 от Zhek@Ch
[size="3"]Twitter заявил о скором открытии кода системы Storm [/size]

Разработчики сервиса Twitter заявили о решении открыть исходные тексты системы Storm, используемой для анализа больших потоков данных. Код планируется открыть 19 сентября во время проведения конференции Strange Loop. Задержка с открытием кода объясняется необходимостью приведения в порядок документации и подготовке серии руководств для быстрого внедрения системы.

Storm представляет собой распределенную и отказоустойчивую систему обработки неструктурированных постоянно обновляемых потоков данных (обработка сложных событий - Complex Event Processing). Функциональность Storm сравнивается с платформой Hadoop, при этом ключевым отличием является то, что данные обрабатываются в реальном режиме времени. В качестве примера использования Storm приводится анализ непрерывных потоков данных, таких как миллионы лент в Twitter.

В отличие от традиционных аналитических систем реального времени от компаний Oracle, StreamBase и SAP, которые предварительно накапливают данные во внутреннем хранилище, в Storm нет встроенного постоянного хранилища, вместо этого поддерживается использование внешних систем хранения. В случае Storm пользователь определяет аналитический запрос, который начинает применяться к поступающим данным до тех пор, пока запрос не будет отменен (если в Hadoop используются занимающие конечное время MapReduce-работы, то в Storm применяется идея непрерывно выполняемых "топологий"). При этом выполнение анализа может быть распределено на несколько серверов - Storm автоматически распараллеливает работу с потоками на разные узлы кластера.

Изначально проект Storm развивался компанией BackType, которая была куплена Twitter в прошлом месяце. Технология Storm использовалась для обеспечения работы сервиса BackTweets, предназначенного для анализа отражения определенных событий в микроблогах, путем сопоставления на лету новых твитов и используемых в них ссылок. Например, компания получала возможность оценить, как внешние ссылки или публикуемые в твиттере анонсы, ретранслируются другими участниками. Несмотря на кажущуюся простоту, для непрерывно поступающих потоков задача является достаточно сложной: чтобы определить число уникальных просмотров URL через Twitter нужно посчитать число сообщений с данным URL, сформировать общую выборку из всех читателей (followers) микроблогов в которых упомянут URL и отсеять среди них дубликаты.

Основные особенности Storm:

  • Простая модель программирования, значительно упрощающая обработку данных в реальном режиме времени;
  • Поддержка любых языков программирования. Сам Storm написан на языке Clojure и выполняется внутри виртуальной машины JVM, но для работы со Storm может быть использован любой язык. Уже созданы модули для языков Ruby и Python, адаптация для других языков не вызывает сложности благодаря очень простому коммуникационному протоколу, для реализации поддержки которого требуется около 100 строк кода;
  • Отказоустойчивость: для запуска задания по обработке данных требуется сформировать jar-файл с кодом. Storm самостоятельно распространит данный jar-файл по узлам кластера, подключит связанные с ним обработчики и организует мониторинг. При завершении задания код будет автоматически отключен на всех узлах;
  • Горизонтальная масштабируемость. Все вычисления производятся в параллельном режиме, при возрастании нагрузки к кластеру достаточно просто подключить новые узлы;
  • Надежность. Storm гарантирует, что каждое поступающее сообщение будет полностью обработано как минимум один раз. Один раз сообщение будет обработано только в случае отсутствия ошибок при прохождении всех обработчиков, если возникли проблемы, то неудачные попытки обработки будут повторены.
  • Скорость. Код Storm написан с оглядкой на высокую производительность и использует для быстрого асинхронного обмена сообщениями систему ZeroMQ.
Области применения:
  • Обработка потоков новых данных или обновлений БД в реальном времени.
  • Непрерывные вычисления: Storm может выполнять непрерывные запросы и обрабатывать непрерывные потоки, передавая результаты обработки клиенту в реальном режиме времени. Например, можно сформировать постоянно обновляемую страницу с наиболее обсуждаемыми темами в Twitter;
  • Распределенный удаленный вызов процедур (RPC): Storm может быть использован для обеспечения параллелизма выполнения ресурсоёмких запросов. Задание ("топология") в Storm представляет собой распределенную по узлам функцию, которая ожидает поступления сообщений, которые нужно обработать. После приема сообщения, функция обрабатывает его в локальном контексте и возвращает результат. Примером использования распределенного RPC может быть параллельная обработка поисковых запросов или выполнение операций над большим набором множеств.