Спикеры Big Data 2014


Шон Оуэн, директор по Data Science, Cloudera

Син является директором компании Cloudera по Data Science и работает в Лондоне. До прихода в компанию он основал фирму Myrrix (сегодня является частью Cloudera), которая занималась коммерциализацией крупномасштабных экспертных систем реального времени, построенных на базе Apache Hadoop. Он являлся ключевым приверженцем и вице-президентом по проекту Apache Mahout, а также соавтором Mahout in Action. Ранее Син работал старшим инженером в компании Google. Получил степень MBA в Лондонской школе бизнеса и степень бакалавра по информатике в Гарвардском университете.

От науки о данных – к операционной аналитике

Накопив огромные объемы данных, современные организации всерьез интересуются наукой об обработке данных и технологиями "Большого обучения". Прежде основное внимание уделялось науке о данных как методологии разведочной аналитики, причем в режиме оффлайн. Однако развертывание на ее основе работающих крупномасштабных систем оперативной аналитики остается крайне трудной и далеко не универсальной задачей, особенно когда ответы на возникающие у бизнеса вопросы, требуется получать в режиме реального времени. Основываясь на опыте решения задач клиентов компании Cloudera, докладчик остановится на новых тенденциях в архитектуре систем операционной аналитики.

Грэм Гир, директор по системному проектированию в регионе EMEA, Cloudera

Грэм Гир является директором Cloudera по системному проектированию и отвечает за содействие европейским клиентам компании в применении технологий Hadoop для решения проблем, связанных с Большими Данными и одновременно для использования таящихся в них возможностей. Будучи инженером по натуре и ярым приверженцем технологий Apache, Грэм привлекается к выполнению проектов, когда требуется помощь в уточнении и разрешении проблем в области разработки или эксплуатации Hadoop-решений, а также идентификации новых аналитических возможностей, сулящих выгоды бизнесу в целом. Обладая более чем 10-летним опытом работы в качестве профессионального разработчика и консультанта, Грэм участвовал в создании множества крупномасштабных управляемых данными систем во многих отраслях. Начав свою карьеру в оборонном НИИ, где она внедрял алгоритмы обработки данных гидролокации в среде MPI на больших кластерах Beowulf, он затем перешел в коммерческие организации, занимаясь масштабируемыми Web-решениями с массовым параллелизмом и, наконец, нашел свою нишу в экосистеме Hadoop и с удовольствием использует эти технологии для обработки Больших Данных в задачах, с которыми сталкиваются сегодняшние предприятия.

Мастер-класс: Пора переосмыслить ваши данные. Введение в Cloudera Enterprise Data Hub

Чтобы быть успешными, ведущие компании сегодня обязаны основывать свой бизнес на данных, а это означает способность обрабатывать данные, характеризующиеся огромными объемами и разнообразием, хранить их с минимальными затратами и предоставлять различные результаты анализа этих данных широкому кругу потребителей, удовлетворяя их всевозможные потребности. К сожалению, унаследованные системы управления данными не позволяют в одном месте и на протяжении произвольного времени аккумулировать и комбинировать данные произвольных объемов и типов без потери их качества, не говоря уже о предоставлении результатов их анализа произвольным категориям пользователей с максимальной оперативностью. Разработав Enterprise Data Hub, принципиально новое решение, компания Cloudera открыла новые экономические и технические возможности хранения и управления современными данными на одной платформе безотносительно к их формату. Благодаря данному продукту, масштабирование, экономичность и инновации стали доступны широкому спектру организаций.


Ринат Гимранов, начальник управления ИТ, "Сургутнефтегаз"

Образование: Новосибирский электротехнический институт, специальность «ЭВМ»; Московский государственный институт международных отношений МИД России (МГИМО); диплом MBA «Международный нефтегазовый бизнес»). С 1989 года по настоящее время работает в компании «Сургутнефтегаз», с 1998 года — начальник управления ИТ.

Real-Time Enterprise 2.0: А Big ли Data?

  • как решения по обработке баз данных в оперативной памяти влияют на архитектуру информационных систем крупных предприятий
  • что такое RTE 2.0
  • два подхода к Большим Данным

 

Массимо Ламанна, старший руководитель проектов, группа сервисов данных и систем хранения, департамент ИТ, ЦЕРН

Массимо получил степень PhD в области физики высоких энергий в 1993 г. в Университете г. Триест (Италия). Имеет более чем 15-летний опыт руководства проектами в области научных вычислений в области управления данными и мониторинга, пользовательского доступа к grid-ресурсам, а также поддержки пользователей и пользовательских сообществ в области физики высоких энергий. Он являлся координатором нескольких инициатив, связанных с распределенными вычислениями в области проекта LCG (эксперименты на Большом Адронном Коллайдере, LHC), в экспериментах COMPASS и ATLAS.
Массимо способствовал развитию сотрудничества между различными пользовательскими сообществами (в области биологии, климатологии, телекоммуникаций и др.) и инициировал создание EGEE User Forum – одного и крупнейших и наиболее известных мероприятий в мире grid-вычислений. В последние четыре года он отвечает за все операции управления дисковыми данными в рамках ЦЕРН, включая управление данными, которые поступают с LHC в вычислительные центры ЦЕРН, обмен данными между дисковыми фермами в ЦЕРН и сотрудничающими с ЦЕРН центрами, которые разбросаны по всему миру и управление данными, которые записываются на ленточные накопители, тем самым делая все эти данные доступными для анализа тысячами физиков со всего мира.

Большие Данные в ЦЕРН: Большой адронный коллайдер и не только

Доклад посвящен использованию высокопроизводительных вычислений в физике высоких энергий, включая исследовательские программы на Большом Адронном Коллайдере (LHC). Будут обсуждаться предпосылки развертывания международной вычислительной инфраструктуры - вычислительного грида LHC, ее текущее состояние и параметры использования. Специальный акцент будет сделан на функционировании вычислительного центра в самом ЦЕРН. В настоящее время в ЦЕРН хранится порядка 100 Пбайт данных. В докладе будут рассмотрены некоторые проблемы, связанные с обработкой таких объемов научных данных и с предоставлением доступа к ним нескольким тысячам пользователей. В заключение докладчик расскажет о подготовке ко второму циклу работ на LHC и отдельно остановится на процедурах управления данными.

 


Вадим Турлапов, генеральный директор, "Центр биомедицины и вычислительных технологий",  руководитель лаборатории компьютерной графики, ННГУ

В 2002 году защитил в МАИ докторскую диссертацию по специальности 05.01.01-инженерная геометрия и компьютерная графика. С августа 2002 года работает на кафедре математического обеспечения ЭВМ в ННГУ имени Н.И. Лобачевского. С 2006 года руководит лабораторией компьютерной графики. Разработчик и руководитель магистерской программы "Компьютерная графика" в направлении "Фундаментальная информатика и информационные технологии" в ННГУ. Организатор и руководитель серии всероссийских школ для молодых ученых в области компьютерной графики (2008-2010), член программного комитета международных конференций GraphiCon и ПаВТ, директор CUDA Research Center при ННГУ им. Н.И. Лобачевского.

Возможности и проблемы Больших Данных в медицине

Анализируется мировое развитие новых технологий в области медицины и здравоохранения, основанных на Больших Данных, влияние этих технологий на медицинское образование. Демонстрируются возможности современных систем моделирования анатомии человека, трехмерной реконструкции томограмм, виртуального анатомического стола Anatomage, авторского облачного Интернет-сервиса 2D/3D-визуализации для врача на основе ресурса хранения томограмм на вычислительном кластере ННГУ им. Н.И.Лобачевского. Рассматриваются новые возможности профилактики, автоматизации предварительной диагностики заболеваний, количественной характеристики динамики лечения, точного управления процессом лечения, реабилитации и постклинического сопровождения. Обсуждаются проблемы превращения данных томографии, хранимых современными медицинскими системами (PACS), в Большие Данные и системного использования имеющихся ресурсов, меры по развитию ресурсов хранения и по мобилизации активности потенциальных пациентов для развития ресурсов Больших Данных в медицине.

 

Илья Гершанов, руководитель направления "Большие Данные", Informatica

Илья Гершанов является руководителем направления "Большие Данные" компании Informatica. Закончил Московский Авиационный Институт по специальности "прикладная математика", кандидат технических наук. Имеет  более чем 15-летний опыт разработки и внедрения систем обработки данных в ведущих российских интеграторах, международных инвестиционных и розничных банках. Принимал личное участие в первых успешных российских проектах по внедрению технологий Больших Данных.

Факторы успеха проектов Больших Данных

В докладе рассматриваются основные сложности, с которыми столкнулись интеграторы и заказчики в процессе реализации проектов на основе технологий Больших Данных, а также лучшие практики управления рисками, которые позволили обеспечить успешное завершение проектов.

 


Сергей Знаменский, ведущий консультант по продуктам, НР Software Россия

Работает в департаменте продаж программных решений НР техническим консультантом по программным решениям с 1998 года. Область специализации в настоящее время: Аналитические системы (HP Vertica, HP Executive Scorecard), системы автоматизации поддержки пользователей (ITSM), системы автоматизации управления проектами и портфелями проектов. Окончил МАИ.

Аналитика в реальном времени. Где это уже работает и как?

В современном быстро меняющемся мире объемы информации растут гигантскими темпами. Именно по этой причине компания HP предлагает решение Vertica как аналитическую платформу, которая за счет заложенных в нее передовых технологических разработок позволяет решать аналитические задачи в реальном времени, работая с по-настоящему большими объемами данных. В докладе будут также рассмотрены архитектура данного решения, области его применения и примеры внедрений.

 


Сергей Кузнецов, директор по технологиям Дивизиона Данных, IBS

Сергей Кузнецов с отличием закончил математико-механический факультет СПбГУ, получил степень магистра управления на экономическом факультете СПбГУ. Является автором различных научных публикаций в области субоптимальных алгоритмов, оптимизации хранилищ данных и криптографии, а также программ адаптации студентов в современных IT-компаниях. C конца 90-х годов принимал активное участие в формировании и привлечении в Россию иностранных компаний, специализировавшихся на компьютерной безопасности и наукоемкой разработке ПО (Nokia, Quest Diagnostics, BioDiscovery, AtBusiness Oyj). В 2003 г. возглавил группу разработчиков компании Enkata, занимавшейся аналитикой больших объемов данных, откуда в 2007 г. перешел в фирму Siperian - лидера рынка MDM, в 2010 г. приобретенную компанией Informatica. С 2010 г. Сергей Кузнецов возглавлял исследовательское подразделение компании Informatica в России, отвечая за разработки в сфере MDM, облачных технологий и репликации данных. В настоящее время является директором по технологиям и руководителем направления R&D дивизиона данных компании IBS.

Big Data. Расставляем акценты

Выступление будет посвящено той работе по анализу и оценке технологий Big Data, которую уже проделала и продолжает выполнять компания IBS. Докладчик проанализирует несколько групп технологий для работы с Большими Данными: что можно и нужно предлагать заказчикам прямо сейчас, а к чему рынок будет готов через некоторое время; что является предметом научно-исследовательской деятельности, а какие технологии уже доказали свою эффективность;  в какие собственные разработки IBS намерена инвестировать и какие подходы для этого изберет. Кроме этого, в докладе будет приведена методология оценки, отбора и классификации новых технологий Big Data.

 

Ольга Горчинская, директор по исследовательским проектам, "ФОРС"

Директор отделения исследовательских проектов и руководитель направления Big Data компании ФОРС, к.т.н., доцент ВШЭ, проработала в  представительстве корпорации Oracle в Москве около 15  лет. В 1976 году окончила Московский институт электроники и математики (сейчас входит в состав Высшей школы экономики) по специальности «Прикладная математика». Кандидатская диссертация Ольги была посвящена теории реляционной модели баз данных.  В дальнейшем научные интересы г-жи Горчинской охватывали новые на тот момент области, связанные с построением хранилищ данных, аналитическими технологиями и системами бизнес-анализа. В 1993 году Ольга Горчинская пришла в ФОРС - только что созданную ИТ-компанию, которая ставила своей задачей продвижение технологий Oracle в России.  Через несколько лет Ольга продолжила свою карьеру в Oracle, а в 2012 году вернулась  в ФОРС и возглавила новое, перспективное направление Big Data.

Практический опыт анализа больших данных на платформе Oracle

Направление больших данных постепенно переходит в практическую плоскость – в организациях ведутся эксперименты по работе с нестандартными видами данных, внедряются новые технологии,  формируются границы типовых задач для различных индустрий, выполняются пилотные проекты. Проектную деятельность  в этой области можно условно разделить на две категории: к первой относятся разработки, в которых внедрение технологий Big Data существенно повышает производительность уже существующих решений, а ко второй  -   проекты, позволяющие решать совершенно новые задачи. В докладе рассматриваются  особенности каждой из этих областей, приводятся примеры типовых задач, обсуждается практический опыт их решения на основе  продуктов компании Oracle, включая Big Data Appliance, Oracle R Enterprise,  платформу для исследования и анализа структурированных и неструктурированных данных Endeca Information Discovery. Особое внимание уделяется проблемам использования средств автоматической  обработки текстов для анализа документов, интернет источников, внутренних архивов - всегда ли при обработке текстов необходимы методы компьютерной лингвистики, какие продукты предоставляются для работы с русским языком,  как они интегрируются с платформой Oracle для работы с большими данными.

 


Нина Шальнева, руководитель направления отчетности и информационных систем, ВымпелКом

В 1995 году с отличием окончила Новосибирский Государственный Технический Университет по специальности «Прикладные информационные системы». В 1995-1998 гг. работала инженером-программистом в холдинге «Аванград-С» (Новосибирск),  в 2001-2002 гг. – в ЗАО «Сотовая компания» (Новосибирск). С 2002 г. по настоящее время работает в ОАО «Вымпелком". Нина Шальнева участвовала в разработке и внедрении систем документооборота уровня компании, во внедрении и сопровождении нескольких крупных биллинговых систем в ОАО «Вымпелком», в выполнении проектов интеграции и внедрения биллинговых систем в дочерних компаниях ОАО «Вымпелком».

Юрий Крюков, менеджер по информационной безопасности, Вымпелком Сибирский регион

В 1993 г. окончил  Новосибирский Государственный Технический Университет по специальности «Радиоинженер-конструктор-технолог». С 1993 по 1998 гг. работал в Вычислительном Центре ИЦ ГУВД НСО, в 1998-2001 гг. – в Дорожном Центре внедрения SAP R/3 Западно-Сибирской Железной дороги. С 2001 г. работает в ОАО «Вымпелком» в дирекции ИТ по внедрению и сопровождению биллинговых систем.

Мониторинг параметров SLA для системы биллинга реального времени

В телекоммуникационной индустрии одна из ключевых ролей принадлежит биллинговым системам. Важным трендом развития таких систем является тарификация в реальном масштабе времени. Чтобы гарантировать уровень сервиса, с вендорами биллинговых систем заключаются SLA на качество работы. Объем информации, поступающей в биллинговую систему, измеряется миллиардами записей в день, и для эффективного контроля SLA требуются гигантские объемы вычислений. Реализация контроля за параметрами SLA на базе реляционной СУБД не в полной мере отвечает критериям эффективности, в то время как реализация на базе Hadoop сумела превзойти самые смелые ожидания нашей компании. В докладе будет представлен опыт разработки на базе Hadoop для задач с высокой интенсивностью расчетов.

 

Константин Замков, специалист по корпоративным технологиям, Intel

Окончил факультет вычислительной математики и кибернетики МГУ. Работает в Intel с 2004 года. Первоначально специализировался на поддержке и маркетинге серверных платформ. С 2008 года занимает позицию специалиста по корпоративным технологиям, работает с крупными конечными заказчиками. С 2012 года занимается взаимодействием с крупнейшими интернет-порталами.

Большие задачи для маленьких полупроводников

В докладе будет рассказано об аппаратном и программном обеспечении компании Intel через призму современных взглядов на вопросы обработки больших массивов данных и решения современных больших научных, социальных и коммерческих проблем. Будет рассмотрено аппаратное обеспечение: серверные процессоры и технологии, твердотельные накопители, сетевые контроллеры, а также коммерческое и открытое программное обеспечение для работы с большими массивами данных.

 

Сергей Сызько, архитектор решений, NetApp

В ИТ с 1992г. Системами Хранения Данных занимаюсь с 2004г. В NetApp с 2008г.

NetApp Infinity Volume - большой том для Big Data

 

Андрей Кондратьев, региональный менеджер по России, СНГ и странам Балтии, GE  Intelligent Platforms

МГУ им. М.В. Ломоносова, экономический факультет, специальность «Экономика предприятия».
Академия народного хозяйства при правительстве РФ, специальность – «Менеждмент – менеджмент в крупной корпорации».
Опыт в промышленной автоматизации – 10 лет, работал в крупнейших мировых вендорах решений по автоматизации – Wonderware Invensys и GE Intelligent Platforms.
Опыт работы в рамках проектов MES (системы управления производством) с российскими и международными компаниями – Nestle, Philip Morris International, Wrigley, ОАО «Пивоваренная компания «Балтика», ОАО «ТНК-BP»,   ОАО «СИБУР Холдинг».
В настоящее время – Региональный менеджер в компании GE Intelligent Platforms (подразделение корпорации General Electric, занимающееся промышленной автоматизацией).

Андрей Онищенко, директор по продажам, "ИндаСофт"

Окончил Московский Энергетический институт, факультет «Автоматика и вычислительная техника», кафедра «Вычислительны машины, системы и сети». Опыт работы в промышленной автоматизации –более 17 лет. В настоящее время – директор по продажам в компании «ИндаСофт»

Современные технологии GE IP для хранения и обработки данных

Использование облачных технологий для хранения и обработки данных; Решение Proficy Historian HD  для управления большими объемами производственных данных:

  • преимущества
  • возможности
  • функционал

 

Сергей Лихарев, руководитель направления решений по управлению информацией, IBM EE/A

Сергей Лихарев является руководителем направления IBM Information Management в России и СНГ. Сергей более 17 лет специализируется в области развития бизнеса и руководства проектами создания информационных систем . Окончил Рязанский радиотехнический университет по специальности «Автоматизация информационных процессов». В сферу ответственности Сергея входят решения и платформы IBM для проектирования и создания информационно-аналитических хранилищ данных, включая индустриальные модели данных, технологии интеграции и очистки данных, технологии управления Большими Данными, решения IBM класса Smart Analytics и Netezza.

Практическое использование Больших Данных и новые возможности для бизнеса

  • смена парадигмы работы с данными
  • потребность в новых архитектурных и технологических решениях для новых бизнес задач
  • кратко о технологиях, которые все это делают возможным: BLU, BI, Streams, PDA
  • примеры реализации новых идей работы с данными

 

Андрей Выходцев, ведущий эксперт по решениям аналитики и Больших Данных, IBM CEE

Андрей является сертифицированным специалистом в области сверхкрупных СУБД (например, Teradata, Oracle и Netezza) с 11-летним опытом работы в области бизнес-аналитики, а также в проектах по разработке и внедрению хранилищ данных. Занимал должность ведущего разработчика и архитектора в таких компаниях, как CBOSS, Deutsche Bank, Teradata. Андрей консультирует бизнес-компании по вопросам технологий сложной и потоковой аналитики без использования SQL (программное обеспечение класса IBM InfoSphere Streams и IBM InfoSphere BigInsights).

Платформа Больших Данных от IBM: варианты использования и архитектурные шаблоны

Основная активность вокруг Больших Данных последнее время была сфокусирована на изучении технологий. Со стороны поставщиков ПО не всегда можно было увидеть усилия по осмыслению вариантов использования и проблем, которые можно решать при помощи технологий Больших Данных. Компания IBM всегда была исключением. При помощи множества опросов, изучения отчетов аналитиков, и бесед более чем с 300 заказчиками, а также по результатам множества внедрений, компания IBM определила 5 наиболее ценных вариантов использования. Эти варианты могут быть Вашим первым шагом в Большие Данные.
Цель этой презентации - рассказать об этих сценариях и привести примеры архитектурных решений на базе платформы Больших Данных от IBM.

 

Петр Борисов, менеджер по развитию направления Big Data, DIS Group

Петр Борисов отвечает в DIS Group за развитие новых направлений. Имея более чем десятилетний опыт работы в ИТ-индустрии, Петр в течение нескольких лет  занимается направлением Big Data, включая проработку как технических аспектов применения технологий данного класса, так и позиционирования подобных решений в инфраструктуре заказчиков. До работы в DIS Group Петр занимался развитием системы корпоративной отчетности. Закончил Московский Государственный Технический Университет СТАНКИН, факультет «Информационные технологии».

«… - Хорошо, задача с BigData есть. Но как сделать проект? - Сейчас расскажем!»

  • Осознание понятия и задач в области больший данных  произошло. Что дальше?
  • Как правильно начать проект.
  • Важность использования промышленных подходов.
  • Ключевые возможности промышленных инструментов.
  • Обеспечение результатов на конкретных примерах.

 

Сергей Золотарев, глава представительства в России и СНГ, EMC/Pivotal

Сергей Золотарев – Глава представительства компании Pivotal  в России и странах СНГ. До этого - руководитель направления «Большие Данные»  компании ЕМС в России и странах СНГ.
В апреле 2013 года это направление было выделено в отдельную компанию Pivotal, фокус новой компании - исключительно технологии и решения для работы с Большими данными. Помимо ЕМС акционерами новой компании стали комапнии Vmware и  General Electric. Более 17 лет в ИТ индустрии.
Темой «Большие Данные» занимается последние 2  года. До работы в ЕМС занимал руководящие позиции в компаниях  Jet Infosystems,AVAYA, MICROSOFT. Получил степень МВА  в Open University of London
.

Большие Данные для больших компаний: да, нет, ненужное зачеркнуть

Тематика Big Data  за последний год сильно изменилась, как, собственно, и отношение к ней в мире. В рамках видения этой темы со стороны  компании Pivotal заметно расширилось понимание того, что Большие Данные - это не только инструменты и технологии обработки больших массивов данных, разнящихся и в качественном, и в количественной отношениях, но и полный жизненный цикл создания приложений для работы с этими данными и извлечения из них нужной информации, формирования новых эластичных сред для разработки, внедрения, тиражирования и масштабирования этих приложений.
 
Одно из основных качеств любой технологи для обработки Больших Данных - способность линейного многократного масштабирования по объему данных. Сегодня такое масштабирование обеспечивается на уровне подсистемы хранения,  но зачастую из- за устаревшей архитектуры приложений, которые работают с такими данными, возникает узкое место в масштабировании системы в целом. Одна из задач Pivotal сегодня - предоставить клиентам принципиально новые подходы к созданию таких приложений и обеспечению их последующего жизненного цикла в новой среде. В последнее время значительно расширился круг заказчиков подобного рода решений. В наши дни уже многие крупные и средние компании вполне могут получить реальный эффект от полноценного перехода на технологии работы с Большими Данными.

 

Олег Фатеев, директор по развитию бизнеса, дивизион ИТ-инфраструктуры, IBS

После окончания МИФИ в 1989 г., работал системным программистом в одной из организаций Минатома. В середине 90-х годов, на этапе становления интеграционного бизнеса в России, присоединился к компании IBS в качестве руководителя проектов по сетевой интеграции, позднее занял должность директора департамента. В начале 2000-х годов руководил проектами в сфере интеграции и разработки в ряде компаний. Начиная с 2004 г., в течение 8 лет являлся техническим директором Paragon Software, где отвечал за разработку и выпуск системного программного обеспечения. После возвращения в IBS в 2012 г. курирует направления облачных технологий, параллельных вычислений и корпоративной мобильности, отвечает за разработку собственных программных продуктов компании в области системной инфраструктуры. Имеет более чем 20-летний опыт успешного внедрения интеграционных решений и управления разработкой программного обеспечения.

Платформенные реализации MapReduce

  • Роль MapReduce в инфраструктуре BigData
  • MapReduce и платформенные архитектуры
  • MapReduce как облачная услуга
  • MapReduce и GPU

 

Алексей Филановский, Cloudera Certified Developer, старший консультант отдела продаж, Oracle

Алексей закончил МГТУ им. Баумана в 2011 г. С 2012 г. работает в российском представительстве компании Oracle.  Имеет шестилетний опыт работы с технологиями хранения и обработки данных (СУБД Oracle, Hadoop, базы данных NoSQL).

Учебный семинар: Обзор Hadoop-окружения. Загрузка и обработка данных (sqoop, flume, hive, pig...)

В ходе данного доклада будут освещены вопросы управления данными в Hadoop, загрузки и выгрузки данных с помощью утилит Hadoop-окружения (pig, hive, impala, flume, sqoop). Кроме того, будет продемонстрирована работа вышеперечисленных инструментов. По ходу семинара участники смогут задать интересующие их вопросы относительно вышеуказанных технологий.

 

Иван Гуз, руководитель направления аналитики, AVITO

Иван является руководителем отдела аналитики в одном из крупнейших проектов рунета Avito.ru. Окончил Московский Физико-Технический Институт, кандидат физико-математических наук в области анализа данных и машинного обучения. Иван более 8 лет разрабатывал и внедрял различные решения предсказательной аналитики в крупнейших российских ритейловых и телекоммуникационных компаниях, а также в кредитных учреждениях на базе как open-source технологий, так и решений известных вендоров. Занимал позицию ведущего специалиста в компании IBM по внедрению аналитических технологий. В настоящее время в сферу ответственности Ивана входит разработка алгоритмов анализа Больших Данных, направленных на оптимизацию и автоматизацию различных процессов компании, предоставление корпоративной и ad hoc отчётности, а также поддержка и развитие корпоративного хранилища Больших Данных как единого источника истины.

Как технологии HP Vertica помогают повысить качество контента на Avito.ru

Когда пользователи заходят на площадку объявлений avito.ru, чтобы что-то купить или продать, они хотят видеть чистый контент: отсутствие запрещённых товаров, уникальность каждого объявления и отсутствие его копий, достоверность указанной в объявлениях информации. Как поддерживать качество контента, когда в день поступает поток из миллиона новых и изменённых объявлений? Команде аналитиков и разработчиков avito.ru при помощи решения HP Vertica удалось создать уникальную самообучающуюся технологическую платформу по анализу огромных объемов структурированной и неструктурированной информации для выявления недопустимых объявлений и принятия решения об их допуске.

 

Владимир Анисимов, руководитель отдела разработки ПО, ASSIST

Владимир Анисимов начал работу в компании ASSIST (старейший провайдер интернет-платежей в Рунете) в декабре 2009 г. руководителем проекта "Система фрод-анализа  ASSIST".  С 2011 г. - руководитель отдела разработки программного обеспечения. До компании ASSISN работал в компаниях "РОЛИС" и "Первый контейнерный терминал" в качестве ведущего разработчика.  Вел проекты разработки программного обеспечения систем автоматизации различных аспектов жизнедеятельности морского порта.

Применение подходов Big Data для защиты интернет-магазинов от мошеннических платежей по банковским картам

В докладе будут затронуты следующие темы:

  • краткий обзор статистики мошенничества с банковскими картами при оплате товаров в Интернет-магазинах
  • анализ различных методов противодействия мошенничеству с точки зрения их эффективности и влияния на конверсию сайта
  • использование технологий Больших Данных для построения поведенческой модели клиента
  • принцип построения эффективных системы фрод-анализа с минимальным количеством ложных срабатываний и способы применения таких систем для увеличения оборота Интернет-магазинов.

 

Александр Ермаков, ведущий консультант, ЕМС/Pivotal

Big Data as a Service: Приложения для Больших Данных в Облаке

Любая компания вставшая на путь использования Big Data в бизнесе, рано или поздно сталкивается с похожими вопросами организация окружений и инфраструктуры для приложений и сервисов, использующих  концепцию Больших Данных:

  • Можно ли разместить всю инфраструктуру, сервисы и приложения для Больших Данных в облако?
  • Как обеспечить согласованность инфраструктуры и сервисов для Больших данных между всеми подразделениями организации?
  • Имеется ли "красная кнопка", позволяющая масштабировать приложения и сервисы для Больших Данных в одни клик?

Теперь на все эти вопросы можно ответить "ДА", если воспользоваться Pivotal Cloud Foundry - "Операционной системой для Вашего собственного облака"!