Hadoopはビッグデータ開発者にとって充分でない

データが大きくなるほど、Hadoopの外で複雑なイベント処理が必要になってくる。 2014年のEvans Data社「ビッグデータと先端技術調査」によると、開発者の僅か16%が全てのケースでHadoopのバッチ処理に満足と回答し、(世界の開発者400名以上の)71%が半分以上のアプリケーションにリアルタイムの複雑なイベント処理の必要性を訴え、27%はすべてのアプリケーションに必要であると表明。 「Hadoopのバッチ処理モデルは今まで十分だった」とジャネル・ガーヴィン(Evans Data社CEO)は言った。「しかし、現在ビッグデータの要求に応えるためにはリアルタイムの複雑なイベント処理の必要性が増し、アパッチストームや他のCEP商品がビッグデータの世界に歓迎されている」 開発者はビッグデータを扱う際にプライバシーやセキュリティを確保する必要性も強調した。32%の開発者が高速クエリーを必要とし、重要課題として明らかになった。次に24%の開発者でリアルタイム相関と異常検出が必要と回答。 また、90%の開発者は今後自社のデータストアが50%~75%増加すると考えており、ストレージの確保が課題として浮上。企業データベースのシャード化(データベースを破片化する)傾向も調査の対象になった。小企業のビッグデータ開発者の13%はデータベースをシャード化しているに対して、中企業の28%、大企業の20%の開発者はシャード化している。 Evans Data社「ビッグデータと先端技術調査」にはプラットフォームやツール、データ視覚化、データモデル、データベース技術、モノのインターネットなども含まれている。 – See more at: http://sdtimes.com/survey-hadoop-isnt-enough-big-data-developers/#sthash.WrqdIq8F.dpuf
  »
«