Accueil > Analytics > Apache Software Foundation : tout savoir sur l’ASF et ses projets Big Data
apache software foundation tout savoir

Apache Software Foundation : tout savoir sur l’ASF et ses projets Big Data

La fondation Apache Software Foundation supervise le développement de logiciels Big Data comme Hadoop, Hive ou Cassandra. Découvrez tout ce que vous devez savoir à son sujet.

L’histoire de la fondation Apache débute en 1999, à Forest Hill, Maryland, Etats-Unis. C’est à cette date et en ce lieu que fut fondée la fondation.

Apache Software Foundation : qu’est-ce que c’est ?

La Apache Software Foundation (ASF) est une organisation non lucrative qui supervise le développement de logiciels. Son nom est un hommage ” aux diverses nations natives américaines collectivement désignées sous le nom Apache, bien connues pour leurs capacités de stratèges militaires et pour leur endurance à toute épreuve “.

Pour en devenir membre, il est nécessaire de contribuer aux projets Open Source de la fondation. Les candidats individuels doivent être nominés et approuvés par une majorité de membres. En revanche, les corporations ne sont pas autorisées à devenir membres.

Quels sont les différents projets Apache ?

apache projets

Au total, la fondation Apache supervise plus de 100 projets ” top-level “. Une grande partie d’entre eux sont des sous-projets. Voici quelques-uns de ses projets top-level les plus renommés.

Le Apache HTTP Server est probablement le projet le plus connu de la fondation. Il s’agit d’un serveur Web disponible gratuitement en open-source, et qui fonctionne sur la plupart des systèmes d’exploitation tels que Microsoft Windows, macOS, UNIX et Netware.

Selon un sondage mené par Netcraft, 60% de tous les sites web sur Internet utilisent Apache Server. Si l’on inclut les dérivés, ce pourcentage monte à 62%. Ainsi, Apache est plus utilisé que tous les autres serveurs Web combinés.

Citons aussi le système de base de données distribuée open-source Apache Cassandra. Initialement créée par Facebook, cette base de données distribuée est conçue pour stocker et gérer de grandes quantités de données réparties sur différents serveurs. Il s’agit de la base de données NoSQL la plus utilisée pour le stockage et le traitement de larges volumes de données.

De même, Apache a pris sous son aile le projet CloudStack. Il s’agit d’une plateforme de gestion Cloud permettant la livraison d’Infrastructures en tant que Service (IaaS) dans les environnements Cloud Computing.

Apache supervise aussi le développement de Hadoop, la principale plateforme de Big Data. Il s’agit d’un framework gratuit de programmation basé Java, capable de prendre en charge le traitement de larges ensembles de données au sein d’un environnement distribué.

Un autre projet bien connu dans le domaine du Big Data n’est autre qu’Apache Hive. Il s’agit d’un système de Data Warehouse open-source pour la requête et l’analyse de larges ensembles de données stockés dans les fichiers Hadoop.

Apache Spark est un moteur rapide pour le traitement de données à grande échelle. Il offre des API de haut niveau en Java, Scala et Python. On retrouve un large ensemble de bibliothèques notamment pour le traitement stream, le Machine Learning ou l’analyse de graphismes.

Évoquons aussi Apache Kafka : une plateforme logicielle open-source de traitement stream, initialement développée par Linkedin et donnée à Apache. Elle est écrite en Scala et Java, et vise à fournir une plateforme unifiée à faible latence pour prendre en charge les flux de données en temps réel.

Au total, Apache développe plus de 30 projets open-source liés au Big Data ou plus généralement aux données. Parmi les autres projets Big Data, on compte aussi Airvata, Apex, Beam, BookKeeper, CouchDB, Crunch, DataFu, Drill, Falcon, Flume, Helix, Ignite, Knox, MetaModel, Phoenix, Storm, Tajo ou encore Zeppelin.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend