Comment est organisé le développement d'un projet Open Source de Machine Learning ?

Février 2018

Auteurs

Nous sommes quatre étudiants en dernier année à Polytech Nice-Sophia Antipolis, spécialisés en Architecture Logicielle.

  • Robin Alonzo <alonzo.robin@etu.unice.fr>

  • Antoine Aubé <aube.antoine@etu.unice.fr>

  • Thierno Balde <balde.thierno@etu.unice.fr>

  • Mathieu Mérino <merino.mathieu@etu.unice.fr>

Introduction

Ce chapitre présente le travail de recherche produit par notre groupe dans le cadre de la matière Rétro-Ingénierie, Maintenance et Évolution des Logiciels (RIMÉL). Nous présenterons successivement notre contexte de recherche, la question que nous avons posé accompagnée de nos hypothèses, puis la démarche à laquelle nous avons procédé ; nous poursuivrons par une analyse des résultats obtenus en faisant le lien avec nos hypothèses, puis concluerons.

I. Contexte : Apprentissage Automatique, une communauté grandissante

L'apprentissage automatique (Machine Learning, ML) est une science sous-jacente à l'intelligence artificielle qui définit des méthodes pour prédire des caractéristiques à partir d'un ensemble de données.

Figure 1 - Intérêt croissant pour le Machine Learning lors des cinq dernières années

Source des données : Google Trends

Une brève investigation révèle qu'une communauté s'est créée autour de l'apprentissage automatique, autant pour diffuser le savoir (des sites comme DataCamp), pour collaborer autour d'ensemble de données publics (Kaggle) ou pour construire des logiciels et bibliothèques qui tiennent compte de l'avancée dans le domaine (de nombreux projets open source sur GitHub comme scikit-learn, ...).

II. Questionnement

II.1. Observations et question générale

L'apprentissage automatique est un domaine de pointe, que nous imaginons encore très proche de la recherche. Nous nous étonnons que, pourtant, les outils récurrents du Machine Learning (nous entendons souvent parler de Tensorflow et ses surcouches, numpy, ...) soient des logiciels Open Source.

Dans ces conditions, nous nous demandons comment est organisé le développement d'un projet open source de Machine Learning. À l'échelle d'un projet, de la réponse à cette question dépend la confiance que nous pouvons mettre en la qualité de leurs algorithmes et donc, d'une certaine manière, diriger notre choix quand nous en aurons besoin. Au niveau global, nous souhaitons déterminer s'ils existe des schémas récurrents dans l'ensemble de ces projets.

II.2. Sous-questions

Notre intuition suggère plusieurs pistes que nous souhaitons explorer et auxquels nous nous restreindrons dans cette étude. Leur formulation ci-suit concerne bien les projets Open Source de Machine Learning :

  1. Ces projets sont-ils menés par des chercheurs ?

  2. Qui écrit les algorithmes d'apprentissage automatiques dans ces projets ?

  3. La qualité logicielle est-elle une préoccupation de ces projets ?

II.3. Objet de l'étude

Comme nous souhaitons observer des propriétés vraies pour les projets Open Source de Machine Learning en général, l'étude portera sur un ensemble de projets.

Nos critères de sélection sont arbitraires, ils nous permettent de ne pas nous disperser dans les outils d'analyse que nous produisons. Les critères sont les suivants :

  • Ces projets sont des bibliothèques d'algorithmes d'apprentissage automatique.

  • Ces projets sont écrits en majorité en Python. Python est en effet l'un des langages de prédilection dans ce domaine.

  • Ces projets sont hébergés sur GitHub.

III. Rassemblement d'informations

III.1. Outils utilisés

Pour rassembler les informations utilisés dans cette étude, nous avons utilisé les outils suivants :

  • RepoDriller pour analyser les contributions successives des projets.

  • SonarQube pour analyser la qualité des projets.

Nous avons également produit une série de scripts Bash, Javascript et Python pour des tâches plus spécifiques et pour automatiser la récolte des informations, afin d'améliorer la reproductibilité de l'étude et de repérer les possibles erreurs dans le protocole que nous suivons.

Nous utilisons également des bibliothèques comme scholarly, qui nous permettent d'écrire des outils plus simples pour récolter nos données.

Les figures présentes dans le document ont été produites par nos soins, la plupart avec la bibliothèque Pygal.

III.2. Projets retenus

Nous avons retenu trente-quatre projets qui respectent nos critères.

Les projets que nous avons sélectionné ont été trouvés sur la liste Awesome Machine Learning.

Ils sont au nombre de trente-quatre : scikit-learn, theano, keras, scikit-image, simplecv, nltk, pattern, auto-ml, pylearn, pybrain, brainstorm, pyevolve, pytorch, cogitare, featureforge, metric-learn, simpleai, astroML, lasagne, hebel, chainer, prophet, gensim, surprise, crab, nilearn, pyhsmm, skll, spearmint, deap, mlxtend, tpot, pgmpy et milk.

Ces projets sont différents entre eux notamment au niveau des domaines auxquels ils sont dédiés (certains sont généralistes, d'autres spécifiques à un domaine) ainsi que de leur maturité (en terme de nombre de contributions, nombre de contributeurs).

Figure 2 - Grandes disparités de la maturité des projets étudiés

Nous observerons néanmoins que ces projets très actifs pour la plupart. La Figure 3 présente la fonction de répartition cumulative (Cumulative Distribution Function - CDF) des contributions apportés aux projets en 2017 et montre que, nonobstant de rares projets qui n'évoluent plus ou très peu, les projets évoluent en continu dans l'année (la plupart des courbes sont approximativement linéaires).

Figure 3 - Évolution perpétuelle de la plupart des projets

Nous pensons que cette diversité apparente entre les projets nous permettra d'obtenir des résultats moins biaisés, et donc nous faisons l'hypothèse que les résultats obtenus sur cet échantillon de projets Open Source de Machine Learning seront généralisables à tous les projets similaires. Le fait qu'ils soient en changement perpétuel donne son intérêt à l'étude qui s'intéresse à l'évolution des projets.

IV. Hypothèses et expériences

Nous avons décomposé notre question générale en sous-questions qui fixent les limites que nous souhaitons étudier. Dans cette partie, nous détaillons pour chaque sous-questions nos hypothèses et la méthode que nous allons employer pour les vérifier ou les invalider.

Notre hypothèse de travail commune à l'ensemble de l'étude est que les contributeurs sont de bonne foi :

  • Ils sont auteurs du code qu'ils ont mis en ligne.

  • Le nom, prénom et l'adresse mail spécifiés dans les contributions leur appartiennent.

IV.1. Ces projets sont-ils menés par des chercheurs ?

Nous avons l'intuition que les projets de Machine Learning sont le fruit du travail des chercheurs, soit parce qu'ils sont des réalisations produites à l'aboutissement de leurs travaux, soit parce qu'ils sont les mieux à même de contribuer sur ces projets.

Nous souhaitons évaluer trois hypothèses :

  1. Les contributeurs sont majoritairement des chercheurs.

  2. Les contributions viennent majoritairement de chercheurs.

  3. Les chercheurs contribuent plus individuellement que les autres contributeurs.

Chaque hypothèse traite une façon de représenter l'importance des chercheurs dans ces projets : en nombre de contributeurs, en nombre de contributions, en qualité de maintenance. Si les chercheurs sont significativement importants pour la tenue du projet, nous estimons raisonnable de conclure que ces projets sont le fruit du travail des chercheurs.

Pour répondre à ces trois hypothèses, nous avons récolté des informations pour chaque commit de chaque dépôt : auteur (nom et adresse mail), nombre de fichiers modifiés, lignes ajoutées et retirées. Pour cette question, nous avons étudié l'ensemble des projets sélectionnés.

Dans un premier temps, il convient de définir comment nous avons déterminé qu'un contributeur est un chercheur.

Comment reconnaître un contributeur-chercheur ?

Il s'agit dans un premier temps de lister les contributeurs des projets étudiés (par le nom), puis pour chacun lister les adresses mail qu'il a utilisé.

Nous avons développé deux approches qui chacune fournit des résultats partiels :

  • Un chercheur possède une adresse mail dont le domaine appartient à une académie ou à un établissement de recherche. Cette approche présente comme biais de potentiellement considérer comme chercheur un étudiant universitaire. Elle est très peu exhaustive car la majorité des utilisateurs contribuent avec une adresse @gmail de laquelle nous ne pouvons pas conclure.

  • Un chercheur possède un profil de chercheur sur Google Scholar. Cette approche a comme désavantage la non-complétude de Google Scholar, qui ne contient pas tous les articles de recherche et qui ne crée pas systématiquement un profil pour chaque chercheur.

Chaque approche détermine si, oui ou non, un contributeur est un chercheur à son sens (pas de position intermédiaire).

En définitive, nous considérons qu'un contributeur est un chercheur si au moins une des approches conclut qu'il en est un.

IV.1.1. Les contributeurs sont majoritairement des chercheurs.

Il s'agit d'étudier l'implication des chercheurs dans le développement d'un projet Open Source de Machine Learning vis-à-vis de leur nombre proportionnellement au nombre de contributeurs total.

Nous considérons que cette hypothèse serait réfutée si la part des chercheurs dans l'ensemble des contributeurs représentait moins de 50%.

Nous procéderons en étudiant la proportion de chercheurs dans les contributeurs de chaque projet.

IV.1.2. Les contributions viennent majoritairement de chercheurs.

Contrairement au paragraphe précédent, nous étudierons ici l'implication des chercheurs vis-à-vis de leur nombre de contributions.

Nous considérons que cette hypothèse serait réfutée si la part des chercheurs dans l'ensemble des contributions, en termes de commits ou de lignes de codes modifiées, représentait moins de 50%.

Nous procéderons en étudiant la répartition des commits et des lignes modifiées entre les chercheurs et les non-chercheurs de chaque projet.

IV.1.3. Les chercheurs contribuent plus individuellement que les autres contributeurs.

Il s'agit ici d'étudier l'investissement de chaque contributeurs-chercheurs dans le développement comparé aux autres contributeurs. (Contribuent-ils plus ou moins que les autres?)

Nous considérons que cette hypothèse serait réfutée si, en termes de commits ou de lignes de code modifiées, la majorité des contributeurs-chercheurs s'investit moins que les autres contributeurs.

La contribution en termes de commits serait plutôt un indicateur de contribution sur le long terme tandis que la contribution en termes de lignes de code modifiées indiquerait l'appartenance du projet au contributeur.

Nous procéderons en étudiant les statistiques individuelles (moyenne, quartiles) des chercheurs et non-chercheurs de chaque projet.

IV.2. Qui écrit les algorithmes d'apprentissage automatique dans ces projets ?

Nous avons l'intuition que les algorithmes de Machine Learning demandent une expertise pour en comprendre les mécaniques, et donc donc que chaque algorithme est maintenu surtout par un seul contributeur, expert de cet algorithme. Dans l'autre sens, nous pensons que l'apprentissage automatique est un domaine très vaste et qu'il est peu probable qu'un expert d'un algorithme possède une expertise équivalente dans d'autres algorithmes.

Nous souhaitons évaluer les hypothèses suivantes :

  1. La majorité des algorithmes sont maintenus par un contributeur majeur.

  2. Un contributeur majeur d'un algorithme n'est contributeur majeur que de cet algorithme.

L'intérêt de cette question et de ces hypothèses est liée aux conclusions de l'équipe de Xavier Blanc qui indiquent qu'un morceau de logiciel (pour nous, un algorithme) présente moins d'erreur s'il est écrit par un petit nombre de contributeurs fortement investis dans cet algorithme [1].

Il convient avant de poursuivre de préciser notre définition d'un contributeur majeur. Il s'agit pour nous d'un contributeur qui détient au moins 50% du code d'un algorithme dans la version la plus récente du projet. Cette définition présente un biais car un contributeur unique a tout à fait pu produire un algorithme entièrement mais par des modifications successives et non fonctionnelles (formatage du code pour suivre une convention, ...), il peut être considéré comme contributeur non-majeur de cet algorithme.

Comment reconnaître un algorithme ?

Reconnaître un algorithme d'apprentissage automatique dans un projet est un problème difficile, sa résolution dépend du projet que nous étudions.

Connaissant cette difficulté, nous avons restreint cette partie de l'étude à trois projets : scikit-learn, scikit-image et nltk.

Dans ces projets, nous observons que chaque algorithme est isolé dans son fichier, ce qui va nous simplifier l'étude du code ownership (nous la ferons à l'échelle du fichier, sans découper dans le fichier les lignes qui nous intéressent).

Ci-suivent les critères que nous avons retenu pour chaque projet pour déterminer qu'un fichier est un "fichier-algorithme". IL faut que tous les critères soient validés pour qu'un fichier soit retenu.

Critères pour scikit-learn

  • Le fichier a pour extension ".py" ou ".pyx".

  • Le fichier est dans un dossier dont l'arborescence débute par "sklearn".

  • Le fichier contient "def fit(self". Il s'agit d'un morceau du prototype de la fonction qui entraîne un modèle sur un ensemble de données, elle est commune à tous les algorithmes de scikit-learn. Seul le début du prototype nous paraît sûr d'être recherché car la suite peut présenter des variations avec les espaces, ...

Critères pour scikit-image

  • Le fichier a pour extension ".py" ou ".pyx".

  • Le fichier est dans un dossier dont l'arborescence débute par "skimage".

  • Le fichier n'a pas de dossier "util", "scripts" ou "utils" dans son arborescence.

  • Le nom du fichier ne commence pas par "_".

  • Le nom du fichier n'est pas "setup.py" ou "util.py".

Critère pour nltk

  • Le fichier a pour extension ".py" ou ".pyx".

  • Le fichier est dans un dossier dont l'arborescence débute par "nltk".

  • Le fichier est dans un dossier qui contient un fichier "api.py".

  • Le nom du fichier ne commence pas par "_".

  • Le nom du fichier n'est pas "api.py", "setup.py" ou "util.py".

IV.2.1. Une majorité d'algorithmes sont maintenus par un contributeur majeur.

Nous allons lister les algorithmes qui sont maintenus par un contributeur majeur et comparer leur nombre au nombre d'algorithmes du projet.

L'hypothèse est réfutée si moins de 50% des algorithmes sont maintenus par un contributeur majeur.

IV.2.2. Un contributeur majeur d'un algorithme n'est contributeur majeur que de cet algorithme.

Nous allons reprendre la liste des algorithmes maintenus par un contributeur majeur et rassembler les algorithmes par nom d'auteur.

L'hypothèse est réfutée s'il existe au moins un auteur qui est contributeur majeur sur au moins deux algorithmes.

IV.3. La qualité logicielle est-elle une préoccupation de ces projets ?

La qualité logicielle est synonyme de santé du projet ; la maintenabilité et l'extensibilité sur le long terme en dépendent. Nous mesurons cette caractéristiques à travers la dette technique ; cette dernière est une métaphore des fautes de conception et d'écriture du code (duplication, gestion des exceptions, mauvaise utilisation des patrons de conception, ...) qui s'accumulent au cours de la vie d'un projet, le rendant plus difficile la maintenance et l'évolution sur le long terme [2].

La septième loi de Lehman stipule qu'un projet qui évolue est un projet dont la qualité se dégrade sauf si un effort est produit pour la maintenir. Cette dégradation dans les projets Open Source est une conséquence de l'absence de processus qualité et des délais que les contributeurs s'imposent [3].

Nous nous intéressons à l'évolution de la dette technique des projets Open Source de Machine Learning à travers les hypothèses suivantes :

  1. La dette technique grandit en même temps que le projet.

  2. La dette technique normalisée par la taille du projet diminue au fil du temps.

Notre intuition est que la dette technique de ces projets augmente au fil des évolutions (conformément aux lois de Lehman), mais qu'un effort est produit pour réhausser la qualité (revue des pull requests, ...).

Comment mesurer la dette technique ?

SonarQube est un outil qui permet d'analyser le code source d'un projet pour estimer la dette technique, représentée par le temps qu'il faudrait pour la corriger complètement. Un biais de cette mesure est que SonarQube ne peut pas évaluer un choix d'architecture de haut niveau, alors que nous avons l'intuition que l'un des facteurs les plus importants de la dette technique : un mauvais choix d'architecture peut rendre un projet trop dur à maintenir sur le long terme.

L'analyse SonarQube est basée sur des facteurs directement mesurables: la duplication de code, la complexité des fonctions, la complexité des appels des modules entre eux, des patterns de code identifiables réputés pour être mauvais... Ce n'est donc pas une analyse absolue de la dette technique, mais c'est un outil très utile pour avoir une estimation de la santé d'un projet.

Pour un projet donné, nous sélectionnerons, sur une durée de cinq ans, un commit git par période de cinq semaines et exécuterons les analyses SonarQube sur ces commits dans leur ordre chronologique, afin de voir l'évolution dans le temps de la taille d'un projet et de sa dette technique. Les projets sélectionnés sont nilearn, pattern, pybrain, pyhsmm, scikit-image, scikit-learn, theano.

IV.3.1. La dette technique grandit en même temps que le projet.

Nous nous attendons à ce que la dette technique grandisse en même temps que la taille d'un projet (représentée par son nombre de ligne de codes), comme le prévoit la loi de Lehman.

L'hypothèse est réfutée s'il s'avère que la dette technique suit une courbe stagnante, voire diminue dans le temps.

IV.3.2. La dette technique normalisée diminue durant l'évolution du projet.

Nous nous attendons à ce que les méthodes de collaboration open source produisent un effort qui permet de garder la croissance de la dette technique en dessous de la croissance de la taille du projet.

L'hypothèse est réfutée si la dette technique normalisée à la taille du projet suit une courbe croissante.

V. Analyse des résultats et conclusion

V.1. Ces projets sont-ils menés par des chercheurs ?

Discriminer les chercheurs

Les trente-quatre projets cumulent 4376 contributeurs uniques (uniques par leur nom).

L'approche avec les adresses mails a conclu que 527 contributeurs étaient des chercheurs, soit 3849 ne l'étaient pas. L'approche qui utilise Google Scholar a conclu que 1537 contributeurs étaient des chercheurs, soit 2839 ne l'étaient pas. Seuls 251 contributeurs ont été considérés chercheurs par les deux approches à la fois, ce qui corrobore ce que nous attendions : il y a de nombreux faux négatifs pour les deux approches.

V.1.1. Les contributeurs sont majoritairement des chercheurs.

Figure 4 - Une minorité de projets compte une majorité de chercheurs

La Figure 4 montre que, d'après notre critère, notre hypothèse était fausse : dans la majorité des projets Open Source de Machine Learning, les chercheurs sont minoritaires.

Nous portons notre attention sur les deux groupes suivants :

  • Un projet ne compte aucun contributeur-chercheur : auto-ml, ce qui est étonnant car tous les autres projets étudiés comptent au moins 20% de contributeurs-chercheurs.

Un aperçu du dépôt de auto-ml sur GitHub montre que le projet auto-ml est maintenu par une seule personne, Preston Parry (qui n'est pas chercheur), qui cumule 90% des commits, et accompagné de dix autres contributeurs qui, vus au cas par cas, ne semble eux non plus pas être des chercheurs. Il semble que nos résultats pour ce projet ne soient donc pas dûs aux biais de notre discrimination des chercheurs, mais plutôt que auto-ml soit une exception.

  • Les projets qui comptent une majorité de chercheurs sont scikit-image, pylearn, spearmint, simpleai, metric-learn, nilearn, pyhsmm, skll, astroML et cogitare.

Pour une partie de ces projets (spearmint, simpleai, metric-learn, astroML, cogitare), ils font partie des projets étudiés les plus petits. Ajouté à l'observation sur la proportion de chercheurs qui les développent, une hypothèse à tester serait que ces projets sont maintenus uniquement par une seule personne ou par une équipe d'un laboratoire de recherche, travaillant dans un cercle fermé donc peu accessible pour un non-chercheur. Par exemple, il s'avère que cogitare est maintenu par une seule personne mais qui a commité sous deux noms, le troisième contributeur a produit un unique commit massif et est un outil d'intégration continue (suggérant que le projet sur GitHub est peut-être un miroir).

V.1.2. Les contributions viennent majoritairement de chercheurs.

Figure 5 - Une majorité de commits proviennent de chercheurs dans la majorité des projets étudiés

La Figure 5 montre que, malgré la minorité de chercheurs dans ces projets établie en V.1.1, ils produisent la majorité des commits qui constituent les projets de Machine Learning étudiés.

Figure 6 - Les chercheurs produisent également la majorité des ajouts et retraits de lignes dans la majorité des projets

La Figure 6 corrobore les observations de la Figure 5.

Compte tenu du critère d'invalidation que nous avons de l'hypothèse, nous la considérons valide et observons : les contributions proviennent majoritairement de chercheurs.

V.1.3. Les chercheurs contribuent plus individuellement que les autres contributeurs.

Les graphiques que nous présentons dans ce paragraphe représentent des statistiques de statistiques. Pour chaque projet, nous avons calculé des statistiques (moyenne, quartiles) sur le nombre de commits et de lignes modifiées individuellement par un contributeur. Les boîtes à moustaches (éléments des graphiques suivants) sont centrées sur la moyenne de chaque statistique (par exemple la moyenne des moyennes du nombre de commits) ; la taille de la boîte dépend de l'écart interquartile ; la longueur des barres de part et d'autre est fonction de l'écart-type.

Pour limiter l'influence de la taille des projets sur nos mesures, nous avons normalisé les mesures (le nombre de commits individuels par le nombre total de commits du projet, ...).

Nombre de commits : investissement sur le long terme

Dans un premier temps, nous étudions cette hypothèse en observant le nombre de commits. Le nombre de commits permet d'inférer l'investissement sur le long terme d'un contributeur, en supposant que ces contributions sont étalées sur la durée. Ceci constitue un biais de notre méthode, qui pourrait être corrigé en utilisant un outil statistique (dont nous n'avons pour l'instant pas connaissance) qui nous permettrait de croiser le nombre de commits et la répartition de ces commits dans le temps.

Figure 7 - La majorité des contributeurs, aussi bien chercheurs que non-chercheurs, contribuent peu

La Figure 7 montre que la majorité des contributeurs, indépendamment de leur type, sont des contributeurs ponctuels (un ou deux commits). Le grand écart-type sur la boîte des chercheurs est dû aux petits projets qui comptent peu de contributeurs mais une grande proportion de chercheurs.

Figure 8 - Il y a proportionnellement moins de chercheurs ponctuels que de non-chercheur ponctuels

Figure 9 - En moyenne, les chercheurs fournissent beaucoup plus de _commits que les non-chercheurs_

La Figure 8 montre qu'en proportion il y a moins de chercheurs ponctuels (dans le sens "qui ne contribuent qu'une fois") que de non-chercheurs ponctuels. La Figure 9 montre très clairement que, en moyenne, les chercheurs fournissent plus de commits que les non-chercheurs ce qui, d'après notre hypothèse sur la répartition des commits dans le temps, indique que les chercheurs sont des contributeurs qui s'investissent sur un plus long terme que les autres contributeurs.

Nombre de lignes modifiées : appropriation du projet

Notre hypothèse de travail est qu'un contributeur qui a modifié de nombreuses lignes (ajout, retrait) dans le code du projet est un contributeur qui a une bonne maîtrise du projet et qui se l'est approprié.

Figure 10 - Les chercheurs sont plus nombreux à s'approprier leur projet que les autres contributeurs

Si la médiane des nombres de lignes modifiées par contributeur est proche de zéro avec un faible écart-type pour les deux classes de contributeurs, la Figure 10 montre que cet écart-type augmente au troisième quartile, ce qui signifie qu'à proportion égale les chercheurs s'approprient plus le projet que les non-chercheurs, de par une plus grande contribution en lignes de code. La Figure 11 renforce cette analyse en montrant que le volume moyen de lignes modifiées par un chercheur est bien plus grand que celui des autres types de contributeurs. En d'autres termes, un chercheur qui contribue est un chercheur qui s'approprie plus le projet que les autres contributeurs.

Figure 11 - En moyenne, les chercheurs contribuent plus en volume que les autres contributeurs

Conclusion partielle

Nous avons vu que les chercheurs ne sont pas majoritaires dans l'élaboration des logiciels Open Source de Machine Learning, leur contribution est néanmoins plus importante et ces contributeurs sont plus investis dans l'évolution de ces projets que les autres contributeurs. En somme, une grande partie de la valeur de ces projets a été apportée par des chercheurs, d'où la conclusion qui nous semble raisonnable : ces projets sont surtout menés par des chercheurs.

V.2. Qui écrit les algorithmes d'apprentissage automatique dans ces projets ?

Distinguer les algorithmes

Nous avons établi la liste des algorithmes de chaque projet, en voici un résumé :

Le nombre d'algorithmes pour scikit-learn et scikit-image nous paraîssent faible vis-à-vis de la taille du projet. Cela peut-être dû à nos critères trop restrictifs qui causent de nombreux faux négatifs, il s'agirait donc d'un biais de notre étude qui peut impacter les observations que nous ferons ci-suit.

V.2.1. La majorité des algorithmes est maintenue par un contributeur majeur.

Outre le résultat pour les conditions que nous avons posé, nous avons évalué l'hypothèse en faisant varier le seuil de la proportion de ligne de code possédées à partir duquel nous considérons qu'un contributeur est un contributeur majeur de l'algorithme.

Figure 12 - Les algorithmes de scikit-image et de nltk présentent un fort code ownership

La Figure 12 présente le nombre de contributeurs majeurs en fonction du seuil, normalisé par le nombre d'algorithmes de chaque projet (pour que nous puissions comparer les projets entre eux).

Nous observons que la proportion de contributeurs majeurs pour scikit-learn en fonction du seuil décrit quasiment une droite alors que la chute est beaucoup plus lente pour nltk et scikit-image avant 50% de code ownership par algorithme avant de s'accélérer. Cela peut s'expliquer par le ratio "nombre de contributeurs/nombre d'algorithmes" qui est bien plus élevé pour scikit-learn que pour les deux autres projets.

Nous observons que pour notre définition d'un contributeur majeur (50% de code ownership sur un algorithme), l'hypothèse est invalidée que pour scikit-learn (47% des algorithmes ont un contributeur majeur) alors qu'elle est très largement vérifiée sur les deux autres projets (82% des algorithmes de scikit-image et 85% des algorithmes de nltk). Comme l'hypothèse est vérifiée pour deux projets étudiés sur trois, nous concluons que la majorité des algorithmes possèdent un contributeur majeur, en n'oubliant pas le biais de ce résultat que nous avons vérifié sur un petit ensemble de projets. D'après notre hypothèse, cela signifie que la tâche du développement d'un algorithme dans les projets Open Source de Machine Learning revient à un seul expert de cet algorithme.

V.2.2. Un contributeur majeur d'un algorithme n'est contributeur majeur que de cet algorithme.

À nouveau, nous avons étudié l'évolution des résultats obtenus en variant le seuil de algorithm ownership.

Figure 13 - Peu importe le seuil, il existe des contributeurs qui sont contributeurs majeurs de plusieurs algorithmes dans les projets étudiés

Figure 13 bis - On peut d'ailleurs constater que les contributeurs majeurs pour plusieurs algorithmes représentent environ la moitié des contributeurs majeurs pour au moins un algorithme

La Figure 13 présente le nombre de contributeurs qui sont contributeurs majeurs d'au moins deux algorithmes. Ce nombre a été normalisé par le nombre de contributeurs du dépôt.

La figure montre bien que peu importe le seuil, il existe au moins un contributeur qui est contributeur majeur de plusieurs algorithmes, notre hypothèse était fausse : un contributeur peut être contributeur majeur de plusieurs algorithmes. Cela peut signifier soit qu'il existe des experts qui se spécialisent dans plusieurs algorithmes, soit que certains algorithmes sont suffisamment simples ou connus pour être développés par une même personne.

Conclusion partielle

Dans les projets étudiés et d'après l'interprétation de nos hypothèses, la majorité des algorithmes de Machine Learning sont écrits et maintenus par un seul contributeur expert de cet algorithme. Nous avons observé également qu'une partie de ces contributeurs experts d'un algorithme sont experts d'au moins un autre algorithme présenté dans le projet.

Notre conclusion est que ces algorithmes ne sont pas écrit par n'importe qui, ce sont des experts de ces algorithmes qui les écrivent et s'approprient les implémentations sur chaque projet.

Cela soulève une question : les algorithmes qui partagent le même contributeur majeur sont-elles les variantes d'un même algorithme ? Une réponse positive à cette question permettrait de regrouper les variantes de l'algorithme et évaluer si l'une des variantes produit systématiquement des résultats plus fiables.

V.3. La qualité logicielle est-elle une préoccupation de ces projets ?

Le montant de dette technique est représenté sous SonarQube par l'indice SQALE (Software Quality Assessment based on Lifecycle Expectations).

V.3.1. La dette technique grandit en même temps que le projet.

Néanmoins, sur les projets pattern, pybrain et theano, nous pouvons observer une courbe stagnante voire décroissante de la dette technique sur cinq ans.

Nous observons, sur la courbe de l'indice SQALE (verte), deux refactors ayant eu pour but de réduire la dette technique, une en 2015 et une en 2017. Celui de 2017 est accompagné d'une importante baisse du nombre de lignes de code (courbe bleue).

Nous voyons que la dette technique était plus importante en 2013, quand le nombre de lignes de code était à 150k, qu'en 2018 avec 220k lignes de codes.

Afin de comparer les tendances des différents projets, nous effectuons un test de Mann-Kendall sur les évolutions des différentes dettes techniques. Un valeur fortement positive indique une croissance monotone, une valeur fortement positive indique une décroissance monotone, et une valeur dont la valeur absolue est en deça d'un seuil (ici, le seuil choisi est 3) indique que la série temporelle n'a pas de tendance particulière.

Figure 16 - Représentation des tendances d'évolution de la dette technique pour les différents projets.

Nous lisons :

  • La dette technique de pyhsmm ne suit pas de tendance particulière au fil du temps.

  • Trois projets (scikit-learn, scikit-image et nilearn) ont une dette technique qui suit une évolution monotone croissante au fil du temps.

  • Trois projets (theano, pybrain et pattern) ont une dette techique qui suit une évolution monotone décroissante au fil du temps.

L'hypothèse est donc invalide sur quatre projets, et valide sur trois, ce qui nous mène à réfuter cette hypothèse : dans ces projets, la dette ne grandit pas au fil des évolutions.

D'après les lois de Lehman, nous faisons cette observation si un effort est produit pour maintenir la qualité, ce qui est le cas pour theano (Figure 15), par exemple. Cependant, la solidité de cette conclusion est à mettre en perspective avec le nombre de projets étudiés qui est bas, d'autant plus que nous sommes à la frontière de notre condition de réfutation : prolonger l'étude sur d'autres projets nous permettrait sans doute de fonder une conclusion plus solide.

V.3.2. La dette technique normalisée diminue durant l'évolution du projet.

Nous allons maintenant observer la dette technique normalisée au nombre de lignes de code, c'est-à-dire observer si la dette technique grandit à la même vitesse que le nombre de lignes de code.

Nous pouvons observer une grande chute au milieu de 2015, là où a eu lieu un des deux refactors mentionnés auparavant. C'est parce que la dette technique a soudainement chuté sans que le nombre de lignes de code ne diminue. Le refactor de 2017 n'apparaît pas aussi clairement car la chute de la dette technique a été accompagnée d'une baisse du nombre de lignes de code tout aussi importante.

Les courbes de pattern, pybrain et pyhsmm sont similaires.

Le projet scikit-learn, bien qu'ayant une dette croissante dans le temps, présente une dette normalisée décroissante dans le temps. Cela signifie que la technique de développement assure que la dette ne grandit pas au même rythme que le projet, et qu'elle est de plus en plus petite relativement à la taille du projet.

Le seul projet avec dont la dette technique suit une tendance croissante, scikit-image, possède une dette technique normalisée croissante dans le temps. Cela signifie que si cette tendance se poursuit, éventuellement la dette technique pourra arriver à un point critique (car la dette technique grandit plus vite que le code). Cependant, cette dette normalisée se situe entre 0,07 et 0,105, ce qui est très inférieur à la dette technique d'autre projets open source, tel que Apache Sling, pour lequel elle se situe en 0,55 et 0,45 [3]. Donc bien qu'elle soit croissante, cette croissance est très faible.

Nous réalisons un autre test Mann-Kendall pour observer les tendances de la dette technique normalisée.

Figure 21 - Représentation des tendances d'évolution de la dette technique normalisée pour les différents projets.

Nous observons :

  • La dette technique normalisée de nilearn ne suit pas de tendance particulière au fil du temps.

  • La dette technique normalisée de scikit-image croît au fil du temps.

  • La dette technique normalisées des autres projets (scikit-learn, theano, pyhsmm, pybrain, pattern) décroît au fil du temps.

L'hypothèse est donc validée, avec cinq projets ayant une dette technique normalisée décroissante dans le temps, un projet qui stagne, et un projet où elle est croissante : la dette technique normalisée par le nombre de lignes de code décroît au fil du temps dans les projets Open Source.

Comme la tendance pour la plupart des projets est à la croissance du nombre de lignes de codes, cela signifie qu'un effort est produit pour contenir la dette technique.

Conclusion partielle

Notre hypothèse selon laquelle la dette technique grandit obligatoirement dans le temps est donc invalidée. Nous obtenons des résultats inverses à ceux obtenus dans l'étude sur les projets Open Source d'Apache [3], dans laquelle la dette technique avait clairement une tendance croissante. Ces résultats sont peut-être liés au faible nombre de projets que nous avons étudiés. Nous pourrions facilement relancer nos analyses sur un plus grand nombre de projets avec les outils que nous avons mis en place.

La dette technique normalisée, en revanche, évolue bien comme on s'y attendait, avec une tendance à décroître dans le temps. Cela semble confirmer notre hypothèse comme quoi les méthodes de développement open source (principalement le système de pull request et leur reviews) permettent d'assurer une constance de la qualité logicielle dans le temps.

En somme, nous concluons que la qualité semble être une réelle préoccupation des projets Open Source de Machine Learning.

Conclusion

L'étude des sous-questions que nous avons posées nous a permis de traiter une partie des aspects de notre question générale "Comment est organisée le développement d'un projet Open Source de Machine Learning ?". Successivement, nous avons observé l'importance de la contribution du monde de la recherche dans ces projets, de l'existence d'un fort code ownership des algorithmes et d'un effort particulier pour maintenir une bonne qualité.

En croisant les parties, nous pourrions observer des comportements particuliers. Par exemple, la Figure 20 montre que la majorité des contributeurs majeurs des algorithmes des trois projets étudiés sont des chercheurs, ce qui corrobore notre hypothèse que les algorithmes sont développés par des experts du domaine.

Figure 20 - La majorité des personnes contribuant majoritairement à au moins un algorithme sont des chercheurs

Poursuivre les croisements entre les parties de l'étude ne pourrait mener qu'à des observations car elles n'ont été réalisées que sur un infime échantillon de projets ; ces questions pourraient mener à de nouvelles interrogations pour une étude future.

En particulier, nous nous demandons ce que nous pourrions inférer sur la qualité et le code ownership des projets menés par des chercheurs. En effet, scikit-image est un projet qui compte une majorité de contributeurs-chercheurs, qui présente un très grand code ownership de ses algorithmes ainsi qu'une qualité qui décroit en permanence. Nous nous interrogeons sur la possible généralisation de ces observations aux autres projets dont les contributeurs sont en majorité des chercheurs.

VI. Références

Documents

[1] Cours de X. Blanc du 16 janvier 2018.

[2] N. Ernst, S. Bellomo, I. Ozkaya, R. Nord, I. Gorton (2015). Measure It? Manage It? Ignore It? Software Practitioners and Technical Debt, ESEC/FSE.

[3] G. Digkas, M. Lungu, A. Chatzigeorgiou, P. Avgeriou (2017). The Evolution of Technical Debt in the Apache Ecosystem, Springer International Publishing.

Projets étudiés

Codes

https://github.com/AntoineAube/reace-study

Last updated