20 juillet 2015

 

La mémoire, future pierre d'achoppement de l'informatique ?

 
Paradoxalement, ce n'est pas la puissance des ordinateurs qui pourrait constituer une barrière au développement de l'informatique, mais la capacité de mémoire.

Des projets comme Google, Twitter ou YouTube, pour ne citer qu'eux, produisent annuellement une quantité de données évaluée entre 10 et 100 petabits (millions de gigabits). Mais selon Gene Robinson, un généticien de l'Université d'Illinois, le secteur qui réclame la plus grande quantité de mémoire pour enregistrer ses données n'est ni la physique, ni l'astronomie, qui pourtant connaissent un développement explosif, mais la biologie, et tout particulièrement la génétique.

Pour cette étude, Gene Robinson a travaillé en collaboration avec des mathématiciens et des informaticiens pour étudier les segments du web qui connaissent le plus fort développement, notamment les réseaux sociaux, les sites d'hébergement de vidéos et les systèmes distributifs pour le traitement des informations scientifiques. Mais ceux-ci n'arrivent pas à la cheville du volume atteint par les bases de données ADN.

"Au fur et à mesure de l'amélioration des technologies d'analyse d'ADN et de la diminution des prix de cette procédure, on s'attend à une véritable explosion de la propagation des technologies de séquençage dans la vie quotidienne et à un véritable déluge informatique. L'unique moyen d'y survivre consiste à améliorer l'infrastructure informatique chargée de traiter les données génétiques", affirme le généticien.

Et il affirme que, selon des prévisions tout-à-fait réalistes, le volume de ces bases de données ADN devrait doubler tous les 7 à 8 mois, et représenter d'ici une petite décennie une quantité qui devra se chiffrer en exabits (milliards de gigabits). Or, entreposer de tels volumes de données n'est pas envisageable actuellement, et nécessitera donc une évolution des capacités de mémorisation allant de pair avec l'augmentation de puissance des ordinateurs.

Gene Robinson fait en outre remarquer que si les astronomes et les physiciens ont déjà mis au point des normes communes de traitement et d'enregistrement des données, ce qui a pour effet d'éliminer de nombreuses redondances, ce n'est pas le cas des biologistes. Il n'existe pas encore, en effet, d'algorithme capable de trouver et de supprimer les nombreux fragments communs ou insignifiants de l'ADN humain, qui se trouvent ainsi enregistrés un nombre incalculable de fois.

En conséquence, ajoute le chercheur, si ce problème n'est pas pris en compte, le stockage des données pourrait se trouver dans une impasse d'ici 10 à 15 ans.

Jean Etienne
 

 

 

 

 
 
 

Retour

Commentez cet article dans le forum