Un concept brumeux le Fog Computing ? Si peu à peu les sceptiques se rangent aux arguments des promoteurs du cloud computing, ils peuvent reporter leur méfiance sur ce nouveau terme. A tort ? Explications.
"La prolifération des capteurs intelligents, l'adoption croissante de dispositifs IoT et l'intégration de nombreuses applications intelligentes appellent la technologie de fog computing à devenir le concept le plus populaire dans des secteurs comme la fabrication, l'énergie, le transport et la logistique, et les soins de santé, entre autres" assure le cabinet de recherche irlandais Research and Markets. Il estime la taille de ce marché à plus de 200 millions de dollars en 2022, et 22 millions de dollars en 2017.
Jamais en retard d'une tendance, ZDNet.fr repérait ce phénomène dans une infographie publiée l'an passé.
Passer du cloud computing au fog computing n'a rien d'un phénomène météorologique. C'est un travail de réflexion autour de l'architecture du système d'information, du positionnement des données et de leurs points d'accès.
Optimiser l'utilisation des réseaux
Le cloud computing permet, par exemple, de donner toute leur puissance aux smartphones : il leur est impossible de stocker en local toutes les données et toute la puissance de calcul utilisée pour nous rendre tous les jours de grands services. Mais sans 3G, 4G, ou Wi-Fi, point de smartphone. Oui, le grand problème du cloud computing, c'est le débit, la bande passante. Pas ou peu de débit, pas ou peu de service. Les datacenters les plus connectés sont donc l'objet d'âpres disputes. Être collé à la fibre noire est un Graal, tout comme de bénéficier de réseaux sans fils à très haut débit.
La croissance de l'Internet des Objets pose de ce point de vue des problèmes d'architectures majeurs. Ces objets se connectent sans fil au réseau, remontent massivement des données structurées et non structurées vers des centres de données qui certes peuvent les stocker et les traiter sans problème. Mais quid ? de l'encombrement des réseaux ? Cela devient un problème majeur.
C'est là que le concept de Fog Computing, également appelé Edge Computing (on trouve également les termes de fog networking et de fogging), permet d'entrevoir une solution.
En quelques années, l'e-commerçant a prêté 3 milliards de dollars à des PME et son service de paiement a explosé. De son côté, le moteur de recherche multiplie les échecs.
Le patron de Google, Eric Schmidt, l'avait affirmé en 2014 : "Beaucoup de gens pensent que Bing ou Yahoo sont nos plus gros concurrents. En réalité, notre plus gros concurrent en matière de recherche en ligne, c'est Amazon." Trois ans plus tard, l'e-commerçant américain peut a transformé l'essai. Selon une étude du cabinet américain spécialisé dans le marketing sur Internet BloomReach Inc., 55% des cyberacheteurs américains débutent leurs recherches de produits sur Amazon.
Mais il y a un autre domaine dans lequel Amazon a surpassé Google : les services financiers. L'e-commerçant enregistre deux succès à son actif. Le premier est son offre de prêt aux PME, Amazon Lending. Lancée en 2011, elle permet aux entreprises qui vendent sur la plateforme de contracter des prêts à court terme entre 1 000 et 750 000 dollars. En six ans, le géant de l'e-commerce a déjà accordé plus de 3 milliards de prêts, dont 1 milliard au cours des douze derniers mois. Selon Amazon, 50% des 20 000 entreprises qui ont déjà contracté un prêt en prennent un second. Disponible aux Etats-Unis, au Royaume-Uni et au Japon, le programme doit être étendu dans d'autres pays d'Europe dont la France, mais aucune date n'a encore été communiquée.
Comment expliquer ce succès ? Première raison : le lien entre le cœur de métier d'Amazon et le monde du crédit. "On a vu le même phénomène avec les distributeurs français il y a vingt ans. Ils ont donné naissance à des sociétés de crédit comme Cofidis pour Les 3 Suisses. Ces entités ont bénéficié des réserves de ventes et des données des distributeurs. Il se passe aujourd'hui la même chose avec Amazon", explique Thomas de Bourayne, CEO de Credit.fr, une plateforme de crowdlending dédiée aux PME. Mais Amazon a une force de frappe plus grande que nos distributeurs tricolores. Deux millions de grossistes, commerçants indépendants, petits magasins et particuliers vendent des produits sur Amazon.com. En 2016, Amazon a stocké et livré 2 milliards de produits pour le compte de ces marchands tiers, deux fois plus qu'en 2015. "Aujourd'hui, les vendeurs utilisent la marketplace pour entrer en relation avec des producteurs. Faire du crédit est donc naturel puisqu'un fournisseur doit se couvrir avec une assurance-crédit pour les risques d'impayés", ajoute Julien Madonato, directeur conseil spécialiste des sujets d'innovation dans l'industrie financière chez Deloitte.
Docker bouscule le modèle, jusqu'ici fermé, des grands clouds. Ses containers logiciels permettent en effet de basculer une application entre les clouds d'Amazon, Google, Microsoft...
1- Comment résumer ce qu'est Docker ?
Docker permet d'embarquer une application dans un container virtuel qui pourra s'exécuter sur n'importe quel machine. D'abord optimisé pour Linux, il l'est désormais pour Windows Server. C'est une technologie qui a pour but de faciliter les déploiements d'application, et la gestion du dimensionnement de l'infrastructure sous-jacente. Elle est en partie proposée en open source (sous licence Apache 2.0) par une société américaine, également appelée Docker, qui a été lancée par un Français : Solomon Hykes.
2- Quelle différence avec la virtualisation traditionnelle ?
La virtualisation traditionnelle permet, via un hyperviseur, de simuler une ou plusieurs machines physiques, et les exécuter sous forme de machines virtuelles (VM) sur un serveur ou un terminal. Ces VM intègrent elles-mêmes un OS sur lequel les applications qu'elles contiennent sont exécutées. Ce n'est pas le cas du container. Le container fait en effet directement appel à l'OS de sa machine hôte pour réaliser ses appels système et exécuter ses applications. Historiquement, Docker repose sur le format de containers Linux, alias LXC. Il l'étend par le biais d'une API dans l'optique d'exécuter les applications dans des containers standards, qui sont donc portables d'un serveur Linux à l'autre.
Aujourd'hui on va se pencher sur Batocera. Batocera est un fork basé sur la distro Recalbox qui a l'énorme avantage d’être compatible avec les concurrents du Raspberry Pi mais apporte surtout la compatibilité avec les processeurs x86. Autrement dis, le PC a ENFIN son Recalbox.
Installation
Pour ceux qui connaissent la Recalbox, il savent qu’il suffit de déposer les fichiers d’une archive ZIP très légère (499Mo) sur une carte MicroSD formatée en FAT32 et de laisser le Pi se débrouiller tout seul au premier démarrage.
Pour Batocera, il ne s’agit pas d’une installation mais d’un clonage d’image complète à partir d’un fichier de 1,30Go (comme ma distro Lakka). Comme pour d’autres distributions il va falloir en passer par la commande DD ou win32diskimager sur PC ou encore Apple Pi Baker sur mac.
Systèmes émulés
Si de prime abord il est indiqué que Batocera fournit l’émulation Wii et Saturn, cela n’est en réalité valable que sur PC, le seul système « bonus » fournit pour la version Pi est la Dreamcast.
Cependant (et c’est indiqué sur le site dans un tableau comparatif) cette compatibilité est limitée et lente malgré le processeur à 1,2Ghz. Seul Volgarr qui est un homebrew connu a tourné sans problème avec quand même quelques saccades.
Pour le reste c’est bonnet blanc et blanc bonnet… On peut d’ailleurs échanger les dossiers de roms entre les deux distributions sans soucis.
Différences à l’usage
Les deux distributions utilisent EmulationStation comme interface, nous sommes donc en terrain connu.
Par contre (et peut-être grâce à l’overclock verrouillé à 1,2Ghz) Batocera démarre 3 fois plus vite que Recalbox (overclock bloqué à 1050Htz).
Si on veut scrapper ou remplir les rubriques comme le réglage WIFI, il faut un clavier physique avec la Recalbox alors que sur Batocera il a été rajouté un superbe et efficace clavier virtuel.
Verdict
Si vous êtes débrouillard, déjà habitué à l’architecture de la distribution Recalbox, que vous voulez un clavier virtuel et que vous êtes un impatient au boot… Pourquoi ne pas tester Batocera?
En revanche, si votre Recalbox fonctionne et que quelques homebrews sur Dreamcast ne vous manquent pas, ne touchez à rien et restez sur l’original.
De nos jours, les gens n'ont pas qu'un seul ordinateur. La plupart ont un ordinateur de bureau, une tablette, un smartphone et un ordinateur portable (ou deux). Lorsque vous arrivez à un endroit où vous avez plusieurs machines, garder tous les mêmes fichiers sur tous les appareils peut devenir fastidieux.
Certains diront que " c'est à cela que servent Dropbox et Google Drive ", et ils auraient raison. Le problème est que vous n'obtenez qu'une certaine quantité de stockage gratuitement avec ces services, sans parler qu'ils ne peuvent pas fonctionner hors ligne.
C'est là qu'intervient une solution de synchronisation de fichiers décentralisée. Avec cet outil, vous pouvez configurer un serveur de synchronisation sur une vieille machine et lui faire distribuer tous les mêmes fichiers à tous ceux qui se connectent. Vous n'êtes pas lié à un service de cloud ou à Internet. Mieux encore, vous n'êtes limité que par l'espace de stockage sur le disque dur.
La méthode du "tape mod" est aussi vieille que l'informatique, elle consiste à masquer ou ponter des pins et ainsi tromper le BIOS d'une carte mère en lui faisant croire qu'un CPU avec des caractéristiques différentes est installé.
C'est souvent la seule alternative pour overclocker un processeur sur un PC de grande marque, dépourvu d'options adéquates dans le BIOS.
Les Core 2 Duo qui se prêtent le mieux à cette manipulation sont les Quads Cores Q6600 et 6700, et les duals de la série E4xxx.
Le Core 2 Quad Q6600, un quad-core cadencé à 2,4 Ghz peut voir sa fréquence bondir à 3Ghz avec le Tape Mod, idéal pour recycler un Dell Optiplex qui peuvent se trouver pour une bouchée de pain dans les magasins de rachat/vente et sur internet.
Aujourd'hui on va voir ensemble comment recycler un Dell Optiplex SFF (Small Form Factor). On les trouve en occasion à prix très abordable et sont très polyvalents si on effectue les modifications nécessaire.
Émulation, jeux-vidéos, bureautique, virtualisation, compression de données, traitement photo/vidéo, serveur de fichier etc. Ces ordinateurs à faible encombrement sont taillés pour tous les usages.
Niveau budget, on s'en tire entre 260 et 400 euros selon les pièces que vous aurez choisis.
On va partir sur un Dell Optiplex 7010 SFF sur socket 1155.
Caractéristiques techniques
Modèle : DELL Optiplex 7010 Format : SFF (Small Form Factor) Processeur : Intel Core i3-3240 3.40 GHz - DMI : 5 GT/s - Cache : 3 Mo - Socket FCLGA1155 Mémoire Vive : 4 Go - DDR3 Disque dur : 250 Go Lecteur optique : Graveur DVD Carte graphique : Intégrée - Intel HD Graphics 2500 Carte son : Intégrée Réseau : Intel 82579LM - Gigabit Ethernet Système d'exploitation installé : Microsoft Windows 7 Professionnel 64 bits (avec licence) Alimentation : 240 Watts Dimensions : Hauteur : 29 cm // Largeur : 9,3 cm // Profondeur : 31,2 cm
PORTS
6 x Hi-Speed USB (2.0) - (2 à l'avant, 4 à l’arrière)
4 x Super-Speed USB (3.0) - (2 à l'avant, 2 à l’arrière)
2 x PS/2 - Souris et Clavier
1 x Série RS-232 - D-Sub (DB-9) 9 broches
1 x VGA - HD D-Sub (HD-15) 15 broches
2 x DisplayPort
1 x Gigabit Ethernet (RJ45) 10/100/1000Mbps
2 x Lignes d’entrée (stéréo / microphone)
2 x Lignes de sortie (casque / haut-parleur)
EMPLACEMENTS
4 x Slots - Mémoire vive
1 x PCI-Express x16 (Low profile)
1 x PCI-Express x16 - cablé x4 (Low profile)
1 x Baie 5,25'' (externe - ultraplate)
1 x Baie 3,5'' (interne)
Ce qu'il faut retenir :
- CPU : Le socket 1155 dispose d'une large gamme de processeurs. Du Celeron G440 au i7-3770 en passant par le Xeon E3-1290 v2, on verra par la suite quel est le meilleur rapport performance/prix parmi toutes ces références.
- GPU : Ce modèle SFF permet d'ajouter un GPU low profil contrairement aux modèles USSF qui ne dispose d'aucun port PCI Express. Attention à ne pas les confondre. En général, on les reconnais au niveau des ports USB à l'avant (deux sur les USSF, quatre sur les SFF).
- USB 3.0 : Ce modèle est équipé de quatre ports USB 3.0 (deux à l'avant, deux à l’arriéré), idéal pour les transferts de gros fichiers.
- RAM : Le PC est compatible avec la DDR3-1600 qui a une bande passante de 12,8 Go/s. En gros, c'est le minimum syndical pour pouvoir profiter des prochains gros jeux sans problème. La DDR2 sur socket 775 montre vite ses faiblesses et la DDR4 n'est disponible que sur les derniers sockets Intel.
On a vu la partie technique, maintenant on va passer à la partie pratique.
1) Ajouter un GPU
Le circuit Intel Graphics du processeur étant beaucoup trop limité, on va lui adjoindre un GPU Low Profil. Il n'y a pas d'autre choix vu le peu de place disponible.
Plusieurs choix s'offrent à vous :
- GT 1030 (70 euros) : TDP de 30W et faible encombrement. Légèrement en dessous de la 750 Ti
- GTX 750 Ti : plus disponible dans le commerce, elle est un peu plus puissante que la GT 1030 et se trouve pour 50-60 euros en occasion
- GTX 1050/1050 Ti : TDP de 75 watts, disponible en version 2 ou 4 go, c'est le top en matière de GPU low profil
2) Changer le CPU
Le i3-3240 est un excellent processeur mais pour un usage gaming, il va vite montrer ses limites. En voici les raisons.
Emulation : Il fait tout tourner mais cela nécessite quelques réglages. Le i3 commence à montrer ses limites sur les émulateurs Cemu et RPCS3 qui nécessitent un puissant quad-core pour tourner correctement.
En plus de cela, il vous faut désactiver la vsync des émulateurs Demul, Dolphin et PPSSPP et activer la vsync adaptif dans les options de votre GPU. En gros il faut sans cesse trouver des astuces pour garder un équilibre entre la résolution et le framerate.
Jeux PC : Pour l'instant, le i3-3240 fait tourner sans aucun soucis la plupart des jeux. Si vous êtes fans de jeux indés, de oldies ou de jeux à fortes composantes online, vous pouvez dormir tranquille.
Par contre pour les prochains blockbusters, cela reste à voir. De plus en plus de jeux vont être optimisés pour les processeurs quad-core, on vois déjà les différences de performance sur les derniers Assassin's Creed ou GTA V. Ils sont encore trop peu nombreux mais cela va s'accentuer dans les années à venir.
Vous avez le choix entre six processeurs cadencés entre 3,2 et 3,7 ghz.
Le meilleur rapport performance/prix est décerné au e3-1290. C'est un puissant quad-core cadencé à 3,6 Ghz avec HT et Turbo Boost jusqu'à 4 Ghz. C'est le CPU de référence si vous souhaiter faire un upgrade.
La prochaine fois, on parlera des modèles standard qui permettent beaucoup plus de modifications
Exemple d'un upgrade avec le Dell Optiplex 9020 (socket 1151)