Le Blog : L'info du dehors 

Peu importe la météo, notre modeste regard sur l'actu

Les logiciels libres et open source (FOSS) offrent un socle vital mais fragile dans le monde numérique


Les FOSS sont la colonne vertébrale de notre ère numérique. Ils alimentent nos smartphones, nos applications, nos services en ligne et même les infrastructures critiques. Pourtant, comme le révèle l’étude Census III, cet écosystème repose souvent sur des bases précaires. Dépendance aux comptes individuels, logiciels obsolètes encore largement utilisés, ou encore sécurité insuffisante des dépendances... Les défis ne manquent pas.

Crédit image : linux foundation

Cette étude, menée par l'université d'Harvard et The Linux Foundation, nous éclaire sur les forces et faiblesses des FOSS. Elle met aussi en lumière des solutions possibles pour garantir leur pérennité (un peu comme Eudéeffe qui vous doit plus que la lumière !). Voici l'analyse de ce qu'il faut en retenir.

Un écosystème dynamique mais sous pression
Il faut se rendre à l'évidence, l’écosystème JavaScript, et particulièrement npm, se distingue par son omniprésence. Avec des bibliothèques comme react-dom (pour les interfaces utilisateur) ou lodash (manipulation de données), npm domine les classements. Mais cette dépendance massive soulève des problèmes. L’étude montre que 47 % des packages npm contiennent une ou zéro fonction, une caractéristique de la "micro-modularité" de JavaScript.
Bien que cette approche favorise l’innovation rapide, elle entraîne aussi une hyper-dépendance, j'en fais souvent les frais à titre personnel. Chaque projet repose sur des dizaines, voire des centaines de petites bibliothèques, rendant les audits de sécurité complexes et augmentant les risques de failles.

Le boom des bibliothèques cloud
Une autre tendance forte relevée par le Census III est la montée en puissance des bibliothèques cloud. Des outils comme boto3 (pour AWS) ou google-cloud-go (pour... Google Cloud) font leur entrée dans les classements. Cela reflète la transformation des infrastructures numériques, de plus en plus tournées vers les services cloud. Cependant, cette concentration des dépendances sur quelques géants technologiques pose des risques en cas de vulnérabilités ou de dysfonctionnements.

Rust, où la montée d’une alternative sûre
En réponse aux failles de sécurité mémoire des langages comme C et C++, Rust s’impose progressivement et massivement. Le rapport note une augmentation de 500 % de l’utilisation des bibliothèques Rust depuis 2020. C’est une excellente nouvelle pour un écosystème souvent critiqué pour ses problèmes de sécurité, notamment dans les systèmes critiques. Sans oublié la rapidité des applications développées avec ce language.

Des défis structurels à surmonter grâce à la contribution d'une poignée de développeurs
L’un des constats les plus alarmants du Census III est que de nombreux projets critiques reposent sur une ou deux personnes seulement. Parmi les 50 principaux projets non-npm étudiés, 40 % ont un ou deux contributeurs responsables de plus de 80 % des commits en 2023. Cette concentration rend ces projets vulnérables en cas d’abandon, de surcharge ou de compromission de comptes.
Les incidents récents montrent que ces risques ne sont pas théoriques. Le retrait soudain du package left-pad en 2016 a "cassé Internet" pendant plusieurs heures. Plus grave, en 2022, un développeur a saboté ses propres bibliothèques (colors.js, faker.js) en introduisant une boucle infinie (c'est malin !).

L’héritage des logiciels obsolètes
Le rapport dénonce aussi la persistance des logiciels dépassés. Par exemple, le package minimist reste largement utilisé malgré l’existence de solutions modernes comme yargs. Ces logiciels hérités, souvent non maintenus, augmentent les risques de sécurité. L’étude appelle à faciliter la transition vers des alternatives récentes et suivies, en fournissant des outils pour réduire les coûts et les efforts nécessaires.

Un manque de standardisation des dépendances
Enfin, l’absence d’un schéma de nommage uniforme pour les composants logiciels complique la gestion des dépendances. L’adoption de formats comme purl (Package URL) pourrait améliorer la transparence et la sécurité, mais ces initiatives restent embryonnaires. Ce manque de standardisation ralentit les audits et compromet les efforts de sécurisation des chaînes d’approvisionnement logicielles.

Agir pour sécuriser les fondations du numérique
Le Census III dresse un constat clair : l’écosystème des logiciels libres est à la fois un moteur d’innovation et un point de fragilité. Pour garantir sa pérennité, il est essentiel d’agir sur plusieurs fronts :

  • Renforcer la sécurité des contributeurs : promouvoir l’authentification multi-facteurs et migrer les projets critiques vers des comptes organisationnels.
  • Investir dans les projets stratégiques : financer les bibliothèques les plus utilisées et soutenir leurs contributeurs.
  • Faciliter les transitions technologiques : accompagner les migrations vers des outils modernes comme Rust ou Python 3.
  • Standardiser les dépendances : adopter des formats comme purl pour simplifier les audits et améliorer la traçabilité.

Comme le souligne l’étude :
Les logiciels libres ne sont pas seulement des outils, mais les fondations invisibles de l’économie numérique. Leur santé est essentielle à notre avenir.

Alors, en tant qu’utilisateur ou développeur, que pouvez-vous faire pour soutenir cet écosystème vital ? Peut-être commencer par examiner vos dépendances... et envisager de contribuer !


Sources multiples :
Le rapport Census III
The Linux Foundation
NEXT


Publié le par Technifree


  En parler sur le forum

L'enseignement de l’histoire face aux images manipulées


À l’heure où les images circulent massivement en ligne, souvent sorties de leur contexte ou manipulées, enseigner l’histoire devient un défi. Cet article explore comment les enseignants peuvent aider leurs élèves à développer un regard critique face à ces photographies trompeuses. Il met également en lumière des outils comme le projet VIRAPIC, qui vise à rétablir la vérité historique et à lutter contre la désinformation numérique.

Crédit image : Pixabay

L’avènement de l’intelligence artificielle et la prolifération des contenus numériques remettent en question la manière dont nous enseignons et comprenons l’histoire. L’article que KAT m'a suggéré aujourd'hui rédigé par Mathieu Marly et Gaël Lejeune à partir du site The Conversation, met en lumière un défi crucial pour les enseignants d’aujourd’hui : comment préparer les élèves à naviguer dans un brouillard numérique où des photographies historiques parfois sorties de leur contexte ou manipulées, se répandent à une vitesse inédite ?

L’importance de contextualiser les images historiques
Un exemple frappant évoqué par les auteurs est une photographie prise en 1904 par la missionnaire Alice Seeley Harris pour dénoncer les violences dans l’État indépendant du Congo :


copie d'écran Photo des « Congolais tenant des mains coupées » prise par Alice Seeley Harris à Baringa, mai 1904. Source : Wikipédia

Ce cliché, souvent interprété comme un témoignage des exactions coloniales, révèle une autre facette de l’histoire lorsqu’on découvre les intentions de la photographe et la participation des Européens visibles sur l’image à une campagne de sensibilisation. Cette « polyphonie morale » illustre la complexité des sociétés européennes face à la colonisation.

L’absence de contexte historique transforme les images en supports polysémiques, propices aux mésinterprétations. Ce constat s’étend au traitement de nombreux autres clichés, comme celui partagé sur Twitter en 2024 pour commémorer la rafle du Vel d’Hiv, mais qui, en réalité, montre des suspects de collaboration après la Libération. L’erreur, relayée par les algorithmes, reflète une méconnaissance générale et contribue à la désinformation historique.

Une méthodologie critique au service des élèves
Pour contrer cette dérive, les enseignants d’histoire sont invités à adopter une approche plus critique vis-à-vis des images en ligne. La méthode SANDI (Source, Auteur, Nature, Date, Intention) apparaît comme un outil fondamental pour évaluer et contextualiser les documents visuels. Pourtant, son utilisation reste encore limitée dans les manuels scolaires, souvent cantonnée à une simple légende illustrative. L’intégration d’une formation à la critique documentaire, en particulier sur les archives photographiques, devient donc une priorité pédagogique.

Le défi des contenus générés par l’IA
Le rapport d’Europol remonte un défi supplémentaire : d’ici 2026, une majorité des contenus en ligne seront générés par des IA. Ces technologies permettent déjà de créer des photographies réalistes mais fictives, brouillant davantage la distinction entre réalité et invention. Dans ce contexte, il est essentiel d’intégrer dans les cours d’histoire une éducation aux outils numériques et aux mécanismes algorithmiques qui influencent la diffusion des contenus.

VIRAPIC : un outil au service de la vérité historique
Face à ces enjeux, des initiatives comme le projet VIRAPIC émergent. Développée par l’Encyclopédie d’histoire numérique de l’Europe (EHNE) et le CERES de Sorbonne Université, cette plateforme vise à détecter et contextualiser les photographies virales liées à des évènements historiques. VIRAPIC ambitionne de réintégrer les images dans leur cadre historique et leur contexte en fournissant des informations vérifiées et accessibles via les moteurs de recherche.
Grâce à une stratégie de référencement optimisée, les pages EHNE/VIRAPIC apparaîtront parmi les premiers résultats, offrant aux internautes une alternative crédible face aux contenus décontextualisés. Ce projet, en reliant la rigueur des historiens aux usages numériques, se positionne comme un rempart contre la désinformation et un soutien précieux pour les enseignants et les élèves.

Enseigner l’histoire à l’ère numérique
L’enjeu pour les enseignants est désormais double : transmettre une compréhension critique du passé et outiller les élèves face à un environnement numérique de plus en plus complexe. Former les jeunes générations à détecter les biais des algorithmes, à évaluer la crédibilité des sources et à contextualiser les images historiques n’est plus une option, mais une nécessité.

L’avenir de l’enseignement de l’histoire réside dans cette capacité à conjuguer tradition académique et innovation numérique. VIRAPIC et d’autres outils similaires constituent des alliés stratégiques pour relever ce défi et garantir une transmission rigoureuse et éclairée de notre mémoire collective.

Article rédigé avec l'aide partielle de ChatGPT 4o (tournures de phrases)


Source :
The Conversation

Publié le par Technifree


  En parler sur le forum

Mozilla Fondation réduit ses effectifs de 30 % pour se recentrer sur sa mission face aux défis technologiques


La Fondation Mozilla, l'organisme à but non lucratif qui soutient le navigateur Firefox, a récemment annoncé un licenciement de 30 % de ses effectifs, en invoquant une « vague de changements implacable ». Cette restructuration vise, selon Mozilla, à accroître son agilité et son impact face aux défis technologiques actuels.

mozilla Crédit image : Mozilla

Interrogé par TechCrunch, le responsable de la communication de la Fondation Mozilla, Brandon Borrman, a confirmé cette réduction de personnel par e-mail.
"La Fondation Mozilla réorganise ses équipes pour devenir plus agile et pour maximiser son impact, alors que nous accélérons nos efforts pour assurer un avenir technologique plus ouvert et équitable pour tous. Cela implique malheureusement la fin de certains projets et la suppression de postes associés, afin de recentrer notre travail pour l’avenir", a-t-il déclaré.

Selon les déclarations fiscales de la Fondation, Mozilla employait environ 60 personnes en 2022. Cependant, au moment de ces licenciements, l’effectif était proche de 120 employés, selon une source anonyme. Mozilla n’a pas contesté ce chiffre.

Il s’agit du deuxième licenciement chez Mozilla cette année, le premier ayant affecté plusieurs employés travaillant sur la partie de l’organisation dédiée au développement du navigateur Firefox.

Mozilla se compose de plusieurs entités, notamment la Mozilla Corporation, qui développe Firefox et d'autres technologies, et la Fondation Mozilla, une organisation à but non lucratif et exonérée d'impôts, qui supervise la gouvernance de l’organisation et oriente ses politiques.

Une grande partie du travail de Mozilla se concentre sur la défense de la vie privée, l’inclusion et la décentralisation des technologies, avec pour objectif de créer des expériences en ligne plus sûres et transparentes, au bénéfice des utilisateurs de Firefox et du public.

Dans un courriel adressé à l’ensemble des employés le 30 octobre, Nabiha Syed, directrice exécutive de la Fondation Mozilla, a confirmé que deux divisions majeures — la défense des droits et les programmes globaux — ne feraient plus partie de la structure de l’organisation.

Après la publication de cette annonce, Brandon Borrman a précisé à TechCrunch que la « défense des droits reste un principe central du travail de la Fondation Mozilla et sera intégrée dans toutes les autres fonctions », sans donner plus de détails.

Cette réorganisation s'inscrit dans la volonté de la Fondation, selon Syed, de produire une « narration unifiée et puissante », en révisant sa stratégie de communication.

"Notre mission chez Mozilla est aujourd’hui plus cruciale que jamais", a écrit Syed dans un e-mail adressé au personnel, dont une copie a été partagée avec TechCrunch.

Nous faisons face à une période de changements constants dans le monde technologique et au-delà, et mettre l'humain avant le profit semble de plus en plus radical.

Elle conclut en soulignant que cette période mouvementée requiert une concentration accrue, ce qui passe parfois par des choix difficiles, y compris l’abandon de certains travaux importants menés jusque-là.

Atteindre des objectifs ambitieux exige des décisions difficiles.


Sources multiples :
Techcrunch
Mozilla blog
Le Monde Informatique


Publié le par Technifree


  En parler sur le forum

Vers une transparence renforcée pour l’IA open-source en France


Le paysage de l’Intelligence Artificielle évolue rapidement, surtout en matière d'open-source. La définition de ce que signifie réellement l'« IA open source » est au centre des préoccupations de nombreux acteurs, qu’il s’agisse de gouvernements, de chercheurs ou d’entreprises. En France, un tournant décisif vient d’être pris : le Pôle d'Expertise de la Régulation Numérique (PEReN) a lancé un outil innovant pour guider les utilisateurs dans le choix de modèles d’IA, basé sur une grille de critères d’ouverture.

peren Crédit image : PEReN

L'Open Source Initiative (OSI), reconnue pour sa rigueur dans la définition de l’open source, a publié la version 1.0 de sa propre définition de l'IA open source. Inspirée des libertés du logiciel libre, cette définition fixe quatre principes fondamentaux :

  • • Liberté d’utilisation : tout utilisateur peut exploiter le modèle pour n'importe quel usage sans demande préalable.
  • • Liberté d’examen : les utilisateurs peuvent étudier le modèle pour comprendre ses mécanismes et ses composants.
  • • Liberté de modification : les utilisateurs peuvent modifier le modèle à des fins diverses, y compris pour altérer ses résultats.
  • • Liberté de partage : les utilisateurs peuvent redistribuer le modèle, avec ou sans modifications, pour n’importe quel usage.
Ces libertés fondent la base de l’open source, mais elles ne sont pas obligatoirement toutes requises pour chaque projet d’IA. Cette ouverture a pour but de favoriser une accessibilité plus large tout en laissant aux concepteurs une marge de manœuvre pour imposer des restrictions selon leurs besoins spécifiques.

Le comparateur d'ouverture : L'outil du gouvernement pour mieux s’orienter
Face à la complexité croissante de l’IA, le gouvernement français, par le biais du PEReN, a récemment introduit un comparateur d’ouverture des modèles d’IA. Cet outil aide les utilisateurs à choisir des modèles de génération de texte ou d’image en fonction de critères d’ouverture spécifiques. Le comparateur regroupe actuellement 14 modèles textuels et 6 modèles visuels, et permet de trier selon divers facteurs tels que :
  • • La possibilité de redistribution du modèle
  • • La licence d’usage commerciale
  • • Les restrictions éthiques
  • • La transparence sur les données d’entraînement et la documentation
Par exemple, un modèle comme BLOOM, bien que largement ouvert, impose certaines limitations d’usage. En revanche, Mistral offre une liberté d’utilisation totale, mais sans fournir de documentation complète sur ses données d’entraînement.

Un tableau évolutif et collaboratif
Conçu pour évoluer, le comparateur de PEReN se veut un outil collaboratif, encourageant les utilisateurs et experts à contribuer à son enrichissement. Les critères d’ouverture varient, intégrant des éléments comme la disponibilité des poids du modèle, la publication des articles scientifiques associés, et la transparence de l’infrastructure. Ce tableau est particulièrement utile pour quiconque cherche à évaluer le degré d’ouverture de différents modèles et choisir en fonction de ses besoins.

La gouvernance : un aspect fondamental du développement de l’IA
Au-delà des critères d’ouverture, la question de la gouvernance des modèles open source soulève des débats. Le PEReN met en garde contre les dérives possibles : un modèle open source peut être vulnérable à des pratiques de contrôle par des entreprises dominantes. Par exemple, Android, bien que considéré comme open source, reste sous la domination de Google qui contrôle en partie cet écosystème. Cette situation rappelle la nécessité de surveiller la gouvernance des projets open source dans le domaine de l'IA pour prévenir les dérives monopolistiques, telles qu'on peut le constater un peu partout (vive le capitalisme !).

La définition de l'OSI insiste désormais sur une transparence accrue concernant les données d’entraînement. Une simple description détaillée n'est plus suffisante : l’OSI exige désormais une présentation exhaustive des données utilisées, un point crucial pour garantir l'intégrité et l’éthique dans le développement des modèles. De plus, la méthodologie de filtrage des données doit être documentée et son code publié, une exigence qui marque une avancée vers une meilleure traçabilité des processus d’entraînement.

Une absence de contrainte sur la publication des paramètres du modèle
L’OSI ne souhaite pas pour l’instant imposer de licence spécifique pour la publication des paramètres du modèle. Cette question pourrait se clarifier avec le temps et l’évolution de la législation autour de l'IA open source. En attendant, l’OSI encourage les concepteurs à publier les paramètres de leurs modèles pour favoriser la reproductibilité et la confiance dans les résultats.

Chez Meta on propose un modèle divergent de l’open source
La définition de l’OSI suscite toutefois des tensions, notamment avec Meta, qui revendique le caractère open source de ses modèles LLaMA. Bien que la société affirme partager plusieurs points de vue de l’OSI, elle ne publie pas les données d’entraînement de ses modèles. Cette réticence pose la question de l’équilibre entre l’ouverture et le respect des exigences de transparence.

Malgré certaines divergences, cette nouvelle définition reçoit malgré tout l’adhésion des acteurs du milieu (non, rien à voir avec Frodon). Clément Delangue, PDG de Hugging Face, salue cette avancée comme un jalon important pour renforcer la transparence, en particulier sur les données d’entraînement, ce qui est essentiel pour une IA responsable.

Sommes nous face à une initiative pionnière vers une IA éthique et accessible ? L’avenir nous le dira, mais une chose est sûre : la transparence et l’ouverture sont désormais au cœur des préoccupations de l’écosystème de l’IA open source.


Sources multiples :
NEXT
PEReN
CNRS
HuggingFace


Publié le par Technifree


  En parler sur le forum

Noyb Porte Plainte Contre Mozilla pour Activation Silencieuse de la Fonction “Privacy Preserving Attribution”


Le 25 septembre 2024, l'organisation noyb (None of Your Business) a déposé une plainte contre Mozilla, accusant le géant technologique d'avoir activé sans consentement une fonctionnalité de confidentialité, nommée “Privacy Preserving Attribution” (PPA), dans son navigateur Firefox. Cette fonctionnalité vise à remplacer les cookies de suivi traditionnels, permettant à Firefox de suivre le comportement des utilisateurs sur les sites web sans que ceux-ci aient à recourir à des cookies tiers.

Crédit image : Noyb

Malgré son appellation rassurante, la PPA soulève des préoccupations importantes concernant la vie privée. En effet, alors que Mozilla prétend améliorer la protection des données des utilisateurs, le système permet au navigateur de contrôler le suivi des utilisateurs, remplaçant ainsi les cookies par un mécanisme qui enregistre les interactions publicitaires. Selon Mozilla, cela offrirait une méthode moins invasive de mesure de la performance publicitaire, mais cela ne supprime pas complètement le problème de la collecte de données.

Les utilisateurs n'ont pas été informés de l'activation de cette fonctionnalité, qui a été mise en place par défaut après une récente mise à jour de Firefox. Ce manque de transparence est particulièrement préoccupant pour une entreprise qui a traditionnellement été perçue comme une alternative respectueuse de la vie privée, contrairement aux navigateurs basés sur Chromium de Google.

Un Manque de Consentement
L'activation de la PPA sans le consentement explicite des utilisateurs contredit les principes fondamentaux du Règlement Général sur la Protection des Données (RGPD) de l'Union Européenne. En effet, Mozilla n'a pas inclus cette fonctionnalité dans ses politiques de protection des données, laissant les utilisateurs dans l'ignorance des implications de cette option de suivi. Pour désactiver la PPA, les utilisateurs doivent naviguer dans les sous-menus des paramètres du navigateur, un processus qui ne garantit pas une prise de décision éclairée.

Felix Mikolasch, avocat spécialisé en protection des données chez noyb, critique cette approche :

Mozilla vient d'adhérer à l'idée que l'industrie de la publicité a le droit de pister les utilisateurs en transformant Firefox en un outil de mesure de la publicité. Bien que Mozilla ait pu avoir de bonnes intentions, il est très peu probable que l'”attribution préservant la vie privée” remplace les cookies et autres outils de suivi. C'est une honte qu'une organisation comme Mozilla pense que les utilisateurs sont trop stupides pour dire oui ou non.

Face à cette situation, noyb demande à l'autorité autrichienne de protection des données (DSB) d'enquêter sur le comportement de Mozilla. L'ONG exhorte Mozilla à informer correctement ses utilisateurs sur le traitement de leurs données et à adopter un système d'opt-in plutôt que d'opt-out. De plus, noyb appelle Mozilla à supprimer toutes les données traitées illégalement.

À Propos de Noyb
Noyb est une organisation non gouvernementale basée à Vienne, en Autriche, qui se consacre à l'application des lois sur la protection des données, notamment le RGPD et la directive ePrivacy. Composée d'une équipe de plus de 20 experts juridiques et informatiques, l'ONG œuvre pour garantir le respect du droit fondamental à la vie privée dans le secteur privé.

La plainte de noyb contre Mozilla soulève des questions cruciales sur la transparence et le consentement en matière de protection des données. Alors que la PPA vise à améliorer la vie privée des utilisateurs, son activation par défaut sans consentement pourrait nuire à la confiance que les utilisateurs placent en Mozilla. Dans un monde de plus en plus axé sur la protection des données, les entreprises doivent être vigilantes et respectueuses des droits de leurs utilisateurs.


Sources multiples :
Le journal du Hack
noyb.eu

Publié le par Technifree


  En parler sur le forum

Une nouvelle catégorie de licence logicielle fait son apparition : « fair source »


Une nouvelle catégorie de licence logicielle, appelée « fair source », a été introduite par la société de logiciel Sentry. Cette initiative bénéficie du soutien de startups telles que Codecov, GitButler, Keygen, PowerSync, Ptah.sh et CodeCrafters. La licence « fair source » vise à combiner les avantages des logiciels propriétaires et des logiciels libres, en répondant aux tensions financières et communautaires qui existent entre ces deux mondes.

fair source Crédit image : fair.io

La « fair source » est un paradigme de licence conçu pour faire le lien entre les mondes ouvert et propriétaire. Selon Sentry, cette licence permet aux entreprises de conserver un certain niveau de propriété sur leur code tout en impliquant la communauté des développeurs. Pour être défini comme « Fair Source Software (FSS) », le code doit adhérer à trois principes clés :

Être lisible publiquement : Le code doit être accessible et lisible par tous, ce qui permet une transparence et une collaboration accrue.
Permettre l'utilisation, la modification et la redistribution avec un minimum de restrictions : Cela vise à protéger le modèle commercial du producteur tout en permettant une certaine flexibilité pour les utilisateurs.
Faire l'objet d'une publication Open Source différée (DOSP) : Le logiciel est initialement déployé sous une licence propriétaire avant d'être progressivement transféré vers une licence open source.

Résoudre les tensions entre logiciels propriétaires et logiciels libres

De nombreux développeurs et entreprises ont subi des réactions négatives après avoir abandonné leur licence open source. Par exemple, HashiCorp est passé à une licence propriétaire en 2023, suscitant des critiques de la part de la communauté open source. Le fair source pourrait permettre aux entreprises de conserver un certain niveau de propriété sur leur code sans s'attirer les foudres des développeurs de logiciels libres pour avoir abandonné la communauté.

Sentry explique que l'objectif du fair source est de légitimer la pratique des entreprises qui partagent de manière significative l'accès au code de leurs produits logiciels de base tout en conservant le contrôle de leur feuille de route et de leur modèle commercial. Cependant, des critiques comme Amanda Brock, PDG d'OpenUK, estiment que cette nouvelle licence pourrait ajouter une complexité juridique et freiner l'innovation.

L'open source menacé par le manque de financement

Le développeur Bruce Perens a critiqué les licences ouvertes, affirmant que les développeurs de logiciels open source ont besoin de plus d'incitations financières pour maintenir l'écosystème en vie. Il a déclaré que rémunérer les développeurs de manière équitable pour leur travail est essentiel. Le développeur Jan Kammerath a également déploré le manque de financement et de compréhension de l’open source de la part des organisateurs de l’initiative, qui attendent que la communauté open source mette en œuvre leurs concepts gratuitement, sans leur offrir aucun soutien ni récompense.

La nouvelle licence proposée par Sentry aspire à offrir aux développeurs une liberté sans permettre l’exploitation commerciale non autorisée par des concurrents. Mais certains experts soulignent que le fair source pourrait ajouter une couche de complexité juridique et peut-être même freiner l’innovation.


Sources multiples :
Developpez.com
fair.io

Publié le par Technifree


  En parler sur le forum

Google perd un procès antitrust majeur mais prévoit de faire appel


Google a récemment perdu un important procès antitrust aux États-Unis, une décision qui pourrait profondément affecter ses pratiques commerciales et l'architecture de l'internet. Le jugement rendu par le juge Amit P. Mehta du tribunal de district de Columbia a conclu que Google avait agi de manière illégale pour maintenir son monopole sur la recherche en ligne.

Le juge Mehta (rien à voir avec la société d'Elon Musk, hein) a déterminé que Google a abusé de sa position dominante en payant des entreprises comme Apple, Samsung ou encore Mozilla pour que son moteur de recherche soit celui par défaut sur leurs appareils et navigateurs. Cette pratique aurait empêché d'autres moteurs de recherche de se développer et de rivaliser équitablement avec Google.

Les chiffres clés
 • En 2021, Google a dépensé 26 milliards de dollars pour s'assurer que son moteur de recherche soit le choix par défaut sur les plateformes Apple et Android.
 • De cette somme, environ 18 milliards de dollars ont été versés à Apple.
 • Google partage également 36% des revenus publicitaires générés par les recherches effectuées via Safari avec Apple.

Les arguments des parties
Le gouvernement américain : Le ministère de la Justice américain et plusieurs États ont intenté une action en justice contre Google en 2020, affirmant que les paiements effectués par Google pour être le moteur de recherche par défaut avaient entravé la concurrence. Ils ont soutenu que ces accords ont empêché des moteurs de recherche comme Bing et DuckDuckGo de collecter les données nécessaires pour améliorer leurs services et rester compétitifs.

Google : De son côté, Google affirme que ses pratiques sont légitimes et qu'elles ont permis d'améliorer la qualité de son moteur de recherche, ce qui profite aux consommateurs et aux annonceurs. Kent Walker, président des affaires mondiales de Google, a déclaré que la société prévoit de faire appel de la décision. Il soutient que Google a gagné la confiance des utilisateurs en fournissant un moteur de recherche de la meilleure qualité qu'il soit.

Les implications du jugement
La décision du juge Mehta pourrait obliger Google à modifier fondamentalement sa manière de faire des affaires. Les remèdes possibles incluent des changements dans la manière dont Google gère ses accords de recherche ou la vente de certaines parties de son entreprise. Cette affaire pourrait également avoir un impact sur d'autres procès antitrust en cours contre des géants de la tech comme Apple, Meta et Amazon.

Google a indiqué son intention de faire appel de cette décision. Le verdict final pourrait donc évoluer, comme ce fut le cas avec le procès antitrust contre Microsoft dans les années 1990. À cette époque, Microsoft avait été reconnu coupable de pratiques monopolistiques, mais l'ordonnance de démantèlement initiale avait été annulée en appel. Toutefois, Microsoft avait dû se conformer à certaines restrictions pour promouvoir la concurrence.


Ce jugement contre Google marque peut-être un tournant majeur dans la régulation des géants de la technologie et pourrait redéfinir les règles du jeu pour les entreprises dominantes dans le secteur numérique, allez, on y croit !


Sources multiples :
Techcrunch
LMI
France24


Publié le par Technifree


  En parler sur le forum

L'Arcep propose de faire un pas vers un futur plus vert


Vous avez probablement entendu parler de l'impact environnemental des technologies de l'information et de la communication (TIC). Eh bien, accrochez-vous, car les chiffres sont impressionnants. Le secteur des TIC représente à lui seul environ 4% des émissions mondiales de gaz à effet de serre, et ces émissions pourraient tripler en France d'ici 2050 si rien n'est fait. L'Arcep (Autorité de Régulation des Communications Electroniques, Postales et de la distribution de la presse en France), est sur le coup avec des propositions concrètes pour réduire cet impact.

Crédit image : Arcep

Les appareils électroniques en général :
Les appareils, comme les smartphones et les ordinateurs, sont les principaux responsables de cette empreinte carbone. Mais ce n'est pas tout : les TIC consomment également des métaux (lourds, rares, etc.) et des minéraux, de l'eau, et génèrent des déchets électroniques. Pour réduire cette empreinte, l'Arcep propose trois grandes mesures :

1 - Lutter contre l'obsolescence logicielle : En assurant un support à long terme des systèmes d'exploitation des ordinateurs, on peut prolonger leur durée de vie. Imaginez ne plus avoir à changer votre ordinateur tous les deux ans parce que le système d'exploitation n'est plus supporté !
2 - Adopter une approche globale de l'écoconception : Les services numériques, comme les applications, doivent aussi être pris en compte. Après tout, ils nécessitent des appareils, des réseaux et des centres de données pour fonctionner, et tout cela consomme de l'énergie et des ressources.
3 - Étendre les exigences d'écoconception et d'étiquetage énergétique à d'autres produits numériques : Les routeurs et les boîtiers décodeurs, par exemple, consomment beaucoup d'électricité. En les incluant dans les réglementations, on peut réduire leur impact environnemental.

L'obsolescence logicielle :
Saviez-vous que les ordinateurs représentent 22% de l'empreinte carbone numérique en France ? Et que la phase de fabrication des appareils, des centres de données et des réseaux représente près de 80% de cette empreinte ? L'obsolescence logicielle est l'une des raisons pour lesquelles nous changeons si souvent nos appareils. Pour y remédier, l'Arcep propose que les fabricants et distributeurs d'ordinateurs assurent la maintenance des systèmes d'exploitation pendant 10 ans après la fin de la commercialisation des appareils. Cela permettrait de prolonger la durée de vie des ordinateurs, de réduire les déchets électroniques et de limiter la consommation de ressources.

Les services numériques :
Les services numériques, comme les applications, jouent un rôle crucial dans l'empreinte environnementale des TIC. Ils nécessitent des appareils, des réseaux et des centres de données pour fonctionner, et tout cela consomme de l'énergie et des ressources. L'Arcep propose donc d'inclure les services numériques dans les réglementations d'écoconception. Cela permettrait de prolonger la durée de vie des appareils, d'optimiser les ressources nécessaires pour les services numériques, et d'encourager une plus grande transparence environnementale.


copie d'écran L’empreinte carbone du numérique, c’est quoi ?

Les Routeurs et les Boîtiers Décodeurs :
Les routeurs et les boîtiers décodeurs consomment beaucoup d'électricité. En 2022, ils ont consommé 3,3 TWh en France, soit plus de trois fois la consommation des réseaux fixes. En incluant ces appareils dans les réglementations d'écoconception et d'étiquetage énergétique, on peut réduire leur consommation d'énergie et leur impact environnemental.

L'Arcep propose des mesures concrètes pour réduire l'impact environnemental des TIC. En luttant contre l'obsolescence logicielle, en adoptant une approche globale de l'écoconception et en étendant les exigences d'écoconception et d'étiquetage énergétique à d'autres produits numériques, nous pouvons tous contribuer à un avenir plus vert. Alors, prêts à faire un pas vers un numérique plus durable ?


Sources multiples :
LaFibre.info
Arcep-dossier du 27/07/2024 (US)
Arcep-Pour un numérique soutenable (pdf)


Publié le par Technifree


  En parler sur le forum

Un avenir Open Source comme solution viable ?


L'incident récent impliquant Crowdstrike a paralysé une grande partie du monde, mettant en lumière une vérité déplaisante : notre dépendance quasi aveugle aux services des géants de la tech. Ma petite analyse rapide face à cette fatalité.

Crédit image : Fidget @2001

En voyant les faiblesses de Windows - ses mises à jour incertaines, ses innombrables bugs, et sa politique de plus en plus lucrative et complexe - ne serait-il pas temps pour les entreprises et les particuliers de se tourner vers des alternatives open source ? Est-il vraiment sensé de continuer cette hémorragie financière et l'utopie de sécurité promise par Microsoft, ou devrions-nous envisager des solutions comme Linux ?

Windows : un géant aux pieds d'argile
Microsoft Windows, bien qu'omniprésent, présente des failles béantes. Prenons l'exemple de la mise à jour d'octobre 2018 de Windows 10, qui a provoqué la perte de fichiers personnels pour de nombreux utilisateurs. Ajoutons à cela les vulnérabilités critiques plus récentes, comme celles exploitées par WannaCry en 2018, le ransomware Conti en 2022, ou encore les failles PrintNightmare et ProxyLogon, qui ont été largement médiatisées et utilisées par des cybercriminels pour prendre le contrôle à distance des systèmes. Il est clair que les solutions propriétaires de Microsoft ne sont ni aussi sûres ni aussi fiables qu'elles le prétendent.

L'Open Source, une alternative viable
L'open source offre depuis bien longtemps une alternative robuste, fiable et flexible. Linux, par exemple, est un système d'exploitation open source reconnu pour sa sécurité et sa fiabilité. Les distributions telles que Red Hat et Debian sont utilisées par des entreprises du monde entier pour leur capacité à offrir des solutions personnalisables sans les contraintes des logiciels propriétaires. Contrairement à Windows, Linux n'est pas sujet aux mêmes types de failles de sécurité critiques, et les correctifs sont souvent déployés plus rapidement grâce à une communauté de développeurs passionnés et compétents.

La Souveraineté Numérique : un enjeu crucial pour la France
La souveraineté numérique est devenue un sujet brûlant en Europe. La France, malgré ses efforts, dépend encore largement de Microsoft pour ses infrastructures. Cette dépendance pose des questions de sécurité et de confidentialité des données (Voir le rapport de la CNSP (AVIS N°2023-06 DU 12 SEPTEMBRE 2023 SUR LA SOUVERAINETE NUMERIQUE). Selon un rapport de Mediapart, la France continue de renouveler ses contrats avec Microsoft pour ses administrations, malgré les préoccupations croissantes concernant la protection des données et la souveraineté numérique.


Aujourd’hui, trois géants américains détiennent 65% du marché du cloud mondial : Amazon Web Services (AWS) à hauteur de 32%, Microsoft Azure à hauteur de 23% et Google Cloud pour 10%.

Les entreprises françaises, elles aussi, se tournent massivement vers des solutions cloud comme AWS, Azure et Google souvent sans considérer les alternatives plus sécurisées et localisées. Pourtant, il existe des solutions européennes qui respectent les normes de sécurité et de confidentialité, telles que OVHcloud ou Scaleway (et non, ce ne sont pas des liens sponsorisés, j'men fous !).

L'exemple Allemand et sa police à la mode linux
L'Allemagne a pris des mesures audacieuses en matière de souveraineté numérique. L'année dernière, la police allemande de la région du Schleswig-Holstein a décidé de se passer de Microsoft sur leurs postes de travail, optant pour des solutions open source comme linux et la suite bureautique LibreOffice Cette transition a permis de renforcer la sécurité tout en réduisant les coûts. Selon ZDNet, cette initiative montre qu'il est possible de fonctionner efficacement sans dépendre des produits propriétaires de Microsoft.

Indépendant, durable, sûr : Le Schleswig-Holstein sera une région pionnière en matière de numérique et le premier État allemand à introduire un poste de travail informatique numériquement souverain dans son administration. Avec la décision du cabinet d'introduire le logiciel libre LibreOffice comme solution bureautique standard, le gouvernement a donné le feu vert à la première étape vers une souveraineté numérique complète dans le Land, avec d'autres étapes à suivre.

Des solutions concrètes et rééalisables
Pour les entreprises et les particuliers cherchant à faire la transition vers l'open source, voici quelques étapes concrètes :

copie d'écran Processus simplifié de transition

Évaluer les besoins : Identifiez les logiciels propriétaires utilisés et recherchez leurs équivalents open source. Par exemple, remplacez Microsoft Office par LibreOffice ou Google Drive par Nextcloud (je ferai un de ces 4 un article sur les alternatives viables, promis !).
Planifier la transition : Une migration vers l'open source doit être soigneusement planifiée. Commencez par les applications les moins critiques pour tester la compatibilité et la fonctionnalité, sur des environnements de tests ou pour les particuliers, en effectuant des tests sur des machines virtuelles.
Former les utilisateurs : Investissez dans la formation pour que vos employés soient à l'aise avec les nouvelles applications. De nombreux cours en ligne et tutoriels sont disponibles gratuitement.
Implémenter progressivement : Ne passez pas à l'open source du jour au lendemain. Adoptez une approche progressive pour minimiser les perturbations. Parlez de votre expérience, faites en part autour de vous, au sein des communautés
Soutenir la communauté : Contribuez à la communauté open source pour renforcer les solutions que vous utilisez. Signalez les bugs, participez aux forums et, si possible, contribuez au développement et au financement des projets.

La dépendance aux services des GAFAM et les faiblesses des systèmes propriétaires comme Windows mettent en évidence les risques d'une telle centralisation du pouvoir technologique. L'open source offre une voie vers l'autonomie numérique, réduisant les coûts et améliorant la sécurité. La transition vers Linux et d'autres solutions open source pourrait bien être la meilleure décision stratégique pour toute entreprise ou particulier souhaitant se libérer de l'hémorragie financière et de l'utopie de sécurité offertes par Microsoft (ou même Apple, qui ne sort pas spécialement du lot non plus, malgré les apparences parfois trompeuses).

Alors, la prochaine fois que votre Windows se fige au beau milieu d'une présentation importante, pensez à Linux. Non seulement vous pourriez sauver votre journée, mais aussi votre portefeuille et, certainement, votre santé mentale.


Sources multiples :
FranceTVinfo : l'incident Crowdstrike
The Enterprisers project
ZDNet - passer de Windows à linux


Publié le par Technifree


  En parler sur le forum

Le Cyberdico de l'ANSSI où comment déchiffrer le jargon de la cybersécurité !


Voici un outil qu'il est bien (voir indispensable) pour tous ceux qui veulent comprendre et maîtriser le langage de la cybersécurité : le Cyberdico de l'ANSSI ! Préparez-vous à décrypter les mystères du vocabulaire informatique.

Crédit image : ANSSI

Le Cyberdico, kézako ? Imaginez un dictionnaire spécialement conçu pour vous aider à naviguer dans la jungle des termes techniques liés à la sécurité informatique. Créé par l'Agence nationale de la sécurité des systèmes d'information (ANSSI), cet outil gratuit est là pour vous éclairer sur les mots et expressions qui peuplent l'univers de la cybersécurité.

Vous vous demandez quelle est la différence entre un "malware" et un "virus" ? Vous avez toujours rêvé de comprendre ce que votre collègue informaticien raconte pendant ses interminables monologues sur les "pare-feu" et les "clés de chiffrement" ? Le Cyberdico est fait pour vous !

Grâce à ses définitions claires, accessibles et précises, en français et leur correspondance en anglais, ce dictionnaire (pdf) vous permettra de devenir un véritable expert en sécurité du numérique et des technologies de l'information (non, je déconne, mais au moins, vous comprendrez certain d'entre-eux). Et en plus, il est mis à jour régulièrement pour suivre l'évolution constante des vocabulaires utilisés. Plutôt pratique, non ?

En bref, le Cyberdico de l'ANSSI est l'allié indispensable des curieux et des passionnés qui souhaitent approfondir leurs connaissances et se familiariser avec le langage parfois complexe de la cybersécurité. Alors n'hésitez plus et foncez découvrir cet outil, pour briller dans la société des geeks et vous aider à vous protéger un peu mieux des menaces numériques, ou au moins, en comprendre leur définition !

Et rappelez-vous, dans le monde du numérique, la connaissance et la vigilance sont vos meilleures armes ! Alors, à vos claviers, et que le Cyberdico soit votre allié vers la maîtrise de la cybersécurité !


Source :
ANSSI


Publié le par Technifree


  En parler sur le forum