Refuser les cookies : l'option décorative qui adore collecter vos données !
Le débat sur la vie privée en ligne est plus pertinent que jamais. Alors que nous naviguons sur internet, des décisions importantes concernant notre vie privée sont prises à notre insu. Une étude récente, réalisée par des chercheurs de l'Université d'Amsterdam en collaboration avec l'ETH Zurich, jette une lumière crue sur l'efficacité réelle du système de consentement aux cookies, révélant une réalité troublante : la majorité des sites web européens collectent des données personnelles sans le consentement réel des utilisateurs.

Les cookies, de petits fichiers stockés sur nos appareils par les sites web que nous visitons, sont au cœur de cette problématique. Ils jouent un rôle essentiel dans notre expérience en ligne, mémorisant nos préférences et nos identifiants. Cependant, certains cookies, notamment les cookies traceurs, posent un risque pour notre vie privée en suivant notre activité en ligne pour cibler des publicités basées sur nos intérêts.
L'étude et ses révélations
L'outil développé par les chercheurs a analysé 97 000 sites web, permettant une comparaison directe entre les pratiques déclarées par les sites et leurs actions réelles. Le constat est alarmant : la majorité des sites web étudiés enfreignent une ou plusieurs normes de protection de la vie privée.
Nous constatons notamment que 65,4 % des sites web offrant une option de refus des cookies sont susceptibles de collecter des données sur les utilisateurs en dépit d'un consentement explicite négatif.
Violations naïves et délibérées
L'étude catégorise les infractions en deux types : les violations naïves, comme l'absence d'option de refus des cookies, et les violations délibérées, où les sites installent des cookies traceurs même lorsque l'utilisateur les refuse. Ces pratiques non seulement violent la réglementation en vigueur mais sapent également la confiance des utilisateurs envers le site web.
Les "dark patterns" : une tactique de tromperie
Une technique particulièrement inquiétante relevée par l'étude est l'utilisation des "dark patterns". Ces méthodes de conception visent à manipuler les choix des utilisateurs, rendant le bouton "accepter" plus visible et attrayant par rapport à l'option "refuser", souvent minimisée ou rendue difficile à trouver.
Un système de consentement défaillant
L'étude conclut sur une note critique envers le système actuel de consentement aux cookies, jugé inefficace. Elle pointe du doigt non seulement le manque de connaissances techniques et juridiques des petits sites web mais aussi l'attitude de certains grands acteurs qui choisissent d'ignorer ou de contourner les règles établies.
Actions et réactions réglementaires
Face à cette situation, les autorités comme la CNIL en France ont pris des mesures, prononçant près de 100 actions correctives depuis la date limite de mise en conformité aux nouvelles règles sur les cookies. Cependant, l'efficacité de ces interventions reste à démontrer, soulignant le besoin d'une réforme plus profonde du système de consentement.
Cette étude révèle une réalité troublante sur le web européen, où le respect de la vie privée des internautes est souvent relégué au second plan. Elle appelle à une réflexion urgente sur les mécanismes de consentement et sur la manière dont nous, en tant que société, valorisons et protégeons notre vie privée en ligne. Le chemin vers un internet respectueux de la vie privée est semé d'embûches, mais c'est une quête qui mérite notre attention et notre engagement.
Sources multiples :
Tom's Guide
Usenix
Publié le par Technifree
En parler sur le forum
La CNIL : un rôle clé dans le développement éthique et responsable de l'Intelligence Artificielle
La Commission Nationale de l'Informatique et des Libertés (CNIL), autorité administrative indépendante française chargée de veiller à la protection des données personnelles, se positionne comme un acteur majeur dans le développement éthique et responsable de l'Intelligence Artificielle (IA). À travers deux articles publiés en octobre 2023 et avril 2024, la CNIL dévoile ses premières réponses et recommandations pour une IA innovante et respectueuse de la vie privée.
Une IA innovante et respectueuse des personnes : l'engagement de la CNIL
La CNIL, consciente des opportunités technologiques offertes par l'IA dans divers domaines tels que la santé, les services publics ou la productivité des entreprises, souhaite accompagner les acteurs innovants tout en garantissant la protection des libertés individuelles. Cependant, l'entraînement des algorithmes consomme beaucoup de données, notamment personnelles, et peut dans certains cas porter atteinte aux droits des personnes.
Face à ces défis, la CNIL promeut une innovation responsable et a créé en janvier 2023 un service dédié à l'IA. Elle a également lancé un plan d'action visant à clarifier les règles et à soutenir l'innovation dans ce domaine. Deux programmes d'accompagnement ont été mis en place pour accompagner des acteurs français : un bac à sable pour trois projets utilisant l'IA au bénéfice des services publics et un dispositif d'accompagnement renforcé pour trois entreprises innovantes de taille intermédiaire.
La sécurité juridique : un enjeu majeur pour les acteurs de l'IA
Après avoir rencontré les principaux acteurs français de l'IA et lancé un appel à contributions sur la constitution de bases de données, la CNIL publie une première série de lignes directrices pour un usage de l'IA respectueux des données personnelles. Cette initiative vise à répondre au fort besoin de sécurité juridique exprimé par les acteurs du secteur.
Le RGPD : un cadre innovant et protecteur pour l'IA
La CNIL réaffirme la compatibilité des recherches et développements en IA avec le Règlement Général sur la Protection des Données (RGPD), à condition de respecter certaines conditions et de ne pas franchir certaines lignes rouges. Elle précise l'application des principes de finalité, de minimisation, de conservation limitée et de réutilisation restreinte dans le contexte de l'IA.
Les premières recommandations de la CNIL pour un usage respectueux des données personnelles
À l'issue d'une consultation publique, la CNIL publie en avril 2024 ses premières recommandations sur le développement des systèmes d'IA. Ces recommandations, élaborées en concertation avec les acteurs de l'IA, visent à aider les professionnels à concilier innovation et respect des droits des personnes. Elles abordent des points clés tels que la détermination du régime juridique applicable, la définition d'une finalité, la qualification juridique des acteurs, ou encore la réalisation d'une analyse d'impact si nécessaire.
La CNIL prévoit de compléter ces premières recommandations par d'autres fiches portant notamment sur la base légale de l'intérêt légitime, la gestion des droits, l'information des personnes concernées, ou encore la sécurité lors de la phase de développement. Ces travaux seront également soumis à consultation publique.
La CNIL joue un rôle essentiel dans l'encadrement du développement de l'IA, en veillant à concilier innovation et respect de la vie privée. Ses recommandations et lignes directrices permettent aux acteurs de l'écosystème IA de disposer d'éléments clairs et pratiques pour éclairer leurs décisions stratégiques de développement ou d'utilisation de l'IA.
Sources multiples :
CNIL (2024)
CNIL (2023)
Publié le par Technifree
En parler sur le forum
Quarante Deux
Le chiffre 42 a acquis une notoriété culturelle et philosophique considérable depuis sa première mention dans le roman de science-fiction "Le Guide du voyageur galactique" (The Hitchhiker's Guide to the Galaxy) de Douglas Adams. Ce nombre, présenté comme la réponse ultime à "la grande question sur la vie, l'univers et tout le reste", a transcendé les frontières du livre pour devenir un symbole largement reconnu dans de nombreux domaines, allant de la science à la culture populaire. Cet article explore la genèse de cette curieuse réponse, son impact culturel et philosophique, ainsi que les différentes manières dont il est utilisé aujourd'hui.

Genèse dans "Le Guide du voyageur galactique"
Dans le roman de Douglas Adams, le chiffre 42 est la réponse donnée par un superordinateur nommé Deep Thought après sept millions et demi d'années de calcul pour trouver la réponse à la grande question de la vie, l'univers et tout le reste. Cependant, il est révélé que personne ne connaît réellement la question. Ce paradoxe crée une situation absurde mais profondément significative, reflétant la quête humaine incessante de sens dans un univers peut-être indifférent à nos interrogations.
La symbolique et l'impact culturel
Le choix de Douglas Adams du nombre 42 comme réponse universelle est souvent perçu comme une blague arbitraire, soulignant l'absurdité de chercher une réponse simple à des questions complexes. Adams lui-même a mentionné dans plusieurs interviews que le choix du nombre 42 était aléatoire, privilégiant l'humour et l'absurdité de la situation. Néanmoins, cela n'a pas empêché les fans et les penseurs de spéculer sur les significations cachées, allant de la théorie que 42 est un nombre significatif dans différentes traditions mystiques et scientifiques, à des interprétations plus ludiques et inventives.
Utilisations diverses de 42
• Dans la culture populaire : Le chiffre 42 est devenu un symbole reconnu par les fans de science-fiction, souvent utilisé pour faire référence, avec humour ou sérieux, à la quête de sens dans la vie. Il apparaît dans divers médias, y compris des films, des émissions de télévision, des jeux vidéo, et même dans des chansons. Son omniprésence sert de clin d'œil partagé par ceux qui connaissent le roman de Adams.
• En science et technologie : Curieusement, 42 a trouvé une place dans le monde de la science et de la technologie, où il est parfois utilisé dans des exemples de programmation, des noms de projets, ou même comme easter egg dans des logiciels et des jeux vidéo. Cela reflète la profonde impression laissée par l'œuvre de Adams sur les esprits créatifs et analytiques.
• Dans les débats philosophiques : Le chiffre 42, et par extension la question qu'il est censé répondre, a inspiré des débats philosophiques sur la recherche de sens, l'existence de vérités universelles et l'absurdité inhérente à l'existence humaine. Ces discussions touchent souvent à des concepts existentialistes et absurdistes, soulignant l'importance de créer son propre sens dans un univers indifférent.
Bien que le choix de 42 comme réponse à "la grande question sur la vie, l'univers et tout le reste" puisse avoir été arbitraire, son impact culturel et philosophique est indéniable. Douglas Adams a offert au monde un symbole puissant de la quête humaine de sens, enveloppé dans l'humour et l'absurdité. Que ce soit utilisé comme blague, citation inspirante, ou sujet de réflexion profonde, le chiffre 42 continue de captiver l'imagination et de stimuler la pensée, prouvant que parfois, une blague peut résonner bien au-delà de son intention originale. (ça me rappelle d'ailleurs la blague de Djamel du six-fois-sept-Karambeu)
Publié le par Technifree
En parler sur le forum
L'État fédéral allemand du Schleswig-Holstein abandonne Microsoft pour le logiciel libre : un pas vers la souveraineté numérique
Le gouvernement de l'État fédéral du Schleswig-Holstein, dans le nord de l'Allemagne, a récemment annoncé une transition majeure dans son infrastructure informatique. Après le succès d'un projet pilote, l'État a décidé de migrer 30 000 PC utilisés par l'administration locale de Microsoft Windows et Microsoft Office vers des solutions basées sur Linux, LibreOffice et d'autres logiciels libres et open source.

Cette décision marque un tournant significatif vers ce que le ministre-président a décrit comme un « poste de travail informatique numériquement souverain ». En effet, le gouvernement du Schleswig-Holstein entend devenir une région pionnière en matière de numérique, avec une administration capable de contrôler ses propres solutions informatiques, tout en assurant la sécurité et la confidentialité des données des citoyens et des entreprises.
Le choix du logiciel libre s'inscrit dans une démarche de souveraineté numérique, un concept de plus en plus important à l'ère numérique où la dépendance à l'égard des fournisseurs de logiciels propriétaires peut compromettre la sécurité et l'indépendance des États.
L'utilisation de Microsoft 365 par la Commission européenne a également été remise en question récemment par le Contrôleur européen de la protection des données (CEPD), soulignant les préoccupations concernant la conformité avec la législation sur la protection des données.
Le ministre de la Transformation numérique, Dirk Schrödter, a souligné l'importance de cette transition non seulement en termes de sécurité des données, mais aussi en tant qu'opportunité de stimuler l'industrie locale et de créer des emplois en investissant dans des solutions informatiques locales.
La décision de passer à des logiciels libres et open source comme LibreOffice offre également des avantages économiques, en permettant aux administrations locales d'économiser sur les coûts de licence et en encourageant le développement de l'industrie du logiciel dans la région.
Cette transition, qui inclut également des initiatives telles que le passage à Linux comme système d'exploitation et l'adoption de solutions de collaboration open source, marque un engagement ferme en faveur de la souveraineté numérique et de l'autonomie technologique de l'État du Schleswig-Holstein.
En fin de compte, cette décision témoigne de la reconnaissance croissante du rôle crucial que jouent les logiciels libres et open source dans la préservation de la souveraineté et de la sécurité numériques, ainsi que dans la promotion de l'innovation et de la croissance économique locales.
Sources multiples :
schleswig-holstein.de
developpez.com
Publié le par Technifree
En parler sur le forum
Les efforts de Google pour lutter contre les fake news
À l'ère de l'information instantanée, démêler le vrai du faux est devenu une quête quotidienne pour de nombreux internautes. Le géant technologique Google, conscient de cet enjeu, a mis en place divers outils destinés à aider les utilisateurs à naviguer dans cet océan d'informations, parfois troubles. Ces initiatives, bien que louables, se heurtent toutefois à des limites quant à leur efficacité et leur accessibilité.

Dans un contexte où le Forum économique mondial a identifié la désinformation comme l'un des plus grands risques pour l'humanité, Google a introduit plusieurs fonctionnalités pour faciliter la vérification des contenus en ligne. Parmi eux, l'outil "À propos de ce résultat", accessible en 40 langues, permet d'obtenir des informations sur la source d'une suggestion avant même de cliquer dessus. Une initiative similaire pour les images a également été lancée, permettant de vérifier le contexte d'une image affichée dans les résultats de recherche.
Le Fact Check Explorer, un moteur de recherche spécialisé dans les contenus de fact-checking, constitue une autre pierre angulaire de la stratégie de Google contre les fake news. Ce dernier offre aux journalistes et chercheurs un accès à plus de 150 000 contenus vérifiés par des éditeurs reconnus à travers le monde, leur permettant ainsi de repérer rapidement les affirmations déjà examinées par des médias.
Un bilan mitigé
Malgré ces efforts, l'efficacité de ces outils laisse à désirer selon certains critiques. Une étude de l'Université de Floride a révélé que, face à un millier de déclarations erronées sur la COVID-19, Google n'a pas réussi à fournir des informations de vérification des faits suffisantes dans la plupart des cas. Bien que les résultats proposés soient jugés relativement fiables, leur portée semble insuffisante pour endiguer la vague de désinformation.
De plus, l'observatoire français De Facto souligne un problème d'accessibilité et d'exhaustivité des informations vérifiées : elles ne sont pas suffisamment mises en avant dans les résultats de recherche ordinaires, rendant Fact Check Explorer un outil plus adapté aux professionnels du fact-checking qu'au grand public.
Vers un avenir plus éclairé ?
Google, via sa Google News Initiative, s'efforce de promouvoir une information de qualité en collaborant étroitement avec journalistes et éditeurs de presse. Si ces outils ne parviennent pas encore à éradiquer complètement la désinformation en ligne, ils constituent néanmoins une étape importante pour équiper les internautes et les professionnels d'outils de vérification efficaces. Les études montrent que la vérification des faits peut réduire la propagation de la désinformation sur les réseaux sociaux, soulignant l'importance de poursuivre et d'amplifier ces efforts.
Bien que les initiatives de Google pour lutter contre les fake news soient un pas dans la bonne direction, il reste encore un long chemin à parcourir pour garantir leur efficacité et leur accessibilité à tous. Dans cet environnement numérique en constante évolution, l'innovation et l'engagement continu seront cruciaux pour faire face aux défis de la désinformation.
Sources multiples :
FranceTVInfo
Wedig.fr
Google
Publié le par Technifree
En parler sur le forum
Espionner, mentir, détruire : plongée dans les arcanes de la cyberguerre
Le dernier ouvrage de Martin Untersinger, « Espionner, mentir, détruire, comment le cyberespace est devenu un champ de bataille », offre une plongée captivante dans les méandres de la cyberguerre contemporaine. En naviguant à travers les pages de cet exposé détaillé, le lecteur est confronté à une réalité complexe où les frontières entre espionnage, désinformation et sabotage sont devenues poreuses.

L'auteur, journaliste au Monde, nous entraîne dans un voyage fascinant à travers les pratiques douteuses des États, qui se livrent une guerre sans merci dans le cyberespace. D'une manière remarquablement documentée, Untersinger dévoile les tactiques et les stratégies utilisées par les acteurs étatiques, révélant parfois des alliances surprenantes et des pratiques clandestines.
L'ouvrage met en lumière la dimension économique de la cyberguerre, où des sommes astronomiques sont dérobées chaque année à travers des opérations sophistiquées de cyberespionnage. Les entreprises françaises ne sont pas épargnées, subissant des attaques orchestrées principalement par des acteurs chinois. L'exemple d'Areva, dont la PDG a vu sa boîte e-mail exfiltrée pendant deux ans, met en évidence l'ampleur des pertes économiques subies.
Le livre explore également le marché florissant des logiciels malveillants, où même les États moins avancés technologiquement peuvent acquérir des outils de cyberespionnage sur le marché noir. Des logiciels comme Pegasus, développés par des entreprises privées comme NSO Group, sont utilisés par un éventail de pays pour surveiller leurs citoyens et leurs ennemis politiques.
En examinant le rôle croissant des entreprises privées dans le domaine du renseignement, l'ouvrage souligne les enjeux éthiques et politiques liés à la privatisation de la cyberguerre. Des sociétés travaillant étroitement avec les autorités américaines fournissent souvent des informations sensibles sur les attaques, mais leur partialité peut remettre en question la neutralité de leurs analyses.
Le livre aborde les défis complexes liés à l'attribution des cyberattaques, où les responsables sont souvent difficiles à identifier avec certitude. Des exemples comme l'attaque de TV5Monde en 2015, initialement revendiquée par l'État islamique mais finalement attribuée à la Russie, illustrent la complexité de ce domaine.
« Espionner, mentir, détruire » offre une analyse approfondie et éclairante de la cyberguerre contemporaine, mettant en lumière les enjeux cruciaux liés à la sécurité et à la souveraineté dans le cyberespace. Cet ouvrage captivant est un incontournable pour quiconque souhaite comprendre les défis et les dangers de cette nouvelle frontière de la guerre moderne.
Sources :
Challenges.fr
Publié le par Technifree
En parler sur le forum
Neuralink passe à l’expérimentation humaine
Dans les projets un peu fous et qui font peur d’Elon Musk, il y a Neuralink. Cette startup veut implanter une puce dans notre cerveau pour y faire on ne sait pas trop quoi. Et un premier humain est désormais implanté.

Créée en 2016 par le milliardaire fantasque Elon Musk, Neuralink s’est spécialisée dans les interfaces neuronales, autrement dit des composants électroniques qui viennent s’interfacer directement au cerveau dans l’espoir d’en capter la pensée, d’augmenter le potentiel de mémorisation, d’étendre l’intelligence humaine à l’IA et concrétiser plein d’autres fantasmes de la science-fiction.
Testé sur des animaux et notamment des singes depuis quelques années, l’implant Neuralink N1 est une puce qui s’attache sur le squelette et est relié à 1024 électrodes placées directement sur et dans le cerveau afin de détecter mais aussi stimuler des millions de neurones simultanément.
En mai dernier, l’entreprise avait obtenu de la FDA (Food & Drug Administration) américaine l’autorisation de procéder aux expérimentations humaines. Neuralink avait alors lancé un appel aux volontaires.
Elon Musk a confirmé cette semaine sur X qu’un premier patient venait d’être implanté et se remettait de cette première opération. Ajoutant « les premiers résultats montrent de prometteuses détection de pics neuronaux ».
Neuralink a de grandes espérances sur cette technologie pour interfacer le cerveau aux ordinateurs. Elle estime qu’à terme cette technologie pourrait d’une manière générale améliorer les capacités humaines et aider des patients souffrant de certains handicaps comme les paralysies.
Elon Musk en est même convaincu, de telles interfaces seront indispensables à l’humanité si elle veut survivre aux futures AGI (les intelligences artificielles générales).
D’ici là, si jamais le système fonctionne un jour, Neuralink espère vous permettre de piloter votre téléphone ou votre ordinateur par la pensée. L’entreprise vise en priorité des personnes ayant perdu l’usage de leurs membres.
Source :
Informatique News
Publié le par Informatique News
En parler sur le forum
Vers une ère de responsabilité numérique : le débat sur l'identité et l'anonymat en ligne en France
La quête d'équilibre entre la protection des citoyens et la préservation des libertés individuelles dans l'univers digital français

Dans le sillage des débats incessants sur la nécessité de sécuriser et réguler l'espace numérique (SREN) tout en préservant les libertés individuelles, le projet de loi sur le numérique en France a connu un parcours législatif marqué par des positions nuancées et des revirements stratégiques. Portée initialement en 2023 par Paul Midy, figure de la majorité Renaissance, cette législation visait à réguler l'espace numérique en luttant contre la cybercriminalité, tout en proposant une avancée significative : la généralisation de l'identité numérique d'ici 2027. Cette ambition se concrétisait par le déploiement à grande échelle de l'identité numérique pour sécuriser les démarches administratives, dans le prolongement de la digitalisation des services de l'État déjà amorcée.
Toutefois, l'aspect le plus controversé du projet — la suppression de l'anonymat en ligne — a été rapidement abandonné. Face à l'opposition de divers groupes politiques, Paul Midy a retiré les amendements concernant la levée de l'anonymat, optant plutôt pour un compromis : le pseudonymat. Cette décision reflète un souci de préserver une certaine liberté d'expression en ligne, tout en s'attaquant aux problématiques de cyberharcèlement et de discours haineux qui sévissent sur Internet.
Un an plus tard, en 2024, l'initiative a été relancée par un collectif de 125 députés de la majorité, toujours sous l'égide de Paul Midy. Cette nouvelle proposition met l'accent sur la création d'une identité numérique vérifiée, visant à responsabiliser les utilisateurs des réseaux sociaux. Selon Paul Midy, cette mesure vise à réduire le sentiment d'impunité engendré par l'anonymat en ligne, qui contribue à l'escalade de la violence numérique. En mettant en place un système où chaque compte serait lié à une identité numérique, accessible par les autorités en cas de comportement délictueux, le projet espère endiguer les fléaux du cyberharcèlement et de la désinformation, tout en protégeant les activités légitimes telles que le journalisme d'investigation et le lancement d'alerte.
Le débat autour de l'identité numérique et de la fin de l'anonymat en ligne soulève des questions fondamentales sur l'équilibre entre sécurité et liberté dans l'espace numérique. Alors que les mesures proposées visent à protéger les citoyens, notamment les plus jeunes, contre les dangers du cyberespace, elles suscitent également des inquiétudes quant au risque de surveillance et de restriction des libertés individuelles. La tension entre ces objectifs divergents continuera probablement à animer le débat public, alors que les décideurs cherchent des solutions pour adapter le cadre législatif aux défis posés par la digitalisation croissante de la société.
Sources multiples :
LCP
La Tribune
BFM Tech&Co
Publié le par Technifree
En parler sur le forum
Grok-1, le Grand Modèle de Langage d'Elon Musk, Défie les Géants de l'IA
Dans un monde où la course à l'intelligence artificielle bat son plein, une nouvelle étape a été franchie avec l'arrivée de Grok-1, le dernier-né de la start-up xAI, fondée par Elon Musk. Ce grand modèle de langage (LLM) open source marque un tournant dans l'industrie par ses performances et son accessibilité, défiant directement des acteurs établis comme OpenAI.

Une Puissance de Calcul Inégalée
Grok-1 se distingue par une capacité impressionnante de 314 milliards de paramètres, le positionnant loin devant ses concurrents immédiats. Ce modèle "transformer", basé sur la technique Mixture-of-Experts (MoE), promet une efficacité et une flexibilité sans précédent. Grâce à sa licence Apache 2.0, les développeurs du monde entier peuvent désormais l'utiliser, le modifier et le distribuer librement, ouvrant la voie à une multitude d'applications personnalisées.
Des Performances Révolutionnaires
Sur le benchmark MMLU (Measuring massive multitask language understanding), Grok-1 a réalisé un score de 73%, surpassant ainsi des modèles renommés comme Llama 2 70B de Meta et GPT-3.5 d'OpenAI. En matière de complétion de code, le modèle établit également de nouveaux standards avec un score de 63.2% sur HumanEval, démontrant sa capacité à comprendre et à générer du code de manière plus efficace que jamais.

Grok-1 au Cœur de l'Innovation sur le Réseau Social X
Au-delà de ses prouesses techniques, Grok-1 alimente également le chatbot Grok, disponible sur le réseau social X. Cette intégration marque un pas significatif dans l'utilisation des LLM dans les interactions quotidiennes et souligne la volonté d'Elon Musk de faire progresser le domaine de l'IA générative.
Une Rivalité Croissante avec OpenAI
La publication de Grok-1 s'inscrit dans un contexte de tension croissante entre Elon Musk et OpenAI, notamment autour des questions de l'open source et des objectifs initiaux des entreprises dans le domaine de l'IA. En rendant Grok-1 accessible à tous, Musk défie directement la stratégie d'OpenAI, poussant plus loin le débat sur l'avenir et l'éthique de l'intelligence artificielle.
Un Avenir Ouvert et Collaboratif pour l'IA
Avec Grok-1, xAI et Elon Musk posent les bases d'une approche plus ouverte et collaborative de l'intelligence artificielle. Ce modèle open source pourrait bien changer la donne, permettant une innovation accélérée et une adoption plus large des technologies d'IA. L'impact de Grok-1 sur l'industrie, tant en termes de développement de logiciels que de réflexion éthique, sera sans doute un sujet à suivre de près dans les années à venir.
Sources multiples :
L'usine Digitale
xAI
Publié le par Technifree
En parler sur le forum
L'Europe se dote d'une législation avant-gardiste sur l'intelligence artificielle
Dans un monde de plus en plus tourné vers le numérique, l'intelligence artificielle (IA) façonne notre quotidien de manière inédite. Reconnaissant à la fois le potentiel immense et les risques potentiels associés à ces technologies, le Parlement européen a franchi une étape cruciale en adoptant une législation pionnière sur l'IA. Mercredi, les députés ont massivement voté en faveur de cette loi, avec 523 votes pour, 46 contre et 49 abstentions, marquant un moment historique dans la régulation de l'IA.

Équilibre entre innovation et protection
La nouvelle législation, issue de négociations avec les États membres conclues en décembre 2023, vise à établir un équilibre délicat : garantir la sécurité et le respect des droits fondamentaux tout en stimulant l'innovation technologique. Ce règlement européen établit des obligations spécifiques pour les systèmes d'IA, classées en fonction de leur niveau de risque et de leur impact potentiel. L'objectif ? Faire de l'Europe un acteur de premier plan dans le domaine de l'IA, tout en protégeant ses citoyens et ses valeurs fondamentales.
Interdictions et exemptions : les grandes lignes
Certains usages de l'IA seront dorénavant interdits au sein de l'UE, notamment ceux menaçant les droits individuels. Cela inclut les systèmes de reconnaissance biométrique sensible, l'extraction massive d'images faciales, la reconnaissance des émotions au travail ou dans les écoles, la notation sociale, la police prédictive basée uniquement sur le profilage, ainsi que toute IA manipulant le comportement humain. Néanmoins, des exemptions sont prévues pour les services répressifs dans des cas bien définis, encadrés par des garanties strictes.
Responsabilités accrues pour les systèmes à haut risque
Les systèmes d'IA considérés comme à haut risque devront répondre à des exigences rigoureuses. Ils seront soumis à une évaluation approfondie des risques, devront être transparents, précis, et inclure une supervision humaine. Cette catégorie couvre une vaste gamme d'applications, des infrastructures critiques à la gestion des frontières, en passant par l'éducation et la santé.
Vers une IA transparente et responsable
La législation met aussi l'accent sur la transparence, notamment pour les IA dites "à usage général". Elle exige la publication de résumés détaillés sur les données utilisées pour l'entraînement des modèles, et met en garde contre les contenus artificiels non signalés, tels que les deepfakes.
Soutien à l'innovation et aux PME
Pour ne pas brider l'innovation, la loi prévoit la création de "bacs à sable réglementaires" permettant aux entreprises, en particulier PME et start-ups, de tester des IA novatrices dans un cadre contrôlé.
Réactions et perspectives
Les co-rapporteurs du Parlement, Brando Benifei et Dragos Tudorache, ont salué cette adoption comme un pas vers une IA éthique et encadrée, mettant l'humain et les valeurs européennes au cœur du développement technologique. Toutefois, ils soulignent aussi le chemin restant à parcourir pour intégrer pleinement l'IA dans nos sociétés de manière responsable.
Et après ?
Le texte doit encore être officiellement adopté par le Conseil et passer une dernière vérification juridique. La législation entrera en vigueur 20 jours après sa publication au Journal officiel de l'Union européenne, avec une application progressive des différentes dispositions sur 6 à 36 mois. Ce cadre réglementaire place l'Europe à l'avant-garde de la gouvernance de l'IA, un modèle potentiellement inspirant pour le reste du monde.
Source :
Parlement Européen | Yasmina YAKIMOVA
Publié le par Technifree
En parler sur le forum