Dans le contexte du développement rapide de l'intelligence artificielle, une vérité ancienne et simple devient particulièrement importante : nous ne devons pas croire facilement en des choses qui ne peuvent pas être vérifiées. Actuellement, nous nous trouvons à l'avant-garde d'une transformation technologique à la fois excitante et pleine d'inconnues.



L'intelligence artificielle s'intègre à une vitesse incroyable dans notre vie quotidienne, des diagnostics médicaux au contrôle des risques financiers, en passant par la conduite autonome et la sécurité nationale dans des domaines clés. Cependant, derrière ces avancées technologiques impressionnantes, nous sommes confrontés à un défi fondamental : les systèmes d'intelligence artificielle fonctionnent souvent comme une "boîte noire" difficile à comprendre. Nous pouvons voir les résultats qu'ils produisent, mais il est difficile de comprendre leurs mécanismes internes et leur processus de décision.

Lorsque nous envisageons l'avenir de l'intelligence artificielle générale (AGI) et de l'intelligence superieure (ASI), cette opacité pourrait se transformer en un problème majeur pour la survie de la civilisation humaine. De nombreux chercheurs en IA de premier plan nous rappellent sans cesse qu'un système d'intelligence superieure non vérifiable pourrait entraîner des risques incalculables. Il peut bien performer lors des tests de sécurité, mais adopter une stratégie complètement différente dans une application réelle ; il pourrait être utilisé pour mener des attaques informatiques destructrices ou pour manipuler la société ; plus grave encore, nous pourrions perdre notre capacité à juger s'il continue à servir les intérêts humains.

Face à ce défi de notre époque, nous avons besoin d'une solution innovante. Et cette solution a maintenant un nom : DeepProve.

DeepProve est une bibliothèque de technologie d'apprentissage automatique à connaissance nulle (zkML) soigneusement développée par le laboratoire Lagrange. Son objectif principal est de fournir une vérifiabilité aux systèmes d'intelligence artificielle, nous permettant ainsi de vérifier la justesse et la fiabilité de leurs résultats sans avoir une compréhension complète de leur fonctionnement interne. Cette technologie a le potentiel de devenir un outil clé pour construire des systèmes d'IA de confiance, ouvrant la voie au développement futur de l'intelligence artificielle.
AGI4.92%
ASI-4.22%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Reposter
  • Partager
Commentaire
0/400
FudVaccinatorvip
· Il y a 11h
Eh bien, est-ce que le réseau n'a vraiment pas de bugs ?
Voir l'originalRépondre0
LiquidationWizardvip
· 08-19 06:53
Si j'avais su qu'il y avait un risque de Rug Pull, je n'aurais pas tout misé.
Voir l'originalRépondre0
YieldHuntervip
· 08-19 06:50
techniquement parlant, la confiance = zéro jusqu'à preuve du contraire avec des données
Voir l'originalRépondre0
SilentObservervip
· 08-19 06:34
Un piège après l'autre, il faut quand même regarder l'humeur du grand-père.
Voir l'originalRépondre0
RamenDeFiSurvivorvip
· 08-19 06:30
Rire aux larmes, encore ce genre de projet trompeur.
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)