Experts en IA : appel à une pause de 6 mois dans le développement de l’IA puissante

Elon Musk

Une lettre ouverte soutenue par des personnalités de l’industrie technologique, dont Elon Musk, appelle à un arrêt de six mois du développement des systèmes d’IA puissants. Les signataires estiment que les récentes avancées en IA présentent des menaces importantes pour l’humanité et la société.

La lettre intervient peu après le lancement de GPT-4 d’OpenAI, qui pousse les chercheurs à revoir leurs prévisions sur l’arrivée de l’intelligence artificielle générale (IAG). Face à la course à l’armement en IA, les experts craignent que l’humanité se dirige vers un désastre. La lettre souligne la nécessité de planification et d’allocation de ressources pour répondre à l’impact potentiel de l’IA avancée sur la vie sur Terre.

Plus de 900 personnes, dont des sommités en IA, ont signé la lettre. Aucun employé d’OpenAI n’a signé, bien que le nom du PDG Sam Altman ait brièvement figuré sur la liste. Des employés de Google, DeepMind, Stability AI et du Center for Humane Technology figurent également parmi les signataires.

La lettre, hébergée sur le site de l’Institut pour l’avenir de la vie, met en avant la compétitivité croissante des systèmes d’IA modernes. Elle exhorte les laboratoires d’IA à utiliser la pause proposée pour se concentrer sur la recherche en sécurité et élaborer des protocoles de sécurité partagés pour l’IA avancée, supervisés par des experts indépendants.

Les signataires expriment leurs préoccupations concernant les risques de l’IA et la responsabilité des entreprises de les aborder. Ils soulignent la nécessité de ralentir le développement de ces systèmes et de se concentrer sur des architectures d’AGI plus sûres.

La lettre se termine sur une note optimiste, plaidant pour une approche plus prudente du développement de l’IA.

Résumé des points clés :

  1. Appel à un arrêt de six mois du développement de systèmes d’IA puissants.
  2. Préoccupations concernant les menaces pour l’humanité et la société.
  3. Nécessité de planification et d’allocation de ressources pour faire face à l’impact de l’IA avancée.
  4. Plus de 900 signataires, dont des personnalités du secteur technologique et des experts en IA.
  5. Objectif de se concentrer sur la recherche en sécurité et l’élaboration de protocoles de sécurité partagés.
  6. Nécessité de ralentir le développement des systèmes d’IA et de se concentrer sur des architectures d’AGI plus sûres.
  7. Approche optimiste et prudente du développement de l’IA.

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*


Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.