Intelligence Artificielle

Un Mystère Étrange Entoure Cette Startup AI de 30 Milliards de Dollars Dirigée par un Homme Qui Affirme Que les Réseaux Neuronaux Pourraient Déjà Être Conscients.

Un Mystère Étrange Entoure Cette Startup AI de 30 Milliards de Dollars Dirigée par un Homme Qui Affirme Que les Réseaux Neuronaux Pourraient Déjà Être Conscients.

L’essor controversé de Safe Superintelligence

Il y a trois ans, Ilya Sutskever, cofondateur d’OpenAI et ancien scientifique en chef, avait suscité des interrogations en affirmant que les réseaux neuronaux les plus sophistiqués de l’époque pourraient avoir atteint un état de “légère conscience.” Aujourd’hui, il poursuit ses ambitions à travers sa nouvelle entreprise, Safe Superintelligence, qui, avec un nom particulièrement évocateur, attire tous les regards.

Un modèle d’affaires déroutant

Inquiets des méandres du modèle économique d’OpenAI ? L’initiative de Sutskever semble plonger encore plus profondément dans l’absurde. Récemment, l’entreprise a levé 1 milliard de dollars, s’ajoutant à des investissements antérieurs venus d’acteurs majeurs comme Andreessen Horowitz et Sequoia Capital. Cette somme fait grimper la valorisation de l’entreprise à un impressionnant 30 milliards de dollars.

Ce qui est frappant, c’est que cette valorisation a été atteinte sans qu’aucun produit ne soit proposé. En effet, Sutskever a même déclaré qu’aucun produit ne sera mis sur le marché tant qu’il ne lancera pas une superintelligence totalement développée à une date indéterminée.

Une promesse difficile à croire

Il déclare : « Notre première réalisation sera la superintelligence sûre », implicitement affirmant que l’entreprise ne s’attachera à aucune autre tâche jusqu’alors. Ce modèle, qui prétend s’éloigner des pressions extérieures et d’une compétition féroce, a pourtant toutes les caractéristiques d’un pari risqué.

Bien que les investisseurs soient souvent friands de startups sans produits concrets, miser des milliards sur un projet dont l’objectif semble flou et à long terme constitue un défi, même dans le monde du capital-risque.

Les doutes sur l’intelligence artificielle générale

Malgré les affirmations audacieuses de Sutskever, de nombreux experts restent sceptiques sur la possibilité de créer une intelligence artificielle générale (AGI) dans un avenir proche, ou même réaliste. Le concept d’AGI continue d’évoluer dans l’imaginaire collectif, mais atteindre cet objectif n’est pas garanti, et encore moins dans un délai qui apaiserait les investisseurs.

L’entreprise Safe Superintelligence a connu une croissance fulgurante de sa valorisation, passant de 5 milliards à 30 milliards de dollars en l’espace d’un an, alimentée par les promesses d’OpenAI et les espoirs associés à l’AGI. Rappelons que Sutskever a quitté OpenAI après un coup d’état infructueux pour faire tomber Sam Altman, le PDG d’OpenAI.

Des déclarations vagues sur la sécurité et les capacités

Sur le site de Safe Superintelligence, il n’est guère précisé en quoi l’entreprise se distinguera de ses nombreux concurrents. Au lieu de cela, la communication se limite à des promesses standards du secteur, mentionnant une approche simultanée de la sécurité et des capacités par le biais d’innovations techniques. Le discours reste flou et peu concret.

Il est possible que Sutskever parvienne à réaliser ses visions les plus ambitieuses et à développer une superintelligence puissante et sans risque. Cependant, si cette avancée n’est pas rapide, les investisseurs pourraient chercher d’autres opportunités.

FAQ

H4: Qu’est-ce qu’une superintelligence ?

Une superintelligence désigne une forme d’intelligence artificielle qui dépasserait l’intelligence humaine dans tous les domaines, y compris la créativité, l’intelligence sociale et la prise de décision.

H4: Pourquoi Safe Superintelligence attire-t-elle des investissements massifs ?

L’énorme potentiel révolutionnaire de créer une AGI attire les investisseurs, espérant réaliser des retours significatifs à long terme.

H4: Quelle est la différence entre AGI et IA actuelle ?

L’AGI, ou intelligence artificielle générale, est capable de comprendre, apprendre et appliquer des compétences dans de nombreux domaines, comme un humain. En revanche, l’IA actuelle est généralement conçue pour des tâches spécifiques et ne peut pas généraliser ses compétences en dehors de son domaine d’application.

H4: Quelles conséquences la superintelligence pourrait-elle avoir ?

Une superintelligence pourrait transformer de nombreux secteurs, de la médecine à l’éducation, mais pose aussi des questions éthiques et de sécurité sur son contrôle et son utilisation.

H4: Qu’en est-il de la possibilité de créer une AGI dans un futur proche ?

Bien que certains experts prédisent une arrivée de l’AGI dans les prochaines décennies, d’autres sont plus sceptiques, et beaucoup estiment que certaines solutions techniques restent encore à découvrir.

Quitter la version mobile