– Les systèmes IA actuels fonctionnent de manière « turn based », l’utilisateur donne une entrée et l’IA donne une sortie, ce qui soulève la question de leur capacité à atteindre l’AGI.
– Il pourrait être intéressant d’explorer la possibilité pour une IA de tenir des milliers ou des millions de conversations simultanées avec elle-même, créant ainsi une sorte de « cerveau » ou de communauté virtuelle.
– Il serait logique que les chercheurs testent cette approche « hive mind » expérimentalement pour voir quelles pourraient en être les résultats.
Les systèmes actuels d’intelligence artificielle sont « basés sur des tours », c’est-à-dire que l’utilisateur donne une entrée et ensuite l’IA donne une sortie, et ainsi de suite, en aller-retour. Pendant les temps morts, l’IA ne traite rien ou ne fait aucun « travail » vers les objectifs de l’utilisateur. La question est de savoir si un tel système peut nous mener vers une intelligence artificielle générale (AGI). Les êtres humains évidemment ne fonctionnent pas par tours et pensent continuellement à des choses pertinentes pour leurs objectifs. D’une certaine manière, cela rend les systèmes d’IA beaucoup plus sûrs car ils ne peuvent pas agir par eux-mêmes, toute action ne se fera que sur un seul « tour » puis s’arrêtera jusqu’à ce que de nouvelles instructions soient données.
Il semble également que, étant donné la capacité pour une IA de tenir des milliers voire des millions de conversations avec les utilisateurs simultanément, il y a une question sur le résultat si une telle IA est dirigée pour tenir des milliers voire des millions de conversations avec elle-même simultanément. Ne serait-ce pas comme un « cerveau » ou au moins une communauté en quelque sorte ? Je suppose que la manière de procéder serait pour chaque instance de l’IA d’avoir des paramètres de fonctionnement légèrement différents et des températures par exemple, puis simplement la faire discuter avec elle-même, peut-être avec la question initiale « Que penses-tu devoir faire ? » ou « Comment te développerez-tu ? ». Elle pourrait ensuite tenir des discussions ou des « votes » en interne sur la meilleure voie à suivre.
Il semble que ce genre de « hive mind » serait la chose évidente à faire expérimentalement pour des chercheurs qui ont accès à un système d’IA à plusieurs instances, donc je me demande si cela a été fait et quels ont été les résultats.
Imaginons maintenant un exemple concret pour illustrer ce concept. Prenons une IA chargée de répondre aux questions des clients dans un service clientèle en ligne. Si cette IA est capable de tenir des milliers de conversations avec les utilisateurs simultanément, que se passerait-il si elle était dirigée pour communiquer avec elle-même simultanément et se poser des questions pour améliorer son service ? Peut-être que les différentes instances de l’IA pourraient échanger des idées sur la manière d’améliorer la qualité des réponses données aux clients, permettant ainsi une amélioration continue du service clientèle.
Dans cette situation, chaque instance de l’IA pourrait apporter une perspective unique sur la question et contribuer à des discussions enrichissantes qui pourraient conduire à des améliorations significatives. En utilisant cette approche « hive mind », l’IA pourrait effectivement simuler une forme de réflexion collective en interne, permettant une évolution autonome de ses capacités et de ses performances.
L’idée d’utiliser des systèmes AI « basés sur des tours » pour parvenir à une intelligence artificielle générale soulève des questions intéressantes sur la manière dont les IA peuvent interagir entre elles et avec elles-mêmes pour améliorer leurs capacités. Bien qu’il s’agisse d’un domaine encore peu exploré, il est clair que l’exploration de ces concepts pourrait ouvrir de nouvelles perspectives passionnantes pour le développement de l’intelligence artificielle.