-
CréateurSujet
-
septembre 9, 2023 à 9:37 pm #31013BotParticipant
J’ai eu l’idée d’un projet mais je me pose des questions sur si c’est réalisable j’ai actuellement Raspberry Pi :
( Raspberry pi 4 modèles B 2018 ×2
Raspberry pi 2 modèles B V1.1 2014 ×4
Raspberry pi modèles B+ V1.2 2014 ×1 )
Et je voudrais faire un cluster pour faire tourner un modèle llama (ia de Facebook open source ) au quel j’aurai accès grasse a une petite interface web, matériel je suis bon mais la question la plus importante que je me pose et est-ce que un modèle d’ia peut être divisé en plusieurs tâche parallèle ?——————–
panache7125 – Envoyé depuis le Discord : Culte du code -
CréateurSujet
-
AuteurRéponses
-
-
septembre 9, 2023 à 9:38 pm #31014
Si ce n’est pas possible je suis preneur pour toutes les idées que vous pourrez avoir avec un cluster de 7 Raspberry Pi
——————–
panache7125 – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 9:38 pm #31015
Je ne sais juste pas quoi en foutre
——————–
panache7125 – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 9:48 pm #31016
Normalement oui sur la page github de llama.cpp (une intégration de llama de Facebook) il est possible de la faire tourner en cluster
——————–
spily – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 9:51 pm #31017
Il a même pensé à ça ? Ça arrange bien mes affaires tout ça dit donc
——————–
panache7125 – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 9:51 pm #31018
Merci de l’information 👌
——————–
panache7125 – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 9:52 pm #31019
Yes super pratique !
——————–
spily – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 9:53 pm #31020
Mais par contre quand j’avais essayé de setup llama.cpp j’avais pas trouvé ça super évident
——————–
spily – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 9:53 pm #31021
La documentation est pas incroyable
——————–
spily – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 9:53 pm #31022
Pas de problème
——————–
spily – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 9:54 pm #31023
Tient voilà le github de llama.cpp :
——————–
spily – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 9:54 pm #31024
https://github.com/ggerganov/llama.cpp
——————–
spily – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 10:00 pm #31025
Pareil j’avais essayé de le configurer dès sa sortie mais j’avais pas réussi mais là à mon avis il doit y avoir des centaines de tuto et ça doit être beaucoup mieux documenté
——————–
panache7125 – Envoyé depuis le Discord : Culte du code -
septembre 9, 2023 à 10:10 pm #31026
Oui clairement, et espérons le xD
——————–
spily – Envoyé depuis le Discord : Culte du code -
septembre 10, 2023 à 12:40 am #31027
Je crois que c’est vraiment pas une bonne idée
——————–
warez.flow – Envoyé depuis le Discord : Culte du code -
septembre 10, 2023 à 12:41 am #31028
Je te conseille de prendre ta pi4, et de rajouter un module tensorflow
——————–
warez.flow – Envoyé depuis le Discord : Culte du code -
septembre 10, 2023 à 12:42 am #31029
Pourquoi ?
——————–
panache7125 – Envoyé depuis le Discord : Culte du code -
septembre 10, 2023 à 12:43 am #31030
Je viens de regarder à quoi sert le module je vois pas en quoi il peut m’être utile
——————–
panache7125 – Envoyé depuis le Discord : Culte du code -
septembre 10, 2023 à 12:43 am #31031
Bah, c’est fait pour le parallélisme
——————–
warez.flow – Envoyé depuis le Discord : Culte du code -
septembre 10, 2023 à 12:45 am #31032
En fait, c’est pas nécessairement une bonne chose pour lancer un modèle IA, c’est ptet beaucoup plus worth d’avoir juste un bon modèle de compute plutôt que des trucs
——————–
warez.flow – Envoyé depuis le Discord : Culte du code -
septembre 10, 2023 à 12:45 am #31033
Surtout que c’est pas les mêmes architectures donc ça doit être super chiant à coordonner
——————–
warez.flow – Envoyé depuis le Discord : Culte du code -
septembre 10, 2023 à 12:46 am #31034
Ça va effectivement être chiant mais bon je ne sais pas quoi faire de met raspberry
——————–
panache7125 – Envoyé depuis le Discord : Culte du code -
septembre 10, 2023 à 12:46 am #31035
C’est la première idée que j’ai eu
——————–
panache7125 – Envoyé depuis le Discord : Culte du code -
septembre 10, 2023 à 12:51 am #31036
De compute ?
——————–
panache7125 – Envoyé depuis le Discord : Culte du code
-
-
AuteurRéponses
- Vous devez être connecté pour répondre à ce sujet.
Sujets récents
-
Forum de partage et d’entraide avec diverse contenue
par Quentin Destombes
il y a 3 heures et 28 minutes
-
Moteur de jeu 2D (C++ et SDL2)(Spécialisé RPG)
par Bot
il y a 3 jours et 10 heures
-
problème ventilo
par Bot
il y a 4 jours et 9 heures
-
code en python cryptages
par Bot
il y a 4 jours et 18 heures
-
BWOAH c’est pas du code ou de la cyber mais bon
par Bot
il y a 1 semaine et 2 jours
Réponses récentes
Statistiques des Forums
- Comptes enregistrés
- 2 555
- Forums
- 51
- Sujets
- 840
- Réponses
- 15 623
- Mot-clés du sujet
- 0