Mercredi 19 juin 2024 @ Sophia-Antipolis : soirée GenAI

Modifié par Stéphane Épardaud le 2024/05/03 12:44

Le Riviera JUG organise une rencontre gratuite sur le thème de Quarkus le mercredi 19 juin 2024 à partir de 18h dans les locaux de Amadeus Sophia Antipolis.
Vous pouvez entrer sur le site d'Amadeus avec votre véhicule et vous garer à 2 pas (si vous avez de grandes jambes) de l'amphi où aura lieu la soirée !

GenAI, GenAI… Pffff… Purée, heureusement que l'année touche à sa fin, j'ai plus rien, là. Une soirée sans plaisir ? Où y'a d'la Gen y'a pas d'plaisir ? Mais non, c'est pas sérieux… En fait, on devrait faire comme au Mars JUG et faire un barbecue pendant la dernière séance de l'année, pas se prendre la tête à essayer d'expliquer les sujets du soir… En plus, y'a à parier que Philippe serait partant… Je vais en toucher deux mots à Amadeus, à coup sûr on peut installer un barbecue dans l'amphi, personne remarquera, on fera discret…

Euh, comment, le sujet de la soirée ? Ah ben, l'IA m'sieurdames, comme souvent ces temps ci, mais pas comme tout le monde, Philippe à son style bien à lui, un vrai hacker passionné plein de side-projects et d'expérimentations qu'il adore partager, et on vous encourage à venir partager avec lui, on est jamais déçu !

Ne manquez pas cette soirée et faites tourner l'info !  emoticon_smile

Programme

18:00 - 18:30Accueil
18:30 - 19:15Premier talk : BYO GenAI Stack
19:15 - 19:45Buffet, boissons
19:45 - 20:30Deuxième talk : 1ers pas avec LangChain4J et Ollama
20:30

Troisième mi-temps dans un resto à proximité !

Programme détaillé

BYO GenAI Stack

Mais qu'est-ce qu'une "GenAI" app et pourquoi je me retrouve à en parler (== ce n'est pas qu'un side project)
Ou comment se passer de ChatGPT

- Pourquoi je parle de ça -> Parce que Docker
- Qu'est-ce que et comment ça fonctionne la "Docker GenAI stack"? (où l'on parlera d'Ollama)
- Finalement j'ai fait la mienne avec Docker Compose (en fait les miennes: pour du Python, JavaScript, Go et Java)
  - Comment fait-on ?
  - Quels images, paramétrages de l'IDE, quels LLMs, ...
- En Java c'est possible (oui, c'est tout simple)
  - Est-ce que je suis obligé d'avoir un GPU? En fait non pas forcément
  - Quelques recettes
- Quelques démos (dans différents langages)
  - Quelques bases de "prompting" (en fonction du temps écoulé, cela peut-être traité dans la 2nde partie)
  - j'apprends le rust (ou le go) grâce à un chat bot fait avec mes petites mains
  - j'interroge les règles de mon jeu de rôle

1ers pas avec LangChain4J et Ollama

Maintenant que l'on a les outils (une Java Docker GenAI stack), voyons comment coder des "GenAI" apps, par l'exemple, avec:
- Ollama
- LangChain4J
- et ma lib favorite: Vert-x

Je viendrais avec un ensemble d'exemples tout prêts que j'expliquerais (et qu'éventuellement vous pourrez tester sur vos propres machines) et qui nous permettrons de découvrir:
- comment streamer les réponses
- comment améliorer les réponses du LLM
- comment faire du RAG (simplement)
- ...

Et si je n'ai pas été trop pipelette, je me suis fait un outil pour expérimenter plus facilement avec les LLMs que j'utilise pour pouvoir les comparer.

J'aime bien que les sessions soient interactives, donc il ne faudra pas hésiter à poser des questions pendant les sessions (et pas uniquement à la fin).

À propos des speakers

Philippe Charrière

Philippe Charrière

Philippe Charrière (plus connu comme @k33g_org on X), vieux geek éleveur de side projects et Sr Solution Architect chez Docker.


Pour venir

Amadeus, main site, Mistral auditorium
485 Rte du Pin Montard
06410 Biot

Garez-vous à l'intérieur du site !

Plan d’accès

Réservation

Book now

Sponsors

SponsorRôles
amadeus.png   Salle