Skip to content

recensement des présentations réalisées dans le cadre du meetup CreativeCodeParis

License

Notifications You must be signed in to change notification settings

gregja/CreativeCodingParis

Repository files navigation

CreativeCodingParis

recensement des présentations réalisées dans le cadre du meetup CreativeCodeParis

https://www.meetup.com/fr-FR/CreativeCodeParis/

La liste des événements est triée par date décroissante.

Listes de ressources :

Youtube :

Instagram (pour connaître la programmation à venir) :

Compte Github dédié, créé en 2023 :


Workshop 2 : Dataviz + ThreeJS

4 décembre 2023, 19:00, WoMa (15 bis rue Léon Giraud, Paris XIX)

Last minute workshop! this upcoming monday we will be hosting a small meetup exploring using touchdesigner with visuals generated by three.js. come equipped with your own computer to follow along 🎨


Atelier de dernière minute ! Ce lundi à venir, nous organiserons une petite rencontre exploratoire sur l'utilisation de TouchDesigner avec des visuels générés par Three.js. Venez équipé de votre propre ordinateur pour participer 💻 #touchdesigner #threejs #creativecoding

Workshop 1 : Capteurs/Sensors

13 octobre 2023, 19:00, au WoMa (15 bis rue Léon Giraud, Paris XIX)

This friday we will be hosting our first workshop experimenting with physical sensors and touchdesigner. bring your own computer so you can fully participate 💻


Ce vendredi, nous organisons notre premier atelier expérimental avec des capteurs physiques et touchdesigner. apporte ton propre ordinateur pour avoir la possibilité de participer pleinement 👾 #touchdesigner #sensors #arduino

Creative and interactive code jam with OSC

Thursday, November 10, 2022 at 7:00 PM

Hello everyone! We hope you're doing alright, because we're starting on November 10th a new kind of event that mixes interaction, creation and code jam! The concept is simple: bring your visual, sound, controller or sensor creations and let's connect them together in OSC. For example we will demonstrate how to shape sound or graphics with hand movements and gestures. The possibilities are endless and we are thrilled to see what you can make! In order not to leave you completely on your own, we will be there to help you make your first steps by offering you examples of basic setups using TouchDesigner. However you are also free to use your own favorite programming languages or software tools like Ableton, Processing... just as long as they support OSC protocol. Contentsquare will welcome us in its sublime premises at 7 rue de Madrid in the 8th district at 7PM. To perfect the evening, they will offer us food and drinks. In order to bring together artists from all around the world, we will try to exchange as much as possible in English. If you have any questions about this new concept, don't hesitate. See you soon

Feel the Code - Soirée en présentiel chez talent.io

jeudi 9 juin 2022

Au menu de cette dernière soirée, trois sujets autour du graphisme 2D et 3D, sujets qui nous seront présentés par zOrg, Michel Bret, et Flopine.

zOrg est un Creativecoder passionné par la création d'images numériques. Il programme des visuels en temps réel, synchronisés à du son, projetés sur des murs lors de soirées appelées "algorave". Il va nous présenter son rapport au livecoding, en retracant les événements récents du cookie collective, et les célébrations des 10 ans de l'algorave.

Michel Bret est un artiste numérique, et a été un des pionniers de l'image numérique en France. Il vient aujourd'hui nous présenter une méthode de travail pour la création artistique, dont voici le programme :

  • rappel sur les réseaux neuronaux
  • application à l'image interactive et aux acteurs virtuels
  • les rêves artificiels
  • la programmation interactive: live coding et fly coding Cette présentation utilisera les concepts mêmes qu'elle introduit sous la forme de programmes interactifs.

Florine 'Flopine' Fouquart est une artiste numérique membre du Cookie Collective et doctorante à l'université Paris 8 dans l'équipe de recherche INRéV. Elle nous présente l'évolution de sa pratique du code créatif mise en relation avec sa plongée dans la scène démo. Débutant par une vue d'ensemble et un petit historique sur la scène démo - une communauté d'artistes et techniciens partageant une passion pour l'art algorithmique - ce talk proposera ensuite une description de ce qui est, selon elle, fondamentale dans la maîtrise de son médium et dans son processus créatif. Des exemples concrets mêlant art et optimisation technique clôtureront cette présentation.

A noter que nous avons terminé la soirée autour d'un buffet comprenant boissons et pizzas, généreusement offert par talent.io

A l'issue de la soirée, Loïc a très gentiment mis ses notes à la disposition de tous :

https://www.consultingit.fr/fr/talent-io-paris-creative-code-algorave-cookie-collective-inrev

Quelques liens pour suivre les travaux de Florine :

Les slides de Florine et de zOrg se trouvent dans le répertoire "slides" du présent dépôt (au format PDF) :

Liens vers les vidéos de la soirée :

Conférence Art Numérique (son, image, installation) - Soirée en présentiel chez TheCodingMachine

jeudi 17 février 2022

Le teaser de la soirée: https://youtu.be/PE83a9oWJVI

Le 17 février, nous recevions 3 intervenant-e-s :

Mathieu Poli Compositeur, artiste plasticien et numérique viendra nous présenter trois de ses projets:

  • Monolithe de l’Infini : Sculpture numérique de 2m réalisée en 2016, une expérience singulière du cosmique entre les portails de la physique, de la composition sonore, de l’art numérique et la perception.
  • Amas : Comment l’art numérique peut s’encadrer sur un mur ?
  • Projet en conception : Tally est une intelligence artificielle née d'un ordinateur quantique et d'une machine à dessiner. Il a la capacité de créer des œuvres d'art numériques et physiques, d'interroger le public et d'apprendre et de s'adapter à ses goûts et dégoûts.

Replay : https://youtu.be/3gOIKrNHr50

Claire Eliot: Designer et chercheur, à la croisée du design textile et de la science, Claire Eliot ré-interroge nos interfaces numériques actuelles. Elle explore les matériaux souples et ses possibilités lorsqu’ils sont associés aux capacités de l’électronique. Dans l’intention de concevoir de nouvelles surfaces communicantes, qu’elle nomme les « Matières Souples Réactives ». Le sujet de son intervention sera: les systèmes interactifs tangibles, placer la matérialité au cœur des outils numériques.

Replay : https://youtu.be/sHecHDEPkCU

Thibault Jehanne: Les Premières Réflexions, projet mené par l’artiste Thibault Jehanne, consiste en la création de pédales de réverbération dans lesquelles sont conservées l’acoustique et les résonances de lieux qui vont disparaître. C’est une installation évolutive imaginée en série. Ce projet est une tentative de garder en mémoire des instantanés d’empreintes sonores d’espaces avant leurs disparitions : plusieurs (kilo)mètres carrés dans une petite boîte que l’on manipule avec le pied. Thibault Jehanne souhaite proposer un paysage sonore d’un territoire donné, enregistrer des réverbérations d’architectures, d’espaces urbains représentatifs de la notion de disparition, d’éphémère et les conserver dans des pédales d’effets.

Replay : https://youtu.be/Bu7L3iT0omY

Soirée en présentiel chez talent.io

jeudi 25 novembre 2021

Le jeudi 25 novembre, nous recevions 4 intervenants :

Florian Rouzaud est un Visual artist qui travaille avec différents médias (photos, vidéo, électronique...) et qui a déjà présenté plusieurs installations ébouriffantes à CreativeCodeParis. PTT glitcher est la toute dernière installation de Florian. Elle redonne une nouvelle vie à un vieux Minitel. Le processus de création a été ici de comprendre le fonctionnement et les limitations de cette machine, qui lui confèrent toute son esthétique visuelle. On parlera technique avec Arduino, Touch Designer, Leap Motion mais aussi de la création dans un environnement contraint.

Replay : https://www.youtube.com/watch?v=gzDzhhCMYng

Sébastien Gulluni est compositeur et sound designer. Début 2020, Sébastien était venu nous présenter le logiciel VCV Rack. Il revient ce jeudi pour nous présenter un projet auquel il a participé dans le cadre du concours "AI Song Contest 2021", en partenariat avec les chercheurs du laboratoire Algomus de Lille. Dans le cadre de ce concours, des équipes de chercheurs/compositeurs combinaient des technologies IA et des techniques plus classiques pour composer un morceau. Sébastien nous présentera le projet en détails, mais vous pouvez déjà écouter le fruit de leur travail sur cette page : https://www.aisongcontest.com/participants/gullunixalgomus-2021 [email protected]

Replay : https://www.youtube.com/watch?v=MV_btzaLDf8

Raphaël Bastide crée des instruments, des stratégies pédagogiques, des installations, des objets, des performances. Il développe des sites web et des programmes informatiques. Il hérite de la culture du logiciel libre et tente de la transmettre. Raphaël va nous présenter Cascade, un instrument virtuel qui interprète des formes graphiques en son. Développé en HTML, CSS et JavaScript, Cascade interprète le DOM des pages web en temps réel. Les styles des éléments graphiques (couleur, position, forme…) composent le visuel et le son, permettant d’envisager le live-coding comme une négociation improvisée entre le son et sa propre écriture. Documentation et code source : https://raphaelbastide.com/cascade/

Replay : https://www.youtube.com/watch?v=mFjLDJJJAdw

Benjamin Lévy est développeur indépendant dans le domaine de la musique après avoir travaillé comme réalisateur en info. musicale, ingénieur R&D et doctorant à l'Ircam. Il vient nous présenter un projet auquel il a participé tout récemment, dont voici les grandes lignes : Sous la houlette de The Absolut Company Creation (Absolut Vodka / Pernod Ricard), la startup NextMind et le musicien électronique français Molécule unissent leurs efforts pour créer un instrument inédit contrôlé par le regard. Le SDK NextMind comprend un capteur d'onde cérébrale relié à un package Unity. Son utilisation pour jouer de la musique live oblige à la réalisation d'une passerelle efficace vers un environnement musical tel qu'Ableton Live. Exactement à l'interface entre ces deux environnements, Benjamin nous racontera son arrivée et son rôle dans le projet, et il détaillera les enjeux techniques et de développement.

Replay : https://www.youtube.com/watch?v=mYon6loNhKo

CreativeCodeParis / Session 2021 #2

jeudi 25 mars 2021 (online sur Jitsi)

Nous avons fait une trêve en février, mais ce mois ci on repart à fond les ballons ! Pour ce nouveau meetup "online", nous vous proposons 3 sujets:

Grégory Jarrige nous présente un projet de lecteur audio piloté à la voix qu'il a développé en Javascript. Le projet est open source et s'appuie sur Node.js et sur l'API Web Speech pour la synthèse et la reconnaissance vocale. Il est plus particulièrement destiné à des personnes souffrant de troubles visuels, l'objectif étant de leur fournir un outil d'usage facile, pour l'écoute de podcasts notamment. https://github.com/gregja/ar-vocal-project

Benjamin Kuperberg nous présente le projet Chataigne ! Chataigne est un logiciel open source pensé avec un objectif en tête : créer un outil commun pour les artistes, techniciens et développeurs voulant utiliser les technologies et synchroniser des logiciels pour des spectacles, installations interactives et du prototypage. Chataigne ne crée pas de contenu par lui-même, son rôle est d’être le nerf central dans un projet mêlant différentes interfaces logicielles et matérielles. On peut le voir comme un chef d’orchestre, qui s’occupera de contrôler toute la flotte technologique en ayant connaissance de la vision globale du projet. https://benjamin.kuperberg.fr/chataigne/fr

Lionel Radisson, alias makio135, designer et creative coder, joue avec les pixels, les données et le hardware depuis une dizaine d'années. Il nous propose un retour sur un an de creative coding sur Observablehq, plateforme web de notebook en JavaScript, avec de la génération de SVGs et de gifs #p5js #glsl #raymarching #threejs. https://observablehq.com/@makio135/creative-coding

Le replay de la soirée du 25 mars 2021 est disponible sous la forme de 3 vidéos distinctes :

CCP Le Retour / Session 2021 #1

jeudi 21 janvier 2021 (online sur Jitsi)

Nous vous proposons de reprendre nos meetups avec une nouvelle soirée en ligne (via jitsi), et un programme haut en couleurs, grâce à trois intervenants qui vont nous emmener dans des univers très différents, Gilles, Fabien et Samuele.

Gilles Deschaud L’artiste Gilles Deschaud va présenter ses dernières réalisations notamment Chase Me. Ce court métrage est le premier film d’animation uniquement composé de pièces imprimées en 3D. Son projet demanda deux ans de travail et près de 2500 impressions. L’histoire commence avec une jeune fille se promenant paisiblement dans une forêt enchantée. Durant sa balade, son ombre prend vie, se transforme en monstre et la poursuit à travers la forêt. Gilles va expliquer les étapes de la réalisation mais également parcourir rapidement d'autres de ses court-métrages qui sont au coeur d'une réflexion sur l'hybridation de l'animation. https://www.deschaud.fr/

Parse/Error Travaillant sous le pseudonyme Parse/Error, Fabien Bouchard est un artiste français basé à Marseille. Autodidacte, son travail est né de la rencontre entre art, design et technologie et porte sur l’interaction entre l’homme et la nature. Sa pratique artistique mélange impression 3D, objets connectés, bois, peinture, street art, électronique, lumière ou données en temps-réel. Il nous présentera son parcours et ses différentes créations avec un focus particulier sur certaines de ses œuvres. https://parseerror.ufunk.net/

Samuele Giraudo Samuele était venu nous parler d'opérades en septembre 2019, il est de retour pour nous parler de ses avancées sur le sujet, avec le projet Calimba, qui est un nouveau langage de programmation musicale. Calimba est bâti autour d'une abstraction des phrases musicales sous forme d'arbres. Ces arbres sont accompagnés naturellement d'opérations qui permettent de construire des phrases complexes avec du code simple. L'une de ces opérations est l'opération d'insertion qui donne lieu entre autres à des transpositions. Calimba se veut simple au sens où il ne dépend d'aucun serveur de son particulier (il possède ses propres synthétiseurs et génère des fichiers PCM), est indépendant au sens où il n'est basé sur aucun autre langage de programmation, expressif et haut niveau au sens où il est possible de créer des phrases élaborées avec un code concis, inspiré par des traits de programmation fonctionnelle, et relativement facile à apprendre. Cet exposé est principalement destiné à la prise en main pas à pas de ce langage avec des exemples pour illustrer les notions introduites. https://github.com/SamueleGiraudo/Calimba

Le replay de la soirée du 21 janvier 2021 est disponible sur youtube :

https://www.youtube.com/watch?v=6955u_OW9pk

CreativeCodeParis, le retour

jeudi 29 octobre 2020 (online sur Jitsi)

C'est le grand retour de CreativeCodeParis ! Mais Covid oblige, cette nouvelle soirée se fera en ligne.

Nous avons 3 talks au programme, présentés par Alexandre, Florian et Fred.

Alexandre Dubreuil - Visualisation de la musique avec Visual MIDI La visualisation de la musique est un problème difficile, mais utile, en particulier pour l'écriture d'un livre sur la musique. Dans cette mini-présentation, nous allons montrer la librairie Visual MIDI, permettant d'afficher des fichiers MIDI sous forme de "pianoroll", et ayant servi à générer les graphiques du livre Hands-On Music Generation with Magenta. Nous découvrirons l'utilité de cette librairie à travers une question primordiale de la musique générative : comment analyser (visuellement, ou non) une génération musicale issue d'un réseaux de neurones ?

Florian Rouzaud - Touch Designer Florian est un Visual artist qui travaille avec différents médias (photos, vidéo, électronique...). Il nous avait présenté l'année dernière plusieurs installations étonnantes. Il revient cette fois pour nous expliquer comment il a programmé sur Touchdesigner le workflow de panneaux de led. Florian a utilisé cette technique pour une installation qu'il a présenté à la Nuit Bleue et qui lui a permis de remporter la seconde place du concours.

Fred CECILIA - Expérience musicale immersive Qu'est ce qui se passe lorsque qu'on mélange de la la musique visuelle et des l'audio ambisonic ? C'est la réponse que va nous apporter Fred dans une présentation nommée "Expérience musicale immersive". Au menu on parlera d'installation, mais aussi de réalité virtuelle et surtout des outils à notre disposition pour la création de ce type de projet.

Lien vers la présentation d'Alexandre, sur VisualMIDI :

https://alexandredubreuil.com/conferences/midi-visualization-with-visual-midi/

Pour suivre le travail de Florian :

https://www.instagram.com/florianrouzaudcornabas/

https://vimeo.com/florianrouzaudcornabas

https://www.facebook.com/FlorianRouzaudCornabasArt

Quelques uns des outils évoqués par Fred pendant sa présentation :

https://magicmusicvisuals.com

https://isf.video

https://www.dearvr.com

Le replay de la soirée du 29 octobre est disponible sur youtube :

https://www.youtube.com/watch?v=K91_PCOpPHU

Creative Music Technologies for Learning and Play Meetup @Ircam

mercredi 26 février 2020

Un événement exceptionnel organisé par l'IRCAM et auquel CreativeCodeParis a été invité à participer.

L'événement s'est déroulé de 10 à 13 heures, dans l'auditorium de l'IRCAM, et a réuni un grand nombre d'intervenants sur le thème du coding pour le jeu et l'apprentissage musical.

Un grand merci à Alex Ruthmann qui est le commanditaire de cette rencontre, à Emilie Zawadzki, qui a coordonné l'événement de main de maître, à Guillaume Pellerin, grand magicien de l'API WebAudio et organisateur du meetup ParisAudio, et à toute l'équipe de l'IRCAM qui nous accueilli avec beaucoup de gentillesse.

Le programme de l'événement étant particulièrement dense, nous l'avons regroupé sur une page distincte de ce dépôt :

https://github.com/gregja/CreativeCodingParis/blob/master/ircam_event_2020-02-26.md

Soirée spéciale Fous du Son

jeudi 20 février 2020

Nous vous proposons une nouvelle soirée dont le contenu devrait ravir les musiciens, les sound designers et les passionnés de prise de son.

Nous démarrerons avec Sébastien Gulluni qui nous présentera le logiciel VCV Rack. VCV Rack est un synthétiseur modulaire analogique virtuel. Il fonctionne sur le principe de rack VCV dans lequel on place différents modules, que l'on peut relier les uns aux autres via des câbles virtuels. Sébastien, qui est compositeur et sound designer, est un véritable spécialiste de ce logiciel, dont il nous présentera les principales caractéristiques. En attendant de le rencontrer, vous pouvez découvrir l'univers musical de Sébastien sur son site :

http://sebastiengulluni.com

Nous enchaînerons avec Marielle Martin, qui est co-animatrice du meetup "Workshops Ableton Live & Co (78)". Dans le cadre d'un atelier réalisé le 19 janvier, nos amis ont mené différentes expériences sur l'enregistrement de la voix. Comment se préparer à une session d’enregistrement de voix ? Comment placer le micro, régler le gain, le casque, … ? Marielle nous délivrera mille et un bons conseils pour optimiser une session de recording avec des chanteurs et obtenir leurs meilleures performances vocales.

https://www.meetup.com/fr-FR/Workshops-Ableton-Live-Co-78/

Lien vers la présentation de Marielle :

https://github.com/gregja/CreativeCodingParis/blob/master/slides/l_enregistrement_des_voix.pdf

Nous terminerons avec Grégory, qui nous présentera le "Pipe" (prononcez "païpe"). Sorti tout récemment des ateliers du SOMA Laboratory, le Pipe est un synthétiseur et processeur d'effets dynamiques contrôlé par la voix, le souffle et la bouche. On peut également l'utiliser comme une pédale d'effet en le reliant à d'autres instruments (par exemple sax ou clarinette). Venez découvrir les sonorités hors norme de cette drôle de pipe.

NB : la prez de Grégory est disponible dans ce dépôt (aux formats ODP et PDF) :

https://github.com/gregja/PipePrez

(par rapport à la prez présentée en live, Grégory a ajouté quelques infos sur le raccordement de la clarinette avec le Pipe, via un micro piézoélectrique, le Piezobarrel)

une petite compilation de séquences improvisées enregistrées par Grégory après le meetup, pour donner un tout petit aperçu des possibilités du "Pipe" :

https://soundcloud.com/user-523981428/when-a-geek-meets-a-pipe

Code Kitchen #3 + Gratiferia #1

jeudi 23 janvier 2020

Troisième code kitchen de la saison, doublée de la première gratiferia "for the geeks"

OAMME et autres Corps Mécaniques

jeudi 16 janvier 2020

Nous démarrons en beauté la nouvelle année, avec deux talks consacrés au son. Nos invités sont en effet deux "fous du son", Nicolas Canot et Florent Colautti.

Nicolas Canot est compositeur, improvisateur et artiste digital installé à Reims. Il est membre du collectif Sonopopée (pépinière art et design de l’ESAD de Reims) fondateur de la nouvelles compagnie Les Transitives et artiste associé au CNCM Césaré de Reims. Nicolas présentera les objets OAMME-1 et OAMME-2 (Objets Autonomes et Mobiles de Médiation et d’Expression) conçus et réalisés en compagnie du mathématicien et informaticien Olivier Nocent et du luthier Synththomas dans le cadre du projet Tisica. Commandés par le CNCM Césaré, le CHU et l’Université et la ville de Reims, ces « instruments » de conception essentiellement numérique sont pensés pour favoriser la communication verbale on non, en sollicitant, par le toucher ou le geste, les émotions liées à la mémoire auditive ou la création sonore sans pré-requis instrumental. Ils sont destinés aux patients et soignants des EHPAD de Reims ainsi qu’aux artistes (plasticiennes, chorégraphes, compositeurs) intervenants sous forme d’ateliers réguliers auprès de groupe de patients pris en charge dans ces services. Ces prototypes, développés autour des plateformes Teensy / Arduino et Bela / Pure Data sont en cours de finalisation, précédant une série d’autres objets de médiation qui seront créés en 2020.

https://ello.co/nicolas_canot

Florent Colautti est membre du collectif d'artistes résidant à la Folie Numérique. Il développe depuis plusieurs années des pratiques mêlant musique et arts numériques. Ses créations font partie d’une démarche où le "physique" s’hybride par des protocoles numériques et électroniques. Ses recherches l’ont ainsi portées vers des procédés de lutherie contemporaine et la construction d’instruments particuliers.

La dernière création de Florent, "Les corps mécaniques", est un projet de spectacle musical tendant à la fois vers l’ensemble mécanique et le théâtre d’objet. Il organise et associe diverses entités instrumentales pour proposer un registre musical large et diversifié, aux couleurs, timbres et expressivités nuancées.

https://florentcolautti.net/

Vous pouvez découvrir l'univers musical et le travail de recherche de Florent Colautti en écoutant une série d'émissions, en 5 parties, qui a été diffusée en décembre 2019 sur France Musique. Cette série est réécoutable dans son intégralité via cette page du site de France Musique :

https://frama.link/cBgCKHZT

Code Kitchen à la Folie Numérique # 2

jeudi 21 novembre 2019

Seconde code kitchen de la nouvelle saison, sujets libres cette fois ;)

Code Kitchen à la Folie Numérique # 1

jeudi 17 octobre 2019

Première code kitchen de la saison 2019-2020, avec 3 thèmes comme proposition de départ :

  • Quadrillages et distorsions
  • Gammes, trilles et altérations
  • Perception

Anyflo, Babylon.js, musique générative et opérades

jeudi 19 septembre 2019

1er talk animé par Samuele Giraudo, enseignant-chercheur en informatique et mathématique : "Génération aléatoire de motifs musicaux et opérades"

À partir d'un modèle simple mais suffisamment général pour représenter des phrases musicales, nous décrivons un algorithme pour générer des phrases de manière aléatoire. Celui-ci accepte en entrée des motifs courts et, en les composant selon certaines règles, construit un morceau dont certaines particularités des motifs de départ se retrouvent. On obtient ainsi, même à partir de motifs simples, des idées pour créer des riffs, des segments de musiques minimaliste ou encore des morceaux complets évoquant l'époque de la musique 8-bits. Ceci se base sur les opérades, des objets issus des mathématiques et de l'informatique, des opérades colorées et des grammaires à bourgeons. Nous nous concentrerons ici sur l'aspect algorithmique en commençant par le modèle le plus simple (motifs monophoniques avec rythme trivial) pour finir avec le plus riche (motifs polyphoniques avec motifs rythmiques arbitraires).

2ème talk animé par Valentin Pichard : "BabylonJS Session1: Vis ma vie de dev indé."

Créé en 2016 par David Catuhe le moteur est aujourd'hui une référence dans la création 3D Web notamment grâce à sa très large communauté. Lors de cette première session nous allons faire le tour des possibilités qu'offre le moteur. Pour cela quoi de mieux que de déconstruire un jeu vidéo basé sur BabylonJS ci nommé Wazana.io? Mesh, Matériaux, Textures, Particules, PostProcess, tout y passe! Couche après couche (pas les Pampers), venez découvrir comment BabylonJS offre une infinité d'opportunités créatives.

Quelques ressources relative à la présentation de Valentin :

3ème talk animé par Michel Bret : "introduction au logiciel Anyflo"

Anyflo est un système de génération d'images 3D interactives en temps réel développé par Michel Bret depuis près de 40 ans. Il se compose d'un langage (et donc d'un compilateur), sur le modèle du C mais plus simple et plus permissif, ne nécessitant que des compétences limitées en programmation. Très général il a pu intégrer sans difficultés les principaux concepts de la vie artificielle (réseaux neuronaux, algorithmes génétiques, ...). De nombreux films, vidéos et installations interactives ont été produits avec ce système qui est en téléchargement libre et gratuit sur le site anyflo.com

Le site officiel du logiciel Anyflo : http://www.anyflo.com/

Créative Code paris Exhibition à la Folie Numérique

jeudi 20 juin 2019

Présentation des travaux réalisés par nos membres durant les soirées "Code Kitchen" de l'année. Le descriptif de la soirée étant un peu long, nous l'avons reporté sur cette page :

https://github.com/gregja/CreativeCodingParis/blob/master/ParisExhibition2019.md

Code Kitchen à la Folie Numérique # 5

jeudi 23 mai 2019

Cinquième et dernière soirée "code kitchen" de la saison.

Un double objectif pour cette 5ème édition, avec :

  • comme d’habitude, nous faire plaisir en expérimentant, et
  • pour ceux qui le souhaitent, préparer l'exposition que nous présenterons le jeudi 20 juin, à partir des travaux réalisés lors des soirées "code kitchen" de l'année.

Pour ceux qui ont manqué les soirées précédentes, voici une liste dans laquelle vous pouvez piocher un sujet: vous le développerez avec les outils et langages que vous préférez.

Rappel des thèmes des précédentes soirées :

  • drone
  • perte d'identité (idée inspirée du roman de Philip K.Dick qui s'intitule "substance mort" )
  • division mystère (on l'a appelé comme cela, vu que personne ne se rappelle de la formule exacte... bon, on va dire qu'on était en rodage...)
  • rêve
  • harmonographe MIDI
  • (racine carrée de 5 + 1) / 2
  • MIDI Painting
  • trigonométrie
  • générateur de monde
  • triangle, croix, rond, carré

Shader post-fx avec Processing, installations artistiques et fer à souder

jeudi 25 avril 2019

Il y avait du lourd ce jeudi 25 avril, avec trois artistes numériques qui nous ont embarqués dans leurs univers respectifs :

Stanislas Marçais, alias Stan le Punk nous propose une introduction aux Shaders Post FX avec Processing: "Pour cette présentation, j'utiliserai un "outil-framework" maison, simplement nommé « Shader », qui permet d'améliorer les rendus de Processing à travers le langage GLSL. « Shader » est une collection d'effets pilotables directement à partir de Processing, bien sûr vous pourrez les porter facilement sur d'autres languages. Voici une liste non-exhaustive des effets accessibles et configurables à travers ce framework : Flou gaussien, radial, circulaire, datamoshing, grain, mise à l’échelle, déformation par texture ou par algorithme, dithering... "

Ambiance onirique avec Florian Rouzaud Cornabas, visual artist qui travaille avec différents médias (photos, vidéo, électronique...), et développe des projets artistiques qui nous invitent à la rêverie, et nous questionnent aussi. Il viendra nous parler de ses travaux: "Je vous propose une découverte artistique et technique de plusieurs de mes installations qui mélangent art plastique, art numérique et lumineux. Je vous exposerai les différentes étapes de leur création du prototype jusqu'à leur diffusion au travers de courts métrages et expositions."

Ambiance FabLab pour finir, avec Florian Dupeyron qui va lâcher son fer à souder pour venir nous parler de ses expérimentations électroniques du moment : "je suis en train de démonter mon clavier MIDI, pour en extraire le bloc des touches, refaire l'electronique qui le contrôle, et mettre tout ça dans un boîtier fait main. Je vous présenterai dans les grandes lignes le schéma électronique, et surtout comment je souhaite le hacker pour dépasser les fonctions classiques d'un clavier maître standard et expérimenter le son électronique plus librement qu'avec les plugins classiques".

En complément, voici quelques liens proposés par Florian Rouzaud Cornabas :

  • sa présentation téléchargeable ici:

https://drive.google.com/file/d/1XzhaAcQMQdofUZmuVfo6kFdkdjY7xX97/view?usp=sharing

  • des liens complémentaires si vous souhaitez suivre son travail:

http://instagram.com/florianrouzaudcornabas

http://vimeo.com/florianrouzaudcornabas

http://facebook.com/FlorianRouzaudCornabasArt

Voici également un lien proposé par Raphaël Seguin, sur lequel vous trouverez une explication concernan le principe des timers et des interruptions (pour Arduino et en général), sujet qui avait été abordé durant la soirée :

http://www.locoduino.org/spip.php?article84

Et enfin le lien vers le dépôt Github de Stan, sur lequel vous retrouverez l'essentiel de son travail relatif aux shaders PostFX:

https://github.com/StanLepunK/Shader

Code Kitchen à la Folie Numérique # 4

jeudi 14 mars 2019

Pour notre 4ème code kitchen, nous vous proposons une formule légèrement différente. Nous n'allons pas tirer au hasard de nouveaux sujets, mais plutôt retravailler sur la base des sujets des soirées précédentes (qui sont rappelés ci-dessous).

L'objectif est de parvenir à un résultat plus abouti, que nous peaufinerons encore lors de la 5ème soirée (en mai), en vue d'organiser une expo à la Folie Numérique au mois de juin.

Pixels en folie, avec un meetup en 3D et en 2D et demi

jeudi 21 février 2019

Pour ce second meetup 2019 à la Folie Numérique, un talk court et deux talks longs, tous très orientés graphisme 3D :

Premier talk (court) de Grégory, qui s'est livré à un petit exercice : convertir au web (et à WebGL) quelques sketchs Processing orientés 3D (rendu P3D ou OpenGL). Qui de ProcessingJS ou de P5js se sort le mieux de cet exercice, quelles difficultés cela pose ? Grégory vous dira tout, ou presque, avec à la clé un dépôt Github plein de bons exemples à étudier : https://github.com/gregja/pjs3D_experiments

Second talk (long) présenté par Juliette Truffert, pour le logiciel Grasshopper :

"Grasshopper est un module de programmation visuelle développé à partir de 2007 sur la base du logiciel de modélisation 3D Rhino. Grasshopper est initialement développé indépendamment du logiciel (et en open source sous réserve de posséder une licence Rhino) mais son succès est tel qu'il est maintenant intégré à Rhino (depuis 2018). Initialement utilisé majoritairement par les architectes pour générer des géométries 3D de formes complexes et plus largement par les designers pour faire de l'art génératif, la communauté large et active a developpé en 10 ans un nombre important de plug-ins permettant de diversifier ses usages et ses possibilités. Ainsi Grasshopper permet de faire de l'architecture paramétrique, du calcul de structure (via son plug in Karamba), générer des interactions physiques basiques (Kangaroo), faire des calculs de lumière et de consommations énergétiques des bâtiments (Honeybee - Ladybug, qui utilisent le programme radiance et energyPlus) et de la fabrication numérique."

Juliette nous présentera un large panel de possibilités, ainsi qu'un exemple concret, pour nous donner une idée de la logique de fonctionnement de Grasshopper.

Dernier talk (long) présenté par Laurent Meyer :

"Avant l'avènement de la 3D dans les jeux vidéo, il y avait la 2D et demie. Début des années 1990, sur des PC i386 conçus pour des usages bureautiques, ID Software publie Wolfenstein 3D, qui va bouleverser le monde vidéoludique. Pendant ce talk, nous aborderons les bases du Raycasting, la technique simple et géniale qui a rendu tout cela possible. Il y aura un peu de maths (niveau 3ème), et beaucoup de nostalgie."

Laurent nous proposera d'étudier une implémentation de Wolfenstein 3D qu'il a écrite avec P5, et donc voici le lien : https://www.openprocessing.org/sketch/664887

Le livre de Fabien Sanglard consacré à Wolfenstein a été une aide précieuse pour permettre à Laurent de mettre au point son sketch P5 : http://fabiensanglard.net/gebbwolf3d/index.html

Code Kitchen à la Folie Numérique # 3

jeudi 17 janvier 2019

Troisième soirée code kitchen de la saision. Les trois thèmes tirés au sort ont été les suivants :

  • MIDI Painting
  • trigonométrie
  • générateur de monde

... plus un sujet joker ajouté à la dernière minute :

  • triangle, croix, rond, carré

Technos utilisées par les intervenants durant cette soirée : P5, Processing, OpenFramework, Tidalcycle, Supercollider, OpenRnder, Piskel couplé avec Arduino, Three.js.

Dernier meetup 2018, une soirée pleine de surprises

Le 20 décembre 2018 à La Folie Numérique

Pour le dernier meetup 2018, nous vous avons concocté un programme aux petits oignons, avec 4 talks courts, suivis d'une projection surprise.

1er talk de Grégory, qui vous parlera de la manipulation de data en Javascript. Ce langage a une manière de gérer les tableaux et les objets, très différente de celle d'autres langages. Tour d'horizon des trucs et astuces qu'il faut connaître pour que la manipulation de data en JS devienne une partie de plaisir, plutôt qu'un parcours du combattant. Le support de cette présentation se trouve dans le dépôt suivant (cf. fichier "Javascript_and_Data.pdf") : https://github.com/gregja/JSCorner

2ème talk de Grégory : le projet P5.js a de nombreux atouts pour les "creative coders", mais il lui manque un véritable moteur d'animation 2D, pour pouvoir rivaliser avec d'autres technos. En s'appuyant sur les travaux d'experts Javascript, mais aussi Actionscript (le langage de Flash), Grégory s'est lancé dans la construction d'un petit moteur, AutomatosJS. Il vous parlera des pistes qu'il a suivies, des auteurs qui l'ont inspiré, et vous montrera les premiers résultats de ce "work in progress". Le support de présentation et le code source du projet AutomatosJS se trouvent dans ce dépôt : https://github.com/gregja/automatosjs

3ème talk de Raphaël, qui nous expliquera comment programmer une fractale en GLSL. Au travers de cet exemple, Raphaël nous proposera une petite introduction à la technique des "fragment shaders".

4ème talk de Florian, qui s'est livré à une petite étude rétrospective sur la technologie des vieux samplers. Il avait envie de comprendre ce qui pouvait donner à certaines de ces machines un son si caractéristique, et il s'est laissé dire que certaines avaient des fréquences d'échantillonnage toutes pétées.

Nous terminerons par une petite projection rétrospective d'animations 2D et 3D des années 80. C'est l'époque des pionniers de l'image de synthèse, qui ont patiemment construit les briques conceptuelles et techniques sur lesquelles nous nous appuyons aujourd'hui dans nos projets. Et pour reprendre les termes (admiratifs) d'un enfant de 7 ans regardant une animation 3D vieille de 30 ans (en l'occurrence, c'était "Automappe" de Michel Bret) : "ouah, c'était déjà de la bonne 3D !".

Quelques petites précisions à l'issue des présentations :

Florian utilise un enregistreur portable Zoom H1 pour ses prises de son "sauvages". A l'aide du logiciel Audacity et de patchs Pure Data, il nous a fait écouter les effets délétères d'un rééchantillonage mal calibré, mais aussi les effets intéressants que l'on peut obtenir à partir de sons en apparence banals.

Pour sa présentation, Raphaël a utilisé Shadertoy, qui est un formidable labo pour manipuler aussi bien de l'image que du son. Pour plus d'infos sur Shadertoy : https://en.wikipedia.org/wiki/Shadertoy

Parmi les films que nous avons visionnés lors de cette soirée, il y a notamment quelques très beaux films de Michel Bret, comme Automappe et Cahin-Caha. Vous pouvez retrouver ces films et bien d'autres sur cette page d'archives vidéos proposée par l'Université Paris-8 : http://www.archives-video.univ-paris8.fr/bret_sommaire.php

A noter que le logiciel Anyflo que Michel Bret a développé pour réaliser ses films, est développé en C, et qu'il est disponible en téléchargement libre sur ce site : http://www.anyflo.com/

Nous avons aussi regardé quelques vidéos réalisées dans les années 90 (et début 2000) par Animusic. Ce qui est intéressant à noter, dans le cas d'Animusic, c'est que c'est la musique qui guide l'animation, et non l'inverse. On peut voir certaines des vidéos d'Animusic sur la page youtube suivante : https://www.youtube.com/user/AnimusicLLC

A noter qu'en 2011, des ingénieurs d'Intel ont recréé physiquement une des installations virtuelles d'Animusic, c'est impressionnant à voir : https://www.youtube.com/watch?v=E4hjx3_A-cw

Code Kitchen à la Folie Numérique # 2

jeudi 22 novembre 2018

Seconde soirée code kitchen, après celle de septembre. Les trois thèmes tirés au sort cette fois ci ont été les suivants :

  • rêve
  • harmonographe MIDI
  • (racine carrée de 5 + 1) / 2

A noter que nous avons eu la joie d'accueillir deux participants surprise, Michel Bret et Marie-Hélène Tramus, pionnier et pionnière de l'image de synthèse en France, et fondateurs de la formation ATI (Arts et Technologies de l'Image) de l'Université Paris 8 Vincennes Saint-Denis (dans laquelle ils ont enseigné de nombreuses années).

Blender, Fractal and Machine Learning !

jeudi 18 octobre 2018

Au menu de cette nouvelle soirée, 3 sujets différents, présentés ci-dessous par leurs auteurs respectifs :

Gregor Schneider

"Cette présentation est une introduction à Blender. Nous y décrouvrirons comment naviguer, faire notre premier modeling avec la souris pour finir avec l'utilisation de l'utilisation de Python pour créer des supershapes."

Grégory Châtel

"Les fractales sont des objets mathématiques qui exhibent des structures autosimilaires (qui se ressemblent lorsque l'on regarde la figure à plusieurs échelles différentes). Certaines de ces structures sont définies à partir de règles simples qui sont appliquées récursivement de nombreuses fois, les rendant particulièrement propices à la génération par programmation. Dans cet exposé, plusieurs types de fractales avec leurs méthodes de génération seront présentés. Nous verrons aussi comment, en faisant varier les paramètres des figures au fil du temps, il est possible d'obtenir des animations vidéos".

... un exemple de vidéo réalisée par Grégory : https://www.youtube.com/watch?v=bkgk0s5cJYY

Alexandre Dubreuil

Génération musicale par IA avec Magenta (Tensorflow) (voir https://alexandredubreuil.com/conferences/ai-music-generation/)

La génération musicale par intelligence artificielle est une technologie relativement nouvelle qui permet d'innover sur deux plans, soit l'apprentissage de styles musicaux spécifiques, et la génération à partir de modèles entraînés. L'usage de l'IA pour la génération musicale est un sujet avec un vaste potentiel, mais dont l'accès reste difficile. L'objectif de cette présentation est de montrer les bases de cette technique afin de faciliter l'entrée en matière. Nous utiliserons la librairie Magenta, de Google (https://github.com/tensorflow/magenta), et les modèles pré-entraînés qu'elle contient. Nous introduirons les bases pour entraîner vos propres modèles, y compris la préparation des données, primordiale pour avoir des modèles efficaces.

Code Kitchen à la Folie Numérique # 1

jeudi 20 septembre 2018

Dans cette nouvelle formule - que nous allons essayer d'organiser 1 mois sur deux - chaque participant/e peut proposer un, deux ou trois sujets, écrits sur de petits papiers déposés dans un chapeau. Puis une main, de préférence innocente, tire 3 papiers du chapeau, on déplie et on note les sujets sur un tableau. Chaque participant/e choisit l'un des trois sujets sélectionnés et développe ce sujet à sa manière, sous forme de graphisme (fixe ou animé), ou de son, voire les deux. Logiciels et langages sont laissés à la discrétion de chacun/e, et vous pouvez travailler en équipe si vous le souhaitez. A la fin de la soirée, chaque participant/e peut s'il/elle le souhaite présenter le fruit de son travail. Si ce n'est pas abouti, ce n'est pas important, l'idée est d'amorcer le processus créatif, et de le poursuivre chez soi, à son rythme.

Ces soirées coding s'inscrivent dans notre volonté d'organiser une “Créative Code paris Exhibition", en juin 2019.

Les 3 sujets tirés au sort lors de cette première soirée :

  • drone
  • perte d'identité (idée inspirée par la lecture d'un roman de Philip K.Dick, "substance mort")
  • sujet autour d'une division mystère (personne ne se rappelle de la formule exacte, si son auteur voulait bien nous l'indiquer...)

Processing et MIDI / VR et AR / jam électro et algorave pour tous

Le 21 juin 2018 chez La Folie Numérique

Pour notre sixième meetup à la Folie Numérique, nous vous proposons un mix entre graphisme et son... avec 2 talks, suivis d'une jam session électro.

Le premier talk sera animé par Fred, qui expliquera comment il génère du visuel à partir de messages MIDI, en utilisant Processing.

Le second talk sera animé par Gregory, qui présentera les projets A-Frame (projet de la Fondation Mozilla) et AR.js. A-Frame permet de créer des univers 3D VR avec très peu de lignes de code, et AR.js (combiné à A-Frame), permet de mettre un pied dans la réalité augmentée.

Le support de la prez de Gregory est récupérable sur ce dépôt (accompagné du source des exemples) :

https://github.com/gregja/AFramePrez

Pour la deuxième partie de soirée, nous vous invitons à venir brancher vos machines sur l'excellente sono de la Folie Numérique. Venez nous faire découvrir vos rythmes et vos sons, peu importe qu'ils soient produits par Supercollider, Tidalcycles, Axoloti, ou par un Arduino faisant résonner des casserolles, nous on aime tout, et on veut tout entendre :).

Le code source de la machine Algorave de Grégory se trouve sur ce dépôt :

https://github.com/gregja/algoravix

... on peut la tester en live sur cette page :

https://thimbleprojects.org/gregja/493414

Gros son, live coding et jam session électro (the return of)

Le 24 mai 2018 chez La Folie Numérique

Notre 5ème meetup à la Folie Numérique sera encore axé sur la programmation du son, dans la continuité de la soirée précédente. La soirée débutera avec un talk, suivi d'ateliers où chacun sera libre d'explorer les technos qui l'intéressent.

Le talk - environ 45 minutes - sera animé par Stanislas Marçais (alias @StanLEpunK), artiste numérique que nous avons eu le plaisir d'accueillir en mars. Au menu : comment manipuler du son avec Processing couplé avec la librairie Minin, et comment tirer du spectre sonore des infos permettant de générer du visuel.

Les ateliers: faites-vous plaisir, en explorant toutes les technos, que ce soit Supercollider, Chuck, Tidalcycle, WebAudio API, etc... Trois cartes Axoloti seront à votre disposition si vous souhaitez tester ces petites merveilles. N'hésitez pas à amener du matos (contrôleurs MIDI, casques audios, etc..).

Gros son, live coding et jam session électro

Le 19 avril 2018 chez La Folie Numérique

Pour notre 4ème meetup à la Folie Numérique, nous vous proposons une soirée atelier "son et live coding"

Atelier en plusieurs petits groupes autour des logiciels Supercollider, TidalCycles et Axoloti. Vous pouvez nous proposer d'autres logiciels musicaux sur place, cette liste n'étant pas limitative. L'idée serait d'explorer tous azimuts pendant au moins 2 heures, suivi d'un moment où chacun pourra présenter ses découvertes... ... et pourquoi pas terminer par une jam session ! Nous vous invitons à amener du matos (claviers, contrôleurs MIDI, guitares, casques audios, enceintes portatives...). Trois cartes Axoloti seront à votre disposition. N'hésitez pas à nous poser des questions, si besoin.

Champs de Force, Plugins Audio, Scénographie interactive et vidéo mapping

Le 15 mars 2018 chez La Folie Numérique

Pour notre troisième soirée à la Folie Numérique, nous avons le plaisir d'accueillir trois intervenants, Jean-Baptiste, Stanislas et Romain.

  • Jean-Baptiste Vallon Hoarau viendra partager avec nous son expérience en matière de programmation de plug-ins audio. Il nous expliquera le design et l'implémentation d'effets audio en C++ avec le framework Audio Unit. Au menu : décorticage et démonstration des effets de base (filtrage, écho, saturation, reverb...)

  • Stanislas Marçais (alias @StanLEpunK), artiste numérique, nous proposera de partir à la découverte des champs de force ou champs de vecteurs. Ces champs sont utiles dans le monde physique, dans celui des mathématiques, et en programmation ; c’est cette dernière partie que Stanislas souhaite nous présenter, je lui laisse la parole :

"Je me suis intéressé aux champs de forces presque par hasard. C’est suite à une demande d’un VJ italien qui souhaitait que je développe une petite application permettant de gérer des images via un contrôleur Midi, que j’ai débuté ce combat acharné avec les champs de force, de gravitation, les pôles magnétique, les fluides, contre le chaos, les champs de perlin-pinpins. Lors de cette présentation, je vous inviterai à découvrir cet étrange univers fait de lignes de code, d’équation, de champs de vecteur, de paramétrage, de classes, de variables réunis autour de mini librairies que j’ai développées pour dompter ces champs de force. Je vous donnerai les clés des sources libres qui vous permettront de déformer vos images favorites, vos films adorés ou encore vos flux vidéo et de manipuler des particules dans un monde à deux dimensions. Toute cette magie est organisée autour de la librairie Processing et de son accointance avec les Shaders et son langage le GLSL."

  • Romain Astouric, présentera une installation musicale et visuelle interactive, « Audio, Video, Disto », mélange de boucles sonores, d’effets visuels et de gaming. Elle permet avec une ou deux manettes de prendre le contrôle d’un véritable jukebox audiovisuel et de créer sa propre scénographie entre image et son, DJing et VJing. Ce projet fait suite à plusieurs expériences de DJ Sets, durant lesquelles Romain a retenu les manettes de PS3 pour le contrôle MIDI (pour leur robustesse et la précision de leur signal), et les a intégrées à des scénographies visuelles dans lesquelles il combine des logiciels tels que le séquenceur Ableton Live, le logiciel de video-mapping HeavyM, et le logiciel Pure Data Extended. Romain nous explique sa démarche artistique :

"À l’heure où l’intelligence artificielle et tout particulièrement les technologies de machine learning s’apprêtent à envahir logiciels et platines pour assister le DJ, je souhaitais détourner un outil connu et utilisé de (presque) tous - une manette de jeux-video - pour explorer et présenter au plus grand nombre les contraintes esthétiques du DJing à travers une expérience ludique et visuelle ! Synchronisation des tempos, phases et séquences musicales, harmonies et dissonances entre les morceaux; en offrant aux spectateurs un contrôle total sur l’oeuvre, j’espère démystifier cet art de la sélection et du mélange tout en questionnant le public : une fois ces notions définitivement acquises et implémentées numériquement, que restera-t-il au DJ face à la machine ? "

Pour suivre l'actualité de Stan : https://lavoieducode.wordpress.com/author/stanlepunk/

Pour suivre l'actualité de Romain : http://romain-astouric.com/

Second meetup à La Folie Numérique avec des ateliers orientés musique générative et live coding

Le 15 février 2018 chez La Folie Numérique

Pour notre second meetup à la Folie Numérique, nous avons fait le choix de ne pas programmer de talks, mais d'organiser une soirée "ateliers". Nous avions envisagé plusieurs ateliers, autour des logiciels IanniX, Chuck, et Supercollider, ainsi qu'un atelier d'initiation au Javascript. Ce dernier atelier n'ayant pas rencontré son public, et tout le monde étant très intéressé par le son, nous nous sommes tous regroupés pour discuter de musique générative et de live coding.

Trois présentations, dont les 2 dernières complètement improvisées :

  • présentation de IanniX couplé à un synthé Microbrute : ayant découvert les possibilités de IanniX au meetup précédent, Gregor a fait quelques expériences en connectant ce logiciel à un synthé Microbrute d'Arturia. Il nous a montré les expérimentations qu'il a réalisées, et les astuces qu'il a découvertes. Super intéressant !
  • présentation par Tom de TidalCycles, logiciel dédié au live coding basé sur le langage Haskell et s'appuyant sur le logiciel Supercollider. Du gros, du très gros son ! Site officiel : https://tidalcycles.org/
  • présentation par Grégory du logiciel de synthèse sonore Chuck. Site officiel : http://chuck.stanford.edu/

Le meetup du 15 mars sera une soirée de talks, laissant peu de temps pour l'expérimentation, aussi les participants ont pris rendez-vous pour une nouvelle soirée d'ateliers, le jeudi 19 avril. Au programme : expérimentations tous azimuts avec Chuck, Supercollider, Tidalcycles, Webaudio, avec en clôture concert improvisé durant lequel on essaiera de faire dialoguer tout ce beau monde avec du MIDI et/ou de l'OSC. Ca va être fun !!!

Pour ceux qui seraient intéressés par Chuck, quelques liens intéressants :

Et quelques liens complémentaires fournis par Thomas et Raphaël (merci à eux) :

Premier meetup à La Folie Numérique avec les projets Axoloti, Bela et IanniX

Le 18 janvier 2018 chez La Folie Numérique

Pour notre premier meetup de l'année, et notre tout premier meetup à la La Folie Numérique, nous avons concocté un programme très sonore, avec 3 sujets.

Dans le premier talk (court), Gregory vous montrera comment électrifier une clarinette, avec un micro piézo-électrique (le Piezobarrel) et la carte son Axoloti. Pour moins de 200 euros, n'importe quel instrument à vent peut devenir un instrument électronique, passez le message à vos amis musiciens. Pour plus d'infos sur le contenu de ce talk : https://github.com/gregja/CreativeCodingParis/blob/master/piezo_and_axo.MD

Le second talk (court) sera animé par Federico, qui nous présentera le projet Bela, une plateforme dédiée au son basée sur une carte Beaglebone. Ce projet devrait combler les musiciens et codeurs créatifs, tant il est puissant et polyvalent. Le talk de Ray sera en anglais, mais nous serons présents dans la salle pour aider à sa compréhension. http://bela.io/

Le dernier talk (long) sera animé par Guillaume Jacquemin. Guillaume est creative technologist, ingénieur en systèmes embarqués, et créateur d'un logiciel hors normes : IanniX (https://www.iannix.org/fr/). Je lui laisse la parole pour le présenter:

"IanniX est un séquenceur graphique open source, inspiré des travaux de Iannis Xenakis et destiné à la création numérique.

Outil de création dans de multiples domaines (musique, arts plastiques, danse, design…), IanniX propose aux artistes une écriture graphique, spatiale, interactive, géométrique ou architecturale de leurs œuvres. Son haut niveau d’abstraction lui permet de s’adapter à des projets artistiques technologiquement riches ou à des dispositifs scéniques complexes.

IanniX a été mis à contribution pour des créations au Grand Palais (pour Monumenta), à l’exposition internationale en Corée du Sud, à la Biennale de Venise, à la SAT de Montréal, pour Nuit Blanche…

Son rôle principal est d’écrire/décrire les relations entre l’espace et le temps, au travers d’une notation resserrée autour de trois objets fondamentaux : les triggers (événements), les courbes (trajectoires dans l’espace) et les curseurs (progression dans le temps). Les partitions crées avec IanniX, représentations graphiques et interactives du temps dans l’espace, communiquent avec les environnements de créations usuels des artistes (Max, PureData, SuperCollider, CSound, OpenSoundControl, Ableton Live, protocole DMX…)"

Attracteurs étranges et GIF animés

Le 11 décembre 2017 chez E-Artsup

Pour cette nouvelle soirée, nous serons accueillis par l'école e-artsup, pour 2 talks passionnants.

Nous entamerons la soirée avec Raphaël Seguin, que nous avons souhaité réinviter pour une session de rattrapage sur les attracteurs étranges. Vous étiez nombreux à l'avoir manqué en octobre, et Raphaël vous montrera que ces techniques en lien avec la physique et l'univers des fractales, recèlent un potentiel énorme pour le graphisme et la musique. Dans cette nouvelle session, vous verrez en mouvement - programmés avec P5.js - des attracteurs de : Lorenz, Thomas, équation logistique, chaos game, etc..

Nous recevrons également un nouvel intervenant en la personne d'Etienne Jacob. Depuis un an, Etienne crée des GIFs animés en noir et blanc (qui bouclent parfaitement), qu'il poste sur son blog. Ces GIFs sont programmés en Processing. Etienne nous présentera son travail et nous montrera en particulier une méthode permettant de réaliser automatiquement des GIFs à partir du bruit (fonction noise() en Processing). Des exemples de GIFs inédits seront codés en live pour illustrer et expliquer la méthode. Le blog d'Etienne : http://www.necessary-disorder.tumblr.com

Attracteurs étranges et Ray Marching musical

Le 10 octobre 2017 chez Arolla

Le programme : une soirée animée par Raphaël Seguin et Patrick Labatut. Je leur laisse la parole :

Raphaël : "Les attracteurs étranges permettent de révéler un ordre caché au sein du désordre apparent du monde physique. Construits sur des données réelles ou arbitraires, on peut en explorer la diversité esthétique grâce à différents algorithmes implémentés en processing : attracteur de Lorenz, Thomas, équation logistique, chaos game..."

Patrick : "Pas suffisamment de patience pour faire du stop motion avec des briques LEGO? Minecraft est trop fastidieux à utiliser? On verra comment appliquer la technique de rendu par ray marching à des représentations voxeliques dynamiques dérivées de fonctions simples, pour prototyper et générer rapidement des visualisations musicales avec des petits cubes colorés qui évoluent en rythme. Tout ça implémenté en GLSL / Shadertoy (mais appliquable à d'autres environments)..."

A l'issue de la soirée, Raphaël met à notre disposition une transcritption en p5.js des algorithmes qu'il a présentés durant le meetup :

https://raphaelseguin.github.io/

... et Patrick met à notre disposition sa prez (et le code) à l'adresse suivante:

http://rgba.xyz/talks/20171010-CreativeCodeParis/

on retrouve ces éléments sur le GitHub de Patrick, dans le repo suivant :

https://github.com/plabatut/plabatut.github.io/.

Atelier Lilypond & Processing

Le 18 septembre 2017 au Friends Vaugirard

Le programme : une soirée en deux parties, animée par Benjamin Bouvrot et Gregor Schneider :

  • Vous aviez peut être découvert Benjamin au Numa ou chez Deezer, avec son impressionnant travail autour du logiciel Pure Data. Il revient cette fois pour nous parler du logiciel Lilypond, que l'on peut définir comme un atelier de gravure musicale. Benjamin nous avait déjà présenté Lilypond en janvier, il a approfondi depuis sa connaissance de cet étonnant logiciel qu'il utilise dans son travail de composition. Cet atelier est ouvert aux débutants, et aux personnes qui n'ont pas eu le temps d'expérimenter l'outil, et ont besoin d'une grosse piqûre de rappel (comme moi).

  • Gregor est passionné de design génératif, et il fait actuellement beaucoup de recherche sur les liens entre musique et graphisme, entre "ondulations simples et harmonies". Il nous présentera ses découvertes au travers de Processing, en nous montrant qu'avec quelques sinus, cosinus, un peu d'astuce et finalement peu de code, on peut obtenir des formes élégantes. Cet atelier est ouvert aux débutants.

A l'issue de la soirée, Gregor a mis sa prez à notre disposition sur son GitHub:

https://github.com/GregSnyder/Processing

et Benjamin a créé un dépôt Github qui récapitule cet atelier Lilypond (ainsi que le précédent). Le dépôt contient le résumé des fonctions présentées par Benjamin, mis en lien avec des fichiers .ly contenant les divers exemples. Le dépôt contient aussi les .pdf issus de ces fichiers .ly permettant de voir directement le résultat (si vous n'avez pas encore installé Lilypond).

https://github.com/Doedelzak/Lilypond

Par ailleurs, Etienne Jacob, creative coder présent au meetup, nous fait le plaisir de partager avec nous ses travaux autour des harmonographes :

https://ebleuj.tumblr.com/post/165874034029/harmonographs

Musique Générative et Générative Design

Le 28 juin 2017 chez Deezer

Le programme :

  • Benjamin Bouvrot nous parlera musique générative avec Pure Data : "Après une courte présentation de Pure Data, Benjamin expliquera comment il utilise ce dernier pour faire de la musique générative. L'objectif est de créer des patchs qui "improvisent" de la musique, en générant des données MIDI. Des contrôles en temps réel sont également implémentés, permettant à un musicien de modifier les conditions de génération de la musique. Il détaillera son patch et expliquera pas-à-pas son fonctionnement, puis fera une démonstration live du résultat." Les patchs Pure Data du programme présenté par Benjamin lors du Meetup : https://github.com/Doedelzak/puredata Benjamin a rédigé un petit manuel dans le README.md pour ceux qui voudraient jouer avec :)

  • Damien Barré fera un retour d'expérience sur ce qu'il fait avec son groupe de musique et processing ! Ambiance VJay garantie :) Lien vers le Github de Damien dans lequel on trouvera ses codes sources Processing : https://github.com/Cubor

  • Emilie Zawadzky présentera une application mobile qu'elle a développée avec Pizzicato.js, Gyro.js et Processing. Cette appli est destinée à promouvoir la sortie d'un EP... Emilie nous expliquera tout ça ;) Lien vers l'application d'Emilie : http://olgarym.com

  • Grégory Jarrige nous fera une petite présentation de son dernier joujou :) "Axoloti" (http://www.axoloti.com) le slide de Grégory sur Axoloti : https://github.com/gregja/meetup_ccp_axoloti Grégory met également à disposition des supports de cours sur HTML5, CSS3, Bootstrap, Javascript, et P5.js sur ce dépôt : https://github.com/gregja/JSCorner

Souffler une bougie en compagnie d'un TRex

( 17 mai 2017 - Mozilla Paris )

Le programme :

  • Carole Lambert va ouvrir le bal, je lui laisse la parole : "Reproduire la fameuse Matrix digital rain est un coding challenge qui a tenu en haleine de nombreux développeurs. Je vous propose de vous montrer une version de cette digital rain développée avec p5.js, ainsi que plusieurs adaptations très libres de cette belle pluie numérique."

  • Jean-Marie Cléry va soulever pour nous le capot d'un petit accessoire que nous apprécions beaucoup : "Le Leap Motion est un petit device USB doté de capteurs infrarouges, qui permet de détecter et analyser le mouvement des mains. Son utilisation est devenue de plus en plus populaire notamment dans le milieu de la VR. Mais il est aussi possible de l'utiliser dans le contexte d'une simple application web HTML5. Nous verrons en JavaScript comment récupérer et utiliser les informations fournies par le boîtier via la librairie Leap.JS, et ce dans le but de créer rapidement de petits proof-of-concept et d'entrevoir les possibilités d'utilisation."

  • Fred Cécilia va nous montrer comment combiner le langage SCALA avec l'API Webaudio, pour une expérience graphique et sonore décoiffante.

  • Eric Palliet évoquera pour nous quelques figures marquantes du champ de l’art moderne et d’artistes informaticiens. Les enjeux : théoriques, pédagogiques, ludiques et créatifs du graphisme sur ordinateur. Pour Eric, "c'est de l’expérimentation par le jeu mais aussi de sa confrontation avec l’art que s’acquiert une expérience utile et créatrice".

Voici les slides de la présentation de Jean-Marie sur le Leap Motion (Tout y est : les exemples de code, liens vers les CodePen fonctionnels, et vers les démos) :

Lors de cette soirée, Benjamin devait présenter un talk sur le logiciel Pure Data, mais nous avons manqué de temps. Ce n'est que partie remise, car Benjamin animera une prochaine soirée, qui devrait se dérouler le 28 juin. A suivre...

https://www.meetup.com/fr-FR/CreativeCodeParis/

Soirée placée sous la bannière de PizzicatoJS, de D3js et du Machine Learning

( 24 avril 2017 - Ecole 42 )

Le programme du meetup, animé par Fred Cecilia et Alejandro Mantecón Guillén :

  • Fred : Vous pensez que le streaming et le machine learning ne sont là que pour faire du "Big Data". Que nenni ! Je vous propose un petit détournement de ces technos pour quelque chose de nettement moins big mais tout aussi data et bien plus amusant : jouer avec la musique ! Je vous montrerai comment à l’aide de quelques accessoires, et quelques lignes de code nous pourrons créer de nouvelles façons d’interagir avec de la musique !

  • Alejandro : Plongeant dans le monde du développement web, ce talk vise a combiner le DOM et les données audio pour créer des animations et visualisations dynamiques qui dansent au rythme du web audio. Nous allons charger et analyser la musique avec Pizzicato.js pour ensuite utiliser D3.js et transformer ce que vous voyez en fonction de données audio. Voyons ce qui sort du mélange dev-web, data viz, et musique !

Le replay de la soirée : https://www.youtube.com/watch?v=HPlLAo4JMQY

Liens et resources fournis par Alejandro et Fred :

Atelier d'initiation au langage Javascript

(le 10 avril 2017, au Friends Vaugirard)

Le programme : Envie de jouer avec les API Canvas et Webaudio pour générer des graphiques et des sons? Envie de programmer des sketchs graphiques avec P5.js ? Tous ces outils se manipulent avec Javascript. C'est un langage vraiment fun, mais si vous débutez en programmation, il peut aussi vous sembler confus et intimidant. Pour vous aider à prendre votre envol, nous vous proposons un atelier d'initiation à Javascript. Tout ce dont vous aurez besoin pour cet atelier? Un PC portable équipé d'un navigateur à jour (de préférence Firefox ou Google Chrome). Vous découvrirez ce qui se cache sous le capot du navigateur, et apprendrez à jouer avec la console. Nous nous connecterons en Wifi sur Codepen, et nous verrons comment utiliser ce formidable outil pour tester tout ce qui nous passe par la tête. Nous ferons un petit peu de HTML, mais pas trop, juste ce qu'il faut pour pouvoir jouer avec en Javascript. Cet atelier est destiné à des débutants en programmation, et à des personnes ayant déjà des notions en programmation, mais peu ou pas de pratique de Javascript.

Exemple de script étudié durant la soirée, sur Codepen et CodeCircle :

Pour un rappel sur la syntaxe de création des listes HTML :

Liens vers les supports PDF mis à disposition à l'issue de la soirée :

  • https://github.com/gregja/p5Corner

    -> Le support "Tuto_P5_Premiers_Pas" se situe dans la continuité de ce que l'on a étudié durant ce meetup. C'est à la fois une initiation à P5 et au Javascript, complété de nombreuses références bibliographiques.

  • https://github.com/gregja/JSCorner

    -> Le support "Cours_Javascript_HTML5" est un support de niveau plus avancé, qui couvre un spectre plus large et plus orienté développement professionnel. Attention, ce document n'est pas une bonne intro aux bases du HTML (pour ça, voir plutôt W3Schools, CodeCademy ou KhanAcademy).

Quelques liens intéressants signalés par Jean-Marie Cléry durant le meetup :

  1. ... découvrir la syntaxe JavaScript et les structures de contrôle :
  1. ... découvrir comment dessiner sur un Canvas :

Processing 3D / WebGL & shaders / Raymarching

(le 20 mars 2017 - Ecole 42)

Le programme : Nous débutons à 19h30 par :

  • une présentation de la société KDS, sponsor de la pizza party de fin de soirée : http://www.kds.fr/
  • suivie d'une brève introduction aux projets Processing et Processing.js, par Grégory.

A partir de 20h, Patrick nous présentera :

  • un aperçu des possibilités de rendu 3D avec Processing(.js): comment modéliser, visualiser et illuminer une scène 3D.
  • Ensuite, après une introduction à WebGL et aux shaders, nous verrons comment adapter un sketch Processing(.js) 3D en WebGL.
  • Dans la dernière partie nous découvrirons une technique de rendu particulière, le raymarching qui se prête bien au prototypage rapide et itératif.
  • Nous terminons par une séance de programmation en direct d'une démo Shadertoy en raymarching (https://www.shadertoy.com).

La soirée s'achèvera par une pizza party, sponsorisée par la société KDS.

Les présentations et démos sont disponibles à l'adresse suivante:

Le code source se trouve sur le GitHub de Patrick :

Workshop autour de la programmation créative

( 16 janvier 2017, au Friends Vaugirard )

Le programme :

Nous débuterons la soirée avec un atelier de découverte du logiciel open source Lilypond, qui est un logiciel de gravure musicale. Cet atelier sera animé par Benjamin.

Nous poursuivrons la soirée avec un atelier autour de P5.js. Je propose, pour démarrer en douceur et pour aider les personnes débutantes, de détailler l'un des sketchs relativement simples que j'ai présentés au NUMA. Nous enchaînerons, pour satisfaire les développeurs plus expérimentés, avec l'implémentation d'algorithmes plus complexes issus de projets Processing, afin d'étudier quelles difficultés on peut rencontrer quand on migre des sketchs de Processing (en Java) vers P5 (en Javascript). S'il nous reste un peu de temps, nous pourrons essayer de coupler P5 avec l'API Webaudio (par exemple via le projet Pizzicato.js d'Alejandro).

Le lien vers le dépôt Github de Grégory (contenant le support PDF de la prez et les sources) :

Pour faire le tour des problèmes de compatibilité relatifs à la norme ES6 (Javascript version 6) :

Atelier de design génératif avec Processing

(20 février 2017, au Friends vaugirard )

C'est Eric Palliet qui sera notre maître de cérémonie, pour une soirée découverte autour du design génératif. Si vous n'avez pas eu la chance d'assister à la présentation qu'Eric avait faite au NUMA en décembre, il faut savoir qu'Eric est "graphic designer" professionnel. Avec sa sensibilité d'artiste et sa longue expérience du design, Eric nous montrera qu'avec très peu de moyens - et avec l'aide de logiciels tels que Processing - il est possible de développer une écriture visuelle riche et complexe…

Du son avec MaxMSP et WebAudio, de l'animation avec P5 et Processing

(5 déc. 2016 , au NUMA)

Le programme de notre soirée du 5 décembre au NUMA :

  • Benjamin nous contera comment il a exploré l'univers musical du compositeur Steve Reich, en s'appuyant sur le logiciel MaxMSP. Benjamin connaît bien le sujet puisqu'il a à son actif un mémoire de Master en musicologie, ayant pour thème la répétition en musique (mémoire dans lequel il comparait les procédés de Steve Reich et des musiques électroniques)

  • pour ma part, je vous expliquerai comment programmer et animer des formes avec P5 et Processing. J'ai intitulé cette session "le cercle dans tous ses états" et vous pourrez le faire en live sur votre machine, avec P5 ou Processing, selon votre préférence.

  • Alejandro Mantecon Guillen, développeur et musicien, est un spécialiste de l'API WebAudio, qu'il nous avait présenté lors d'une précédente session. Il revient approfondir le sujet avec nous. En effet, les navigateurs modernes permettent d'analyser des données audio et proposent des API de visualisation (tels que canvas et webGL). Comment peut-on les utiliser pour créer des visualisations audio dans le browser ? Quelles infos peut-on tirer des fichiers audio avec nos navigateurs ? Ce talk essaiera de répondre à ces questions et de faire découvrir des projets autour de la visualisation de sons.

  • Eric Palliet, graphic designer évoquera l’art génératif, et plus largement l’art numérique, ses précurseurs, en évoquant quelques figures marquantes (Vera Molnar, Manfred Mohr, Jurrian Schroffer, Joseph Nechvatal) et montrera également que cet art peut aussi ne pas être exclusif de techniques classiques du dessin, ce qu’il s’applique à faire dans un travail graphique.

Slide de la prez d'Alejandro :

Lien vers le morceau de Steve Reich dont Benjamin a diffusé la première minute:

En écoute sur le Soundcloud de Benjamin un enregistrement de 10 minutes qu'il a créé avec MaxMSP :

Pour voir et revoir le beau travail de recherche d'Eric Palliet autour de la main, voici le lien :

Eric publie régulièrement de nouveaux travaux sur le site Behance :

Site perso d'Eric :

La prez de Grégory est téléchargeable sur ce dépôt Github :

Rencontre des bourdons codeurs

(14 nov. 2016, au Friends vaugirard)

Nous étions 4 (Eric, Benjamin, Gregor et Grégory). Nous avons parlé de beaucoup de choses, et en particulier des prochains meetups. C'était super cool ;)

Echanger sur P5.js, Processing, Max MSP et Pizzicato.js

(14 juin 2016, chez Mediabox)

Programme de la soirée :

  • Alejandro nous expliquera comment générer des sons à partir d'un navigateur, grâce à l'API WebAudio (API puissante, mais complexe, et plutôt bas niveau). Combinant sa passion pour la musique et le développement JS, Alejandro a développé un projet permettant de rendre l'API WebAudio plus accessible, c'est Pizzicato.js.
  • Emilie Zawadzki est creative coder pour le collectif Petri Waves, et développeuse web depuis 7 ans. Elle a étudié aux Gobelins et à l'Université Paris Sud 11, et suivi des formations à l’Atla et à l’Ircam. Elle nous expliquera comment créer une installation artistique numérique pour traduire visuellement le son d’un instrument de musique, avec les technos Max MSP / Processing. Twitter : @petri_waves Site : http://petriwaves.com/ Nous terminerons avec des pizzas et des boissons, pour échanger, et discuter ensemble du contenu du prochain meetup.
  • Julien Dora viendra nous parler de son expérience concernant l'animation d'atelier d'initiation à la programmation

La Prez d'Alejandro :

Et quelques liens:

About

recensement des présentations réalisées dans le cadre du meetup CreativeCodeParis

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published