Update the blog

This commit is contained in:
Alexis M 2019-11-07 17:16:26 +01:00
parent a3382493be
commit 7b44dbb6fb
148 changed files with 161 additions and 10159 deletions

View file

@ -1,44 +0,0 @@
AMAP + Média = Paniers bio à 5e ?!
##################################
:date: 2009-11-11
:lang: fr
:category: thoughts
Le raccourci me semble un peu rapide. Et pourtant, il est emprunté
bien trop souvent. La dernière *mes-utilisation* que j'ai à décrier
est celle d'un reportage télé, passé sur France 2 vendredi 23
Octobre
(`voir la vidéo <http://docs.notmyidea.org/amap/amap-fr2.avi>`_),
ou on parles de
`l'AMAP étudiante Zest <http://amap.zest.free.fr>`_.
Malgré tout le temps passé à expliquer que justement, l'AMAP c'est
avant tout, pour nous, une notion de solidarité envers les
agriculteurs, malgré le fait que le message soit plus profond que
simplement aller acheter du bio (ça, c'est possible aussi en
supermarché), malgré le fait qu'il s'agisse en fait d'une remise en
cause plus profonde de la société, les journalistes n'ont choisi de
prendre que les quelques secondes qui leurs convenaient, celles qui
ne faisaient pas tache, celle ou je dis que "l'AMAP permet aux
étudiants de réapprendre à cuisiner, plutôt que de manger des
nouilles et de se faire des plats réchauffés". Bien sur, je l'ai
dit et je le pense d'ailleurs, là n'est pas le problème, mais mon
message n'était pas celui là.
Jamais, dans les quelques minutes du reportage, on ne dit ce que
AMAP signifie: Association de **Maintien** d'une Agriculture
**Paysanne**. On ne parles même pas des agriculteurs ! C'est
simplement plus facile pour les étudiants de venir récupérer leurs
paniers, puisque les points de distribution sont sur les facs, et
en plus ça ne coute que 5 euros ! ...
Alors je crois bon de rappeler que L'AMAP n'est pas seulement un
service, c'est un engagement. Sur 5 mois, un engagement solidaire,
c'est la donnée principale de l'équation, celle sans quoi ça ne
peut fonctionner. Par le biais de cette AMAP, on essaye de montrer
que d'autres agricultures sont possibles, que la solidarité c'est
bien réel, et qu'il est possible de sortir du
*tout, tout de suite*.
Mais bon, apparemment, ça passe pas bien à la télé.

View file

@ -1,114 +0,0 @@
Python ? go !
##############
:date: 2009-12-17
:lang: fr
:category: tech
Cela fait maintenant un peu plus d'un mois que je travaille sur un
projet en `django <http://www.djangoproject.org>`_, et que,
nécessairement, je me forme à `Python <http://python.org/>`_. Je
prends un plaisir non dissimulé à découvrir ce langage (et à
l'utiliser), qui ne cesse de me surprendre. Les premiers mots qui
me viennent à l'esprit à propos de Python, sont "logique" et
"simple". Et pourtant puissant pour autant. Je ne manque d'ailleurs
pas une occasion pour faire un peu d'*évangélisation* auprès des
quelques personnes qui veulent bien m'écouter.
The Zen of Python
~~~~~~~~~~~~~~~~~
Avant toute autre chose, je pense utile de citer Tim Peters, et
`le PEP20 <http://www.python.org/dev/peps/pep-0020/>`_, qui
constituent une très bonne introduction au langage, qui prends la
forme d'un *easter egg* présent dans python
.. code-block:: bash
>>> import this
The Zen of Python, by Tim Peters
Beautiful is better than ugly.
Explicit is better than implicit.
Simple is better than complex.
Complex is better than complicated.
Flat is better than nested.
Sparse is better than dense.
Readability counts.
Special cases aren't special enough to break the rules.
Although practicality beats purity.
Errors should never pass silently.
Unless explicitly silenced.
In the face of ambiguity, refuse the temptation to guess.
There should be one-- and preferably only one --obvious way to do it.
Although that way may not be obvious at first unless you're Dutch.
Now is better than never.
Although never is often better than *right* now.
If the implementation is hard to explain, it's a bad idea.
If the implementation is easy to explain, it may be a good idea.
Namespaces are one honking great idea -- let's do more of those!
J'ai la vague impression que c'est ce que j'ai toujours cherché à
faire en PHP, et particulièrement dans
`le framework Spiral <http://www.spiral-project.org>`_, mais en
ajoutant ces concepts dans une sur-couche au langage. Ici, c'est
directement de *l'esprit* de python qu'il s'agit, ce qui signifie
que la plupart des bibliothèques python suivent ces concepts. Elle
est pas belle la vie ?
Comment commencer, et par ou ?
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Pour ma part, j'ai commencé par la lecture de quelques livres et
articles intéressants, qui constituent une bonne entrée en matière
sur le sujet (La liste n'est bien évidemment pas exhaustive et vos
commentaires sont les bienvenus) :
- `Dive into python <http://diveintopython.adrahon.org/>`_
- `A byte of python <http://www.swaroopch.com/notes/Python_fr:Table_des_Matières>`_
- `Python: petit guide à l'usage du développeur agile <http://www.amazon.fr/Python-Petit-guide-lusage-développeur/dp/2100508830>`_
de `Tarek Ziadé <http://tarekziade.wordpress.com/>`_
- `La documentation officielle python <http://docs.python.org/index.html>`_,
bien sûr !
- `Les vidéos du pyconfr 2009 <http://video.pycon.fr/videos/pycon-fr-2009/>`_!
- Un peu de temps, et une console python ouverte :)
J'essaye par ailleurs de partager au maximum les ressources que je
trouve de temps à autres, que ce soit
`via twitter <http://www.twitter.com/ametaireau>`_ ou
`via mon compte delicious <http://delicious.com/ametaireau>`_.
Allez jeter un œil
`au tag python <http://delicious.com/ametaireau/python>`_ sur mon
profil, peut être que vous trouverez des choses intéressantes, qui
sait!
Un python sexy
~~~~~~~~~~~~~~
Quelques fonctionnalités qui devraient vous mettre l'eau à la
bouche:
- `Le chaînage des opérateurs de comparaison <http://docs.python.org/library/stdtypes.html#comparisons>`_
est possible (a<b <c dans une condition)
- Assignation de valeurs multiples (il est possible de faire a,b,c
= 1,2,3 par exemple)
- `Les listes <http://docs.python.org/tutorial/datastructures.html>`_
sont simples à manipuler !
- Les `list comprehension <http://docs.python.org/tutorial/datastructures.html#list-comprehensions>`_,
ou comment faire des opérations complexes sur les listes, de
manière simple.
- Les
`doctests <http://docs.python.org/library/doctest.html?highlight=doctest>`_:
ou comment faire des tests directement dans la documentation de vos
classes, tout en la documentant avec de vrais exemples.
- Les
`métaclasses <http://www.python.org/doc/essays/metaclasses/meta-vladimir.txt>`_,
ou comment contrôler la manière dont les classes se construisent
- Python est
`un langage à typage fort dynamique <http://wiki.python.org/moin/Why%20is%20Python%20a%20dynamic%20language%20and%20also%20a%20strongly%20typed%20language>`_:
c'est ce qui m'agaçait avec PHP qui est un langage à typage faible
dynamique.
Cous pouvez également aller regarder
`l'atelier donné par Victor Stinner durant le Pyconfr 09 <http://video.pycon.fr/videos/free/53/>`_.
Have fun !

View file

@ -1,50 +0,0 @@
Semaine de lenvironnement: La consommation étudiante
#####################################################
:date: 2010-02-24
:lang: fr
:category: thoughts
Les acteurs associatifs sont bien souvent moteurs des critiques de nos sociétés. Je pense à `Framasoft <http://www.framasoft.net/>`_, à `la Quadrature du net <http://www.laquadrature.net/>`_ ou à `Ars Industrialis <http://www.arsindustrialis.org/>`_ (dans le domaine de la science et de l'informatique), mais aussi `aux Amis de la Terre <http://www.amisdelaterre.org/>`_, à `ATTAC <http://www.attac.org/>`_ (dans le domaine de l'environnement entres autres), et a tout un tas d'autres associations que je ne peux pas citer ici exhaustivement... Ce sont eux qui sont porteurs de messages alternatifs, et qui sont les initiateurs de débats publics, qui permettent de faire avancer des thématiques aussi importantes que le logiciel libre ou la protection de l'environnement.
Dans cette optique, depuis près de 3 ans (déjà !), au sein du
`réseau GRAPPE <http://www.reseaugrappe.org>`_, on *essaye*
d'aborder des thématiques qui touchent de près ou de loin à
l'environnement, parce que c'est un sujet qui nous importe et nous
passionne. L'année dernière, c'était l'alimentation étudiante, ce
qui à abouti à la publication de
`la revue "les étudiants se mettent à table" <http://public.reseaugrappe.org/alimentation.pdf>`_.
Cette année c'est la consommation étudiante qui est au programme.
La consommation étudiante ?
~~~~~~~~~~~~~~~~~~~~~~~~~~~
L'idée principale de cette étude est de tenter de faire une analyse
de la "société de consommation", souvent questionnée par les
étudiants et par d'autres, et de jeter un œil sur le rapport des
étudiants à cette société: Quoi et comment consomment-ils ? Les
universités et les écoles ne poussent-elles pas dune certaine
manière les étudiants à la consommation ? Quelles sont les
alternatives face aux dérives de surconsommation ?
Analyse des pratiques, réflexions et mobilisations des étudiants en
termes de consommation seront réalisés pour comprendre leur modes
de vie, mais aussi leurs attentes, leurs propositions sur cette
thématique
La semaine de l'environnement !
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
A travers l'ensemble des villes du réseau,
des projections de films et des débats auront donc lieu sur ce
thème, lors de la semaine de l'environnement 2010, qui se déroulera
d'ailleurs durant le mois de Mars
`partout en france <http://www.reseaugrappe.org/la-semaine-de-lenvironnement-programme/>`_,
et **du 6 au 14 Mars sur Toulouse**.
`Jetez un oeil au programme <http://docs.notmyidea.org/sde/prog-toulouse.pdf>`_
! Avec pour objectif de sonder un peu le ressenti des étudiants en
terme de consommation, nous avons mis en place
`un questionnaire en ligne <http://spreadsheets.google.com/viewform?formkey=dHV2bVllS2lWbzhyV3NBN3NUbi1TM2c6MA>`_,
que vous pouvez compléter en une petite 10aine de minutes,
n'hésitez pas !
`La page sur la consommation étudiante sur le site du GRAPPE <http://www.reseaugrappe.org/consommation/>`_

View file

@ -1,73 +0,0 @@
Le temps des grâces, courrez-y !
################################
:date: 2010-03-28
:lang: fr
:category: thoughts
Ouf, notre
`semaine de l'environnement <http://www.reseaugrappe.org>`_ s'est
terminée, après un peu de neige et un brin de soleil quand il en
fallait.
Ce fut l'occasion de rencontrer beaucoup de gens biens, et
de regarder d'un peu plus près toutes ces problématiques qui
mériteraient à elles seules, chacune un billet. Après un répis
d'une semaine, pour récupérer des folies organisatrices (c'est ça
qui fait du bien, ceci dit -- les folies, pas le repos), je me
retrouve de nouveau sur ces mêms réflexions, grâce aux journées
organisées par
`France Nature Environnement <http://www.fne.asso.fr/>`_, qui
proposaient ce jeudi soir une projection de "Le temps des grâces",
un documentaire sur l'agriculture.
Parce que depuis 60 ans, il est pratiqué le remembrement des
parcelles à gogo, parce que nos sols deviennent completement morts
à cause des tonnes d'intrants qu'on leur fait absorber, et parce
que les exploitations s'agrandissent sans en finir pour tenter de
réagir façe à un marché financier toujours plus insaisissable, mené
de très loin par la PAC, il fallait un film pour en parler. C'est
ce que fait "le temps des grâçes", avec un bon sens et une facilité
à faire passer des messages, qu'on ne peut qu'applaudir.
Malheureusement il s'agissait de la dernière diffusion à
`L'Utopia de Toulouse <http://www.cinemas-utopia.org/toulouse/>`_...
Si vous en avez l'occasion, sautez dessus et profitez le temps de
ces 2 heures, ou vous pourrez écouter à la fois des discours
d'agronomes, d'agriculteurs, de chercheurs et bien d'autres, qui
dressent un constat pas si brillant de notre agriculture. On n'est
pas sorti de l'auberge, enfin, c'est l'expression.
Je vous laisse avec le synopsis et une bande annonce.
Une enquête documentaire sur
le monde agricole français aujourd'hui à travers de nombreux récits
: agriculteurs, chercheurs, agronomes, écrivains... Un monde qui
parvient à résister aux bouleversements qui le frappent -
économiques, scientifiques, sociaux - et qui, bon gré mal gré,
continue d'entretenir les liens entre générations. Un monde au
centre d'interrogations majeures sur l'avenir.
Ainsi qu'un commentaire que je ne peux m'empécher de relayer,
trouvé sur allocine.fr (oui, vous savez, ce site rempli de pubs).
Le temps des grâces c'est je pense le plus grand film traitant de
l'écologie en tant que documentaire ou en sujet principal, on y
apprend une multitude de choses, on en ressort en colère contre le
système, le film propose différents points de vues, ici on a pas de
voix off moralisatrice à deux balles avec des gros titres bien
surlignés pour que même les beaufs matant TF1 puissent comprendre,
ici même si ça reste accessible au citoyen lambda, le film ne fait
pas de compromis avec le monde agroalimentaire, il ose dénoncer les
filière d'agronomie qui apprennent pas les bonnes choses à leurs
étudiants, aux lobbys de cette agro-industrie qui n'en fait qu'à sa
tête pour amasser de l'argent, cette tendance à tout uniformiser et
détruire… Franchement j'ai trouvé ça génial de bout en bout,
captivant, on explore cette campagne française, on comprend les
dilemmes des paysants. Le film n'étant pas opposé à la modernité,
ni même réactionnaire, il propose juste un constat alarmant du
monde agricole français, tout en proposant des alternatives qui
pourraient être utilisée, si les pouvoirs publics lâchaient un peu
la main des lobbys. Passionnant, vraiment.
Courrez-y, je vous dis.

View file

@ -1,38 +0,0 @@
A Distutils2 GSoC
#################
:date: 2010-05-01
:category: tech
WOW. I've been accepted to be a part of the
`Google Summer Of Code <http://code.google.com/intl/fr/soc/>`_
program, and will work on `python <http://python.org/>`_
`distutils2 <http://hg.python.org/distutils2/>`_, with
`a <http://pygsoc.wordpress.com/>`_
`lot <http://konryd.blogspot.com/>`_ `of <http://ziade.org/>`_
(intersting!) `people <http://zubin71.wordpress.com/>`_.
So, it's about building the successor of Distutils2, ie. "the
python package manager". Today, there is too many ways to package a
python application (pip, setuptools, distribute, distutils, etc.)
so there is a huge effort to make in order to make all this
packaging stuff interoperable, as pointed out by
the `PEP 376 <http://www.python.org/dev/peps/pep-0376/>`_.
In more details, I'm going to work on the Installer / Uninstaller
features of Distutils2, and on a PyPI XML-RPC client for distutils2.
Here are the already defined tasks:
- Implement Distutils2 APIs described in PEP 376.
- Add the uninstall command.
- think about a basic installer / uninstaller script. (with deps)
-- similar to pip/easy\_install
- in a pypi subpackage;
- Integrate a module similar to setuptools' package\_index'
- PyPI XML-RPC client for distutils 2:
http://bugs.python.org/issue8190
As I'm relatively new to python, I'll need some extra work in order
to apply all good practice, among other things that can make a
developper-life joyful. I'll post here, each week, my advancement,
and my tought about python and especialy python packaging world.

View file

@ -1,87 +0,0 @@
first week working on distutils2
#################################
:date: 2010-06-04
:category: tech
As I've been working on
`Distutils2 <http://hg.python.org/distutils2/>`_ during the past
week, taking part of the
`GSOC <http://code.google.com/intl/fr/soc/>`_ program, here is a
short summary of what I've done so far.
As my courses are not over yet, I've not worked as much as I
wanted, and this will continues until the end of June. My main
tasks are about making installation and uninstallation commands, to
have a simple way to install distributions via
`Distutils2 <http://hg.python.org/distutils2/>`_.
To do this, we need to rely on informations provided by the Python
Package Index (`PyPI <http://pypi.python.org/>`_), and there is at
least two ways to retreive informations from here: XML-RPC and the
"simple" API.
So, I've been working on porting some
`Distribute <http://bitbucket.org/tarek/distribute/>`_ related
stuff to `Distutils2 <http://hg.python.org/distutils2/>`_, cutting
off all non distutils' things, as we do not want to depend from
Distribute's internals. My main work has been about reading the
whole code, writing tests about this and making those tests
possible.
In fact, there was a need of a pypi mocked server, and, after
reading and introducing myself to the distutils behaviors and code,
I've taken some time to improve the work
`Konrad <http://bitbucket.org/konrad>`_ makes about this mock.
A PyPI Server mock
~~~~~~~~~~~~~~~~~~
The mock is embeded in a thread, to make it available during the
tests, in a non blocking way. We first used
`WSGI <http://wsgi.org>`_ and
`wsgiref <http://docs.python.org/library/wsgiref.html>`_ in order
control what to serve, and to log the requests made to the server,
but finally realised that
`wsgiref <http://docs.python.org/library/wsgiref.html>`_ is not
python 2.4 compatible (and we *need* to be python 2.4 compatible in
Distutils2).
So, we switched to
`BaseHTTPServer <http://docs.python.org/library/basehttpserver.html>`_
and
`SimpleHTTPServer <http://docs.python.org/library/simplehttpserver.html>`_,
and updated our tests accordingly. It's been an opportunity to
realize that `WSGI <http://wsgi.org>`_ has been a great step
forward for making HTTP servers, and expose a really simplest way
to discuss with HTTP !
You can find
`the modifications I made <http://bitbucket.org/ametaireau/distutils2/changesets>`_,
and the
`related docs <http://bitbucket.org/ametaireau/distutils2/src/tip/docs/source/test_framework.rst>`_
about this on
`my bitbucket distutils2 clone <http://bitbucket.org/ametaireau/distutils2/>`_.
The PyPI Simple API
~~~~~~~~~~~~~~~~~~~
So, back to the main problematic: make a python library to access
and request information stored on PyPI, via the simple API. As I
said, I've just grabbed the work made from
`Distribute <http://bitbucket.org/tarek/distribute/>`_, and played
a bit with, in order to view what are the different use cases, and
started to write the related tests.
The work to come
~~~~~~~~~~~~~~~~
So, once all use cases covered with tests, I'll rewrite a bit the
grabbed code, and do some software design work (to not expose all
things as privates methods, have a clear API, and other things like
this), then update the tests accordingly and write a documentation
to make this clear.
Next step is to a little client, as I've
`already started here <http://github.com/ametaireau/pypiclient>`_
I'll take you updated !

View file

@ -1,35 +0,0 @@
Use Restructured Text (ReST) to power your presentations
#########################################################
:date: 2010-06-25
:category: tech
Wednesday, we give a presentation, with some friends, about the
CouchDB Database, to
`the Toulouse local LUG <http://www.toulibre.org>`_. Thanks a lot
to all the presents for being there, it was a pleasure to talk
about this topic with you. Too bad the season is over now an I quit
Toulouse next year.
During our brainstorming about the topic, we
used some paper, and we wanted to make a presentation the simpler
way. First thing that come to my mind was using
`restructured text <http://docutils.sourceforge.net/rst.html>`_, so
I've wrote a simple file containing our different bullet points. In
fact, there is quite nothing to do then, to have a working
presentation.
So far, I've used
`the rst2pdf program <http://code.google.com/p/rst2pdf/>`_, and a
simple template, to generate output. It's probably simple to have
similar results using latex + beamer, I'll try this next time, but
as I'm not familiar with latex syntax, restructured text was a
great option.
Here are
`the final PDF output <http://files.lolnet.org/alexis/rst-presentations/couchdb/couchdb.pdf>`_,
`Rhe ReST source <http://files.lolnet.org/alexis/rst-presentations/couchdb/couchdb.rst>`_,
`the theme used <http://files.lolnet.org/alexis/rst-presentations/slides.style>`_,
and the command line to generate the PDF::
rst2pdf couchdb.rst -b1 -s ../slides.style

View file

@ -1,150 +0,0 @@
Introducing the distutils2 index crawlers
##########################################
:date: 2010-07-06
:category: tech
I'm working for about a month for distutils2, even if I was being a
bit busy (as I had some class courses and exams to work on)
I'll try do sum-up my general feelings here, and the work I've made
so far. You can also find, if you're interested, my weekly
summaries in
`a dedicated wiki page <http://wiki.notmyidea.org/distutils2_schedule>`_.
General feelings
~~~~~~~~~~~~~~~~
First, and it's a really important point, the GSoC is going very
well, for me as for other students, at least from my perspective.
It's a pleasure to work with such enthusiast people, as this make
the global atmosphere very pleasant to live.
First of all, I've spent time to read the existing codebase, and to
understand what we're going to do, and what's the rationale to do
so.
It's really clear for me now: what we're building is the
foundations of a packaging infrastructure in python. The fact is
that many projects co-exists, and comes all with their good
concepts. Distutils2 tries to take the interesting parts of all,
and to provide it in the python standard libs, respecting the
recently written PEP about packaging.
With distutils2, it will be simpler to make "things" compatible. So
if you think about a new way to deal with distributions and
packaging in python, you can use the Distutils2 APIs to do so.
Tasks
~~~~~
My main task while working on distutils2 is to provide an
installation and an un-installation command, as described in PEP
376. For this, I first need to get informations about the existing
distributions (what's their version, name, metadata, dependencies,
etc.)
The main index, you probably know and use, is PyPI. You can access
it at `http://pypi.python.org <http://pypi.python.org>`_.
PyPI index crawling
~~~~~~~~~~~~~~~~~~~
There is two ways to get these informations from PyPI: using the
simple API, or via xml-rpc calls.
A goal was to use the version specifiers defined
in`PEP 345 <http://www.python.org/dev/peps/pep-0345/>`_ and to
provides a way to sort the grabbed distributions depending our
needs, to pick the version we want/need.
Using the simple API
--------------------
The simple API is composed of HTML pages you can access at
`http://pypi.python.org/simple/ <http://pypi.python.org/simple/>`_.
Distribute and Setuptools already provides a crawler for that, but
it deals with their internal mechanisms, and I found that the code
was not so clear as I want, that's why I've preferred to pick up
the good ideas, and some implementation details, plus re-thinking
the global architecture.
The rules are simple: each project have a dedicated page, which
allows us to get informations about:
- the distribution download locations (for some versions)
- homepage links
- some other useful informations, as the bugtracker address, for
instance.
If you want to find all the distributions of the "EggsAndSpam"
project, you could do the following (do not take so attention to
the names here, as the API will probably change a bit):
.. code-block:: python
>>> index = SimpleIndex()
>>> index.find("EggsAndSpam")
[EggsAndSpam 1.1, EggsAndSpam 1.2, EggsAndSpam 1.3]
We also could use version specifiers:
.. code-block:: python
>>> index.find("EggsAndSpam (< =1.2)")
[EggsAndSpam 1.1, EggsAndSpam 1.2]
Internally, what's done here is the following:
- it process the
`http://pypi.python.org/simple/FooBar/ <http://pypi.python.org/simple/FooBar/>`_
page, searching for download URLs.
- for each found distribution download URL, it creates an object,
containing informations about the project name, the version and the
URL where the archive remains.
- it sort the found distributions, using version numbers. The
default behavior here is to prefer source distributions (over
binary ones), and to rely on the last "final" distribution (rather
than beta, alpha etc. ones)
So, nothing hard or difficult here.
We provides a bunch of other features, like relying on the new PyPI
mirroring infrastructure or filter the found distributions by some
criterias. If you're curious, please browse the
`distutils2 documentation <http://distutils2.notmyidea.org/>`_.
Using xml-rpc
-------------
We also can make some xmlrpc calls to retreive informations from
PyPI. It's a really more reliable way to get informations from from
the index (as it's just the index that provides the informations),
but cost processes on the PyPI distant server.
For now, this way of querying the xmlrpc client is not available on
Distutils2, as I'm working on it. The main pieces are already
present (I'll reuse some work I've made from the SimpleIndex
querying, and
`some code already set up <http://github.com/ametaireau/pypiclient>`_),
what I need to do is to provide a xml-rpc PyPI mock server, and
that's on what I'm actually working on.
Processes
~~~~~~~~~
For now, I'm trying to follow the "documentation, then test, then
code" path, and that seems to be really needed while working with a
community. Code is hard to read/understand, compared to
documentation, and it's easier to change.
While writing the simple index crawling work, I must have done this
to avoid some changes on the API, and some loss of time.
Also, I've set up
`a schedule <http://wiki.notmyidea.org/distutils2_schedule>`_, and
the goal is to be sure everything will be ready in time, for the
end of the summer. (And now, I need to learn to follow schedules
...)

View file

@ -1,92 +0,0 @@
Sprinting on distutils2 in Tours
################################
:date: 2010-07-06
:category: tech
Yesterday, as I was traveling to Tours, I've took some time to
visit Éric, another student who's working on distutils2 this
summer, as a part of the GSoC. Basically, it was to take a drink,
discuss a bit about distutils2, our respective tasks and general
feelings, and to put a face on a pseudonym. I'd really enjoyed this
time, because Éric knows a lot of things about mercurial and python
good practices, and I'm eager to learn about those. So, we have
discussed about things, have not wrote so much code, but have some
things to propose so far, about documentation, and I also provides
here some bribes of conversations we had.
Documentation
~~~~~~~~~~~~~
While writing the PyPI simple index crawler documentation, I
realized that we miss some structure, or how-to about the
documentation. Yep, you read well. We lack documentation on how to
make documentation. Heh. We're missing some rules to follow, and
this lead to a not-so-structured final documentation. We probably
target three type of publics, and we can split the documentation
regarding those:
- **Packagers** who want to distribute their softwares.
- **End users** who need to understand how to use end user
commands, like the installer/uninstaller
- **packaging coders** who *use* distutils2, as a base for
building a package manager.
We also need to discuss about a pattern to follow while writing
documentation. How many parts do we need ? Where to put the API
description ? etc. That's maybe seems to be not so important, but I
guess the readers would appreciate to have the same structure all
along distutils2 documentation.
Mercurial
~~~~~~~~~
I'm really *not* a mercurial power user. I use it on daily basis,
but I lack of basic knowledge about it. Big thanks Éric for sharing
yours with me, you're of a great help. We have talked about some
mercurial extensions that seems to make the life simpler, while
used the right way. I've not used them so far, so consider this as
a personal note.
- hg histedit, to edit the history
- hg crecord, to select the changes to commit
We have spent some time to review a merge I made sunday, to
re-merge it, and commit the changes as a new changeset. Awesome.
These things make me say I **need** to read
`the hg book <http://hgbook.red-bean.com/read/>`_, and will do as
soon as I got some spare time: mercurial seems to be simply great.
So ... Great. I'm a powerful merger now !
On using tools
~~~~~~~~~~~~~~
Because we *also* are *hackers*, we have shared a bit our ways to
code, the tools we use, etc. Both of us were using vim, and I've
discovered vimdiff and hgtk, which will completely change the way I
navigate into the mercurial history. We aren't "power users", so we
have learned from each other about vim tips. You can find
`my dotfiles on github <http://github.com/ametaireau/dotfiles>`_,
if it could help. They're not perfect, and not intended to be,
because changing all the time, as I learn. Don't hesitate to have a
look, and to propose enhancements if you have !
On being pythonic
~~~~~~~~~~~~~~~~~
My background as an old Java user disserves me so far, as the
paradigms are not the same while coding in python. Hard to find the
more pythonic way to do, and sometimes hard to unlearn my way to
think about software engineering. Well, it seems that the only
solution is to read code, and to re-read import this from times to
times !
`Coding like a pythonista <http://python.net/~goodger/projects/pycon/2007/idiomatic/handout.html>`_
seems to be a must-read, so, I know what to do.
Conclusion
~~~~~~~~~~
It was really great. Next time, we'll need to focus a bit more on
distutils2, and to have a bullet list of things to do, but days
like this one are opportunities to catch ! We'll probably do
another sprint in a few weeks, stay tuned !

View file

@ -1,175 +0,0 @@
An amazing summer of code working on distutils2
###############################################
:date: 2010-08-16
:category: tech
The `Google Summer of Code <http://code.google.com/soc/>`_ I've
spent working on `distutils2 <http://hg.python.org/distutils2/>`_
is over. It was a really amazing experience, for many reasons.
First of all, we had a very good team, we were 5 students working
on distutils2: `Zubin <http://zubin71.wordpress.com>`_,
`Éric <http://wokslog.wordpress.com/>`_,
`Josip <http://gsoc.djolonga.com/>`_,
`Konrad <http://konryd.blogspot.com/>`_ and me. In addition,
`Mouad <http://mouadino.blogspot.com/>`_ have worked on the PyPI
testing infrastructure. You could find what each person have done
on
`the wiki page of distutils2 <http://bitbucket.org/tarek/distutils2/wiki/GSoC_2010_teams>`_.
We were in contact with each others really often, helping us when
possible (in #distutils), and were continuously aware of the state
of the work of each participant. This, in my opinion, have bring us
in a good shape.
Then, I've learned a lot. Python packaging was completely new to me
at the time of the GSoC start, and I was pretty unfamiliar with
python good practices too, as I've been introducing myself to
python in the late 2009.
I've recently looked at some python code I wrote just three months
ago, and I was amazed to think about many improvements to made on
it. I guess this is a good indicator of the path I've traveled
since I wrote it.
This summer was awesome because I've learned about python good
practices, now having some strong
`mercurial <http://mercurial.selenic.com/>`_ knowledge, and I've
seen a little how the python community works.
Then, I would like to say a big thanks to all the mentors that have
hanged around while needed, on IRC or via mail, and especially my
mentor for this summer, `Tarek Ziadé <http://tarek.ziade.org>`_.
Thanks a lot for your motivation, your leadership and your
cheerfulness, even with a new-born and a new work!
Why ?
-----
I wanted to work on python packaging because, as the time pass, we
were having a sort of complex tools in this field. Each one wanted
to add features to distutils, but not in a standard way.
Now, we have PEPs that describes some format we agreed on (see PEP
345), and we wanted to have a tool on which users can base their
code on, that's `distutils2 <http://hg.python.org/distutils2/>`_.
My job
------
I had to provide a way to crawl the PyPI indexes in a simple way,
and do some installation / uninstallation scripts.
All the work done is available in
`my bitbucket repository <http://bitbucket.org/ametaireau/distutils2/>`_.
Crawling the PyPI indexes
~~~~~~~~~~~~~~~~~~~~~~~~~
There are two ways of requesting informations from the indexes:
using the "simple" index, that is a kind of REST index, and using
XML-RPC.
I've done the two implementations, and a high level API to query
those twos. Basically, this supports the mirroring infrastructure
defined in PEP 381. So far, the work I've done is gonna be used in
pip (they've basically copy/paste the code, but this will change as
soon as we get something completely stable for distutils2), and
that's a good news, as it was the main reason for what I've done
that.
I've tried to have an unified API for the clients, to switch from
one to another implementation easily. I'm already thinking of
adding others crawlers to this stuff, and it was made to be
extensible.
If you want to get more informations about the crawlers/PyPI
clients, please refer to the distutils2 documentation, especially
`the pages about indexes <http://distutils2.notmyidea.org/library/distutils2.index.html>`_.
You can find the changes I made about this in the
`distutils2 <http://hg.python.org/distutils2/>`_ source code .
Installation / Uninstallation scripts
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Next step was to think about an installation script, and an
uninstaller. I've not done the uninstaller part, and it's a smart
part, as it's basically removing some files from the system, so
I'll probably do it in a near future.
`distutils2 <http://hg.python.org/distutils2/>`_ provides a way to
install distributions, and to handle dependencies between releases.
For now, this support is only about the last version of the
METADATA (1.2) (See, the PEP 345), but I'm working on a
compatibility layer for the old metadata, and for the informations
provided via PIP requires.txt, for instance.
Extra work
~~~~~~~~~~
Also, I've done some extra work. this includes:
- working on the PEP 345, and having some discussion about it
(about the names of some fields).
- writing a PyPI server mock, useful for tests. you can find more
information about it on the
`documentation <http://distutils.notmyidea.org>`_.
Futures plans
-------------
As I said, I've enjoyed working on distutils2, and the people I've
met here are really pleasant to work with. So I *want* to continue
contributing on python, and especially on python packaging, because
there is still a lot of things to do in this scope, to get
something really usable.
I'm not plainly satisfied by the work I've done, so I'll probably
tweak it a bit: the installer part is not yet completely finished,
and I want to add support for a real
`REST <http://en.wikipedia.org/wiki/Representational_State_Transfer>`_
index in the future.
We'll talk again of this in the next months, probably, but we
definitely need a real
`REST <http://en.wikipedia.org/wiki/Representational_State_Transfer>`_
API for `PyPI <http://pypi.python.org>`_, as the "simple" index
*is* an ugly hack, in my opinion. I'll work on a serious
proposition about this, maybe involving
`CouchDB <http://couchdb.org>`_, as it seems to be a good option
for what we want here.
Issues
------
I've encountered some issues during this summer. The main one is
that's hard to work remotely, especially being in the same room
that we live, with others. I like to just think about a project
with other people, a paper and a pencil, no computers. This have
been not so possible at the start of the project, as I needed to
read a lot of code to understand the codebase, and then to
read/write emails.
I've finally managed to work in an office, so good point for
home/office separation.
I'd not planned there will be so a high number of emails to read,
in order to follow what's up in the python world, and be a part of
the community seems to takes some times to read/write emails,
especially for those (like me) that arent so confortable with
english (but this had brought me some english fu !).
Thanks !
--------
A big thanks to `Graine Libre <http://www.graine-libre.fr/>`_ and
`Makina Corpus <http://www.makina-corpus.com/>`_, which has offered
me to come into their offices from time to time, to share they
cheerfulness ! Many thanks too to the Google Summer of Code program
for setting up such an initiative. If you're a student, if you're
interested about FOSS, dont hesitate any second, it's a really good
opportunity to work on interesting projects!

View file

@ -1,61 +0,0 @@
How to reboot your bebox using the CLI
######################################
:date: 2010-10-21
:category: tech
I've an internet connection which, for some obscure reasons, tend to be very
slow from time to time. After rebooting the box (yes, that's a hard solution),
all the things seems to go fine again.
EDIT : Using grep
=================
After a bit of reflexion, that's also really easy to do using directly the
command line tools curl, grep and tail (but really harder to read).
.. code-block:: bash
curl -X POST -u joel:joel http://bebox.config/cgi/b/info/restart/\?be\=0\&l0\=1\&l1\=0\&tid\=RESTART -d "0=17&2=`curl -u joel:joel http://bebox.config/cgi/b/info/restart/\?be\=0\&l0\=1\&l1\=0\&tid\=RESTART | grep -o "name='2' value='[0-9]\+" | grep -o "[0-9]\+" | tail -n 1`&1"
The Python version
==================
Well, that's not the optimal solution, that's a bit "gruik", but it works.
.. code-block:: python
import urllib2
import urlparse
import re
import argparse
REBOOT_URL = '/b/info/restart/?be=0&l0=1&l1=0&tid=RESTART'
BOX_URL = 'http://bebox.config/cgi'
def open_url(url, username, password):
passman = urllib2.HTTPPasswordMgrWithDefaultRealm()
passman.add_password(None, url, username, password)
authhandler = urllib2.HTTPBasicAuthHandler(passman)
opener = urllib2.build_opener(authhandler)
urllib2.install_opener(opener)
return urllib2.urlopen(url).read()
def reboot(url, username, password):
data = open_url(url, username, password)
token = re.findall("name\=\\'2\\' value=\\'([0-9]+)\\'", data)[1]
urllib2.urlopen(urllib2.Request(url=url, data='0=17&2=%s&1' % token))
if __file__ == '__main__':
parser = argparse.ArgumentParser(description="""Reboot your bebox !""")
parser.add_argument(dest='user', help='username')
parser.add_argument(dest='password', help='password')
parser.add_argument(boxurl='boxurl', default=BOX_URL, help='Base box url. Default is %s' % BOX_URL)
args = parser.parse_args()
url = urlparse.urljoin(args.boxurl, REBOOT_URL)
reboot(url, args.username, args.password)

View file

@ -1,59 +0,0 @@
Dynamically change your gnome desktop wallpaper
###############################################
:date: 2010-10-11
:category: tech
In gnome, you can can use a XML file to have a dynamic wallpaper.
It's not so easy, and you can't just tell: use the pictures in this folder to do
so.
You can have a look to the git repository if you want: http://github.com/ametaireau/gnome-background-generator
Some time ago, I've made a little python script to ease that, and you can now
use it too. It's named "gnome-background-generator", and you can install it via
pip for instance.
.. code-block:: shell
$ pip install gnome-background-generator
Then, you have just to use it this way:
.. code-block:: shell
$ gnome-background-generator -p ~/Images/walls -s
/home/alexis/Images/walls/dynamic-wallpaper.xml generated
Here is a extract of the `--help`:
.. code-block:: shell
$ gnome-background-generator --help
usage: gnome-background-generator [-h] [-p PATH] [-o OUTPUT]
[-t TRANSITION_TIME] [-d DISPLAY_TIME] [-s]
[-b]
A simple command line tool to generate an XML file to use for gnome
wallpapers, to have dynamic walls
optional arguments:
-h, --help show this help message and exit
-p PATH, --path PATH Path to look for the pictures. If no output is
specified, will be used too for outputing the dynamic-
wallpaper.xml file. Default value is the current
directory (.)
-o OUTPUT, --output OUTPUT
Output filename. If no filename is specified, a
dynamic-wallpaper.xml file will be generated in the
path containing the pictures. You can also use "-" to
display the xml in the stdout.
-t TRANSITION_TIME, --transition-time TRANSITION_TIME
Time (in seconds) transitions must last (default value
is 2 seconds)
-d DISPLAY_TIME, --display-time DISPLAY_TIME
Time (in seconds) a picture must be displayed. Default
value is 900 (15mn)
-s, --set-background '''try to set the background using gnome-appearance-
properties
-b, --debug

View file

@ -1,57 +0,0 @@
How to install NGINX + PHP 5.3 on FreeBSD.
##########################################
:date: 2010-10-10
:category: tech
I've not managed so far to get completely rid of php, so here's a simple
reminder about how to install php on NGINX, for FreeBSD. Nothing hard, but
that's worse to have the piece of configuration somewhere !
::
# update the ports
$ portsnap fetch update
# install php5 port
$ make config-recursive -C /usr/ports/lang/php5-extensions
$ make package-recursive -C /usr/ports/lang/php5-extensions
# install nginx
$ make config-recursive -C /usr/ports/www/nginx-devel
$ make package-recursive -C /usr/ports/www/nginx-devel
Now we have all the dependencies installed, we need to configure a bit the
server.
That's a simple thing in fact, but it could be good to have something that will
work without effort over time.
Here's a sample of my configuration::
server {
server_name ndd;
set $path /path/to/your/files;
root $path;
location / {
index index.php;
}
location ~* ^.+.(jpg|jpeg|gif|css|png|js|ico|xml)$ {
access_log off;
expires 30d;
}
location ~ .php$ {
fastcgi_param SCRIPT_FILENAME $path$fastcgi_script_name;
fastcgi_pass backend;
include fastcgi_params;
}
}
upstream backend {
server 127.0.0.1:9000;
}
And that's it !

View file

@ -1,84 +0,0 @@
Pelican, a simple static blog generator in python
#################################################
:date: 2010-10-06
:category: tech
Those days, I've wrote a little python application to fit my blogging needs.
I'm an occasional blogger, a vim lover, I like restructured text and DVCSes, so
I've made a little tool that makes good use of all that.
Pelican_ (for calepin) is just a simple tool to generate your blog as static
files, letting you using your editor of choice (vim!). It's easy to extend,
and has a template support (via jinja2).
I've made it to fit *my* needs. I hope it will fit yours, but maybe it wont, and
it have not be designed to feet everyone's needs.
Need an example ? You're looking at it ! This weblog is using pelican to be
generated, also for the atom feeds.
I've released it under AGPL, since I want all the modifications to be profitable
to all the users.
You can find a repository to fork at https://github.com/getpelican/pelican/.
feel free to hack it !
If you just want to get started, use your installer of choice (pip, easy_install, …)
And then have a look to the help (`pelican --help`)
.. code-block:: bash
$ pip install pelican
Usage
======
Here's a sample usage of pelican
.. code-block:: bash
$ pelican .
writing /home/alexis/projets/notmyidea.org/output/index.html
writing /home/alexis/projets/notmyidea.org/output/tags.html
writing /home/alexis/projets/notmyidea.org/output/categories.html
writing /home/alexis/projets/notmyidea.org/output/archives.html
writing /home/alexis/projets/notmyidea.org/output/category/python.html
writing
/home/alexis/projets/notmyidea.org/output/pelican-a-simple-static-blog-generator-in-python.html
Done !
You also can use the `--help` option for the command line to get more
informations
.. code-block:: bash
$pelican --help
usage: pelican [-h] [-t TEMPLATES] [-o OUTPUT] [-m MARKUP] [-s SETTINGS] [-b]
path
A tool to generate a static blog, with restructured text input files.
positional arguments:
path Path where to find the content files (default is
"content").
optional arguments:
-h, --help show this help message and exit
-t TEMPLATES, --templates-path TEMPLATES
Path where to find the templates. If not specified,
will uses the ones included with pelican.
-o OUTPUT, --output OUTPUT
Where to output the generated files. If not specified,
a directory will be created, named "output" in the
current path.
-m MARKUP, --markup MARKUP
the markup language to use. Currently only
ReSTreucturedtext is available.
-s SETTINGS, --settings SETTINGS
the settings of the application. Default to None.
-b, --debug
Enjoy :)
.. _Pelican: http://docs.getpelican.com

View file

@ -1,139 +0,0 @@
Fork you ! or how the social coding can help you
#################################################
:date: 2010-11-05
:category: thoughts
With github_ and bitbucket_ coming around, a lot of new usages appears for the
developpers: it's now easy to get feedback on your code/modifications, and to get
help from others by, for instance, forking repositories.
Eeach time I see people helping others, I'm amazed by how we like to share
our knowledge.
I say github, because it seems to be the more mainstream, but I think it's
something strongly related to the DVCS_ principles: the "only" thing github have
made is to turn that into a social network, and to reveal the awesomeness of the
DVCSes to the masses.
What is really interesting is to see how this platform is addictive: it's
automatically updating a webpages with the more accurate informations about the
projects you're involved in, and add a bit of magic to that using webhooks,
allowing you to update your website each time you push to you repository, for
instance.
Quite nothing, indeed, but, I don't know why, I find this fascinating.
I haven't had the privilege to see my projects forked from github by strangers,
but I've forked others repository to give an hand some times, when I wanted to,
and the main reason is "because it's **fun**" to do so.
Yeah, you're probably right, you have to be a nerd to find fun to fork others.
The good point is that geeks are a kind of nerds, and some geeks are coders :)
New ways to contribute
======================
In addition, it seems that he community, or the communities, are there, on those
new social networks for coders. It's really handy to drop an eye on interesting
projects, to report bugs, propose new features, and check what new projects this
or this person have made.
Well, "it's not new", you may think. That's true, because it's been a while that
SVN was there and even CVS before that. But, it was a bit messy to "fork" a
project, isn't it ? And I'm not talking about all the hell SVN involved with it
(who have not had issues with those messy .svn folders raises an hand !).
It have not been so easy to share code and thoughts about code, to propose
changes on existing code, than now. You think it's better to implement this or
that in a different way ? Clone it (fork it), make your changes and publish
them, and then ask projects owners about it. For sure you'll have answers.
Even if they don't want it, you can easily keep your changes, and keep getting
their updates!
Also, lot of *fashionables* projects tend to move on DVCS.
Personally, if I know I can fork on a DVCS instead of from a "simple" VCS,
I'll probably be quicker to fork/clone, and to publish changes on my own copy,
than if I had to do so on the upstream repository (and I'll likely dont have
the rights to push to it), because I will not be afraid to break things.
DVCSes makes the contribution easier.
Release early, release often
============================
Maybe have you read `The cathedral and the bazaar
<http://www.catb.org/~esr/writings/cathedral-bazaar/>`_, by Eric Steven Raymond ?
(If not, consider doing so, it's a really interesting reading)
Among a lot of others interesting things, one hint he gives is *release early,
release often*.
I understand it as: if you want to get contributors, release your code early,
even if it's not perfect, and don't be afraid to publish your changes each
time it's needed.
Without notifying it, that's basically what I was doing for my own projects.
I guess that's because Social coding platforms encourages those practices,
partially cause of the possible impact publishing each of your changes can have
on your final solution.
If you have considered publishing your projects, code snippets, or whatever
(code related) but did not done it, considering them not yet ready, maybe
should you think about it twice: you can get feedback and probably start some
interesting discussions about it, if you write code that's readable, of course!
A step further for open source softwares
========================================
Well, DVCSes are a honking great idea, and they're starting to be really
powerful when applied to free softwares. I mean: if you can't see a project,
it will be hard to contribute to it. And, I don't think anyone wants to
contribute to something closed/proprietary, *just for fun*. Or maybe am I
missing something.
Maybe it's a kind of revolution, about free and open source softwares (FOSS_),
that is going on. I really like to know I have my word to say about the changes
in the tools I use, and to know that I can make them evolve.
Let's take an example. Imagine I'm using a web framework on daily basis, as a
part of my job as a web developer. I do like using an open source software
because I know how it's working, and because I know that I can interact with the
authors of the framework while they're doing the changes on it.
That's communication, nothing more, and of course I can do that with an internal
proprietary solution, but it will cost me **a lot** more time, for a dead-simple
reason: a company is not as big and powerful as a community can be: it will cost
time to work on this framework, resources to maintain it, fix bugs etc.
Well, I'm starting advocating here about Free and Open Source Softwares use on
companies, what is a bit beyond the scope of this article, so let's back to
our DVCSes and new social related tools.
If I find a bug in this framework, while working, I have the possibility to
go and talk with the creators of the framework, to open a ticket, and even to
make a fix for it, because I've access to the source code. If I want to create a
new feature, I just have to fork it, hack it, and then publish my code to have
feedback of the community.
My fix/work will benefit to all the people (and maybe others companies) working
with this framework, and it's a way to prove the community that my company is
enough skilled to make code-fixes to the framework, so that's all good !
What's next ?
=============
I hope those social coding platforms are only the begining of a new area. I hope
they will make people realize what the power of the community is, and how easily
they can becomes part of it.
If you're not using them right now, maybe you should do so: have a
look on how the programs you're using are made, consider publishing your
experimentations, and share them with others, you will see, it's kind of
addictive !
.. _github: http://github.com
.. _bitbucket: http://www.bitbucket.org
.. _DVCS: http://en.wikipedia.org/wiki/Distributed_revision_control
.. _FOSS: http://en.wikipedia.org/wiki/Free_and_open_source_software

View file

@ -1,30 +0,0 @@
Help me to go to the distutils2 paris' sprint
#############################################
:date: 2011-01-15
:category: tech
**Edit: Thanks to logilab and some amazing people, I can make it to paris for the
sprint. Many thanks to them for the support!**
There will be a distutils2 sprint from the 27th to the 30th of january, thanks
to logilab which will host the event.
You can find more informations about the sprint on the wiki page of the event
(http://wiki.python.org/moin/Distutils/SprintParis).
I really want to go there but I'm unfortunately blocked in UK for money reasons.
The cheapest two ways I've found is about £80, which I can't afford.
Following some advices on #distutils, I've set up a ChipIn account for that, so
if some people want to help me making it to go there, they can give me some
money that way.
I'll probably work on the installer (to support old distutils and
setuptools distributions) and on the uninstaller (depending on the first
task). If I can't make it to paris, I'll hang around on IRC to give some help
while needed.
If you want to contribute some money to help me go there, feel free to use this
chipin page: http://ametaireau.chipin.com/distutils2-sprint-in-paris
Thanks for your support !

View file

@ -1,109 +0,0 @@
PyPI on CouchDB
###############
:date: 2011-01-20
:category: tech
By now, there are two ways to retrieve data from PyPI (the Python Package
Index). You can both rely on xml/rpc or on the "simple" API. The simple
API is not so simple to use as the name suggest, and have several existing
drawbacks.
Basically, if you want to use informations coming from the simple API, you will
have to parse web pages manually, to extract informations using some black
vodoo magic. Badly, magic have a price, and it's sometimes impossible to get
exactly the informations you want to get from this index. That's the technique
currently being used by distutils2, setuptools and pip.
On the other side, while XML/RPC is working fine, it's requiring extra work
to the python servers each time you request something, which can lead to
some outages from time to time. Also, it's important to point out that, even if
PyPI have a mirroring infrastructure, it's only for the so-called *simple* API,
and not for the XML/RPC.
CouchDB
=======
Here comes CouchDB. CouchDB is a document oriented database, that
knows how to speak REST and JSON. It's easy to use, and provides out of the box
a replication mechanism.
So, what ?
==========
Hmm, I'm sure you got it. I've wrote a piece of software to link informations from
PyPI to a CouchDB instance. Then you can replicate all the PyPI index with only
one HTTP request on the CouchDB server. You can also access the informations
from the index directly using a REST API, speaking json. Handy.
So PyPIonCouch is using the PyPI XML/RPC API to get data from PyPI, and
generate records in the CouchDB instance.
The final goal is to avoid to rely on this "simple" API, and rely on a REST
insterface instead. I have set up a couchdb server on my server, which is
available at http://couchdb.notmyidea.org/_utils/database.html?pypi.
There is not a lot to
see there for now, but I've done the first import from PyPI yesterday and all
went fine: it's possible to access the metadata of all PyPI projects via a REST
interface. Next step is to write a client for this REST interface in
distutils2.
Example
=======
For now, you can use pypioncouch via the command line, or via the python API.
Using the command line
----------------------
You can do something like that for a full import. This **will** take long,
because it's fetching all the projects at pypi and importing their metadata::
$ pypioncouch --fullimport http://your.couchdb.instance/
If you already have the data on your couchdb instance, you can just update it
with the last informations from pypi. **However, I recommend to just replicate
the principal node, hosted at http://couchdb.notmyidea.org/pypi/**, to avoid
the duplication of nodes::
$ pypioncouch --update http://your.couchdb.instance/
The principal node is updated once a day by now, I'll try to see if it's
enough, and ajust with the time.
Using the python API
--------------------
You can also use the python API to interact with pypioncouch::
>>> from pypioncouch import XmlRpcImporter, import_all, update
>>> full_import()
>>> update()
What's next ?
=============
I want to make a couchapp, in order to navigate PyPI easily. Here are some of
the features I want to propose:
* List all the available projects
* List all the projects, filtered by specifiers
* List all the projects by author/maintainer
* List all the projects by keywords
* Page for each project.
* Provide a PyPI "Simple" API equivalent, even if I want to replace it, I do
think it will be really easy to setup mirrors that way, with the out of the
box couchdb replication
I also still need to polish the import mechanism, so I can directly store in
couchdb:
* The OPML files for each project
* The upload_time as couchdb friendly format (list of int)
* The tags as lists (currently it's only a string separated by spaces
The work I've done by now is available on
https://bitbucket.org/ametaireau/pypioncouch/. Keep in mind that it's still
a work in progress, and everything can break at any time. However, any feedback
will be appreciated !

View file

@ -1,48 +0,0 @@
Wrap up of the distutils2 paris' sprint
#######################################
:date: 2011-02-08
:category: tech
Finally, thanks to a bunch of people that helped me to pay my train and bus
tickets, I've made it to paris for the distutils2 sprint.
They have been a bit more than 10 people to come during the sprint, and it was
very productive. Here's a taste of what we've been working on:
* the `datafiles`, a way to specify and to handle the installation of files which
are not python-related (pictures, manpages and so on).
* `mkgcfg`, a tool to help you to create a setup.cfg in minutes (and with funny
examples)
* converters from setup.py scripts. We do now have a piece of code which
reads your current `setup.py` file and fill in some fields in the `setup.cfg`
for you.
* a compatibility layer for distutils1, so it can read the `setup.cfg` you will
wrote for distutils2 :-)
* the uninstaller, so it's now possible to uninstall what have been installed
by distutils2 (see PEP 376)
* the installer, and the setuptools compatibility layer, which will allow you
to rely on setuptools' based distributions (and there are plenty of them!)
* The compilers, so they are more flexible than they were. Since that's an
obscure part of the code for distutils2 commiters (it comes directly from the
distutils1 ages), having some guys who understood the problematics here was
a must.
Some people have also tried to port their packaging from distutils1 to
distutils2. They have spotted a number of bugs and made some improvements
to the code, to make it more friendly to use.
I'm really pleased to see how newcomers went trough the code, and started
hacking so fast. I must say it wasn't the case when we started to work on
distutils1 so that's a very good point: people now can hack the code quicker
than they could before.
Some of the features here are not *completely* finished yet, but are on the
tubes, and will be ready for a release (hopefully) at the end of the week.
Big thanks to logilab for hosting (and sponsoring my train ticket) and
providing us food, and to bearstech for providing some money for breakfast and
bears^Wbeers.
Again, a big thanks to all the people who gave me money to pay the transport,
I really wasn't expecting such thing to happen :-)

View file

@ -1,192 +0,0 @@
Working directly on your server? How to backup and sync your dev environment with unison
########################################################################################
:date: 16/03/2011
:tags: freebsd, unison
:category: tech
I have a server running freebsd since some time now, and was wondering about
the possibility to directly have a development environment ready to use when
I get a internet connexion, even if I'm not on my computer.
Since I use vim to code, and spend most of my time in a console while
developing, it's possible to work via ssh, from everywhere.
The only problem is the synchronisation of the source code, config files etc.
from my machine to the server.
Unison provides an interesting way to synchronise two folders, even over
a network. So let's do it !
Creating the jail
=================
In case you don't use FreeBSD, you can skip this section.
.. code-block:: bash
# I have a flavour jail named default
$ ezjail-admin -f default workspace.notmyidea.org 172.19.1.6
$ ezjail-admin start workspace.notmyidea.org
In my case, because the "default" flavour contains already a lot of interesting
things, my jail come already setup with ssh, bash and vim for instance, but
maybe you'll need it in your case.
I want to be redirected to the ssh of the jail when I connect to the host with
the 20006 port. Add lines in `/etc/pf.conf`::
workspace_jail="172.19.1.6"
rdr on $ext_if proto tcp from any to $ext_ip port 20006 -> $workspace_jail port 22
Reload packet filter rules
.. code-block:: bash
$ /etc/rc.d/pf reload
Working with unison
===================
Now that we've set up the jail. Set up unison on the server and on your client.
Unison is available on the freebsd ports so just install it
.. code-block:: bash
$ ssh notmyidea.org -p 20006
$ make -C /usr/ports/net/unison-nox11 config-recursive
$ make -C /usr/ports/net/unison-nox11 package-recursive
Install as well unison on your local machine. Double check to install the same
version on the client and on the server. Ubuntu contains the 2.27.57 as well as
the 2.32.52.
Check that unison is installed and reachable via ssh from your machine
.. code-block:: bash
$ ssh notmyidea.org -p 20006 unison -version
unison version 2.27.157
$ unison -version
unison version 2.27.57
Let sync our folders
====================
The first thing I want to sync is my vim configuration. Well, it's already `in
a git repository <http://github.com/ametaireau/dotfiles/>`_ but let's try to use
unison for it right now.
I have two machines then: `workspace`, the jail, and `ecureuil` my laptop.
.. code-block:: bash
unison .vim ssh://notmyidea.org:20006/.vim
unison .vimrc ssh://notmyidea.org:20006/.vimrc
It is also possible to put all the informations in a config file, and then to
only run `unison`. (fire up `vim ~/.unison/default.prf`.
Here is my config::
root = /home/alexis
root = ssh://notmyidea.org:20006
path = .vimrc
path = dotfiles
path = dev
follow = Name *
My vimrc is in fact a symbolic link on my laptop, but I don't want to specify
each of the links to unison. That's why the `follow = Name *` is for.
The folders you want to synchronize are maybe a bit large. If so, considering
others options such as rsync for the first import may be a good idea (I enjoyed
my university huge upload bandwith to upload 2GB in 20mn ;)
Run the script frequently
=========================
Once that done, you just need to run the unison command line some times when
you want to sync your two machines. I've wrote a tiny script to get some
feedback from the sync:
.. code-block:: python
import os
from datetime import datetime
DEFAULT_LOGFILE = "~/unison.log"
PROGRAM_NAME = "Unison syncer"
def sync(logfile=DEFAULT_LOGFILE, program_name=PROGRAM_NAME):
# init
display_message = True
error = False
before = datetime.now()
# call unison to make the sync
os.system('unison -batch > {0}'.format(logfile))
# get the duration of the operation
td = datetime.now() - before
delta = (td.microseconds + (td.seconds + td.days * 24 * 3600) * 10**6) / 10**6
# check what was the last entry in the log
log = open(os.path.expanduser(logfile))
lines = log.readlines()
if 'No updates to propagate' in lines[-1]:
display_message = False
else:
output = [l for l in lines if "Synchronization" in l]
message = output[-1]
message += " It took {0}s.".format(delta)
if display_message:
os.system('notify-send -i {2} "{0}" "{1}"'.format(program_name, message,
'error' if error else 'info'))
if __name__ == "__main__":
sync()
This is probably perfectible, but that does the job.
Last step is to tell you machine to run that frequently. That's what `crontab`
is made for, so let's `crontab -e`::
$ * */3 * * * . ~/.Xdbus; /usr/bin/python /home/alexis/dev/python/unison-syncer/sync.py
The `~/.Xdbus` allows cron to communicate with your X11 session. Here is its
content.
.. code-block:: bash
#!/bin/bash
# Get the pid of nautilus
nautilus_pid=$(pgrep -u $LOGNAME -n nautilus)
# If nautilus isn't running, just exit silently
if [ -z "$nautilus_pid" ]; then
exit 0
fi
# Grab the DBUS_SESSION_BUS_ADDRESS variable from nautilus's environment
eval $(tr '\0' '\n' < /proc/$nautilus_pid/environ | grep '^DBUS_SESSION_BUS_ADDRESS=')
# Check that we actually found it
if [ -z "$DBUS_SESSION_BUS_ADDRESS" ]; then
echo "Failed to find bus address" >&2
exit 1
fi
# export it so that child processes will inherit it
export DBUS_SESSION_BUS_ADDRESS
And it comes from `here <http://ubuntuforums.org/showthread.php?p=10148738#post10148738>`_.
A sync takes about 20s + the upload time on my machine, which stay acceptable for
all of my developments.

View file

@ -1,215 +0,0 @@
Analyse users' browsing context to build up a web recommender
#############################################################
:date: 2011-04-01
:tags: recommendations, browsers, users
:category: tech
No, this is not an april's fool ;)
Wow, it's been a long time. My year in Oxford is going really well. I realized
few days ago that the end of the year is approaching really quickly.
Exams are coming in one month or such and then I'll be working full time on my dissertation topic.
When I learned we'll have about 6 month to work on something, I first thought
about doing a packaging related stuff, but finally decided to start something
new. After all, that's the good time to learn.
Since a long time, I'm being impressed by the `last.fm <http://last.fm>`_
recommender system. They're *scrobbling* the music I listen to since something
like 5 years now and the recommendations they're doing are really nice and
accurate (I discovered **a lot** of great artists listening to the
"neighbour radio".) (by the way, `here is <http://lastfm.com/user/akounet/>`_
my lastfm account)
So I decided to work on recommender systems, to better understand what is it
about.
Recommender systems are usually used to increase the sales of products
(like Amazon.com does) which is not really what I'm looking for (The one who
know me a bit know I'm kind of sick about all this consumerism going on).
Actually, the most simple thing I thought of was the web: I'm browsing it quite
every day and each time new content appears. I've stopped to follow `my feed
reader <https://bitbucket.org/bruno/aspirator/>`_ because of the
information overload, and reduced drastically the number of people I follow `on
twitter <http://twitter.com/ametaireau/>`_.
Too much information kills the information.
You shall got what will be my dissertation topic: a recommender system for
the web. Well, such recommender systems already exists, so I will try to add contextual
information to them: you're probably not interested by the same topics at different
times of the day, or depending on the computer you're using. We can also
probably make good use of the way you browse to create groups into the content
you're browsing (or even use the great firefox4 tab group feature).
There is a large part of concerns to have about user's privacy as well.
Here is my proposal (copy/pasted from the one I had to do for my master)
Introduction and rationale
==========================
Nowadays, people surf the web more and more often. New web pages are created
each day so the amount of information to retrieve is more important as the time
passes. These users uses the web in different contexts, from finding cooking
recipes to technical articles.
A lot of people share the same interest to various topics, and the quantity of
information is such than it's really hard to triage them efficiently without
spending hours doing it. Firstly because of the huge quantity of information
but also because the triage is something relative to each person. Although, this
triage can be facilitated by fetching the browsing information of all
particular individuals and put the in perspective.
Machine learning is a branch of Artificial Intelligence (AI) which deals with how
a program can learn from data. Recommendation systems are a particular
application area of machine learning which is able to recommend things (links
in our case) to the users, given a particular database containing the previous
choices users have made.
This browsing information is currently available in browsers. Even if it is not
in a very usable format, it is possible to transform it to something useful.
This information gold mine just wait to be used. Although, it is not as simple as
it can seems at the first approach: It is important to take care of the context
the user is in while browsing links. For instance, It's more likely that during
the day, a computer scientist will browse computing related links, and that during
the evening, he browse cooking recipes or something else.
Page contents are also interesting to analyse, because that's what people
browse and what actually contain the most interesting part of the information.
The raw data extracted from the browsing can then be translated into
something more useful (namely tags, type of resource, visit frequency,
navigation context etc.)
The goal of this dissertation is to create a recommender system for web links,
including this context information.
At the end of the dissertation, different pieces of software will be provided,
from raw data collection from the browser to a recommendation system.
Background Review
=================
This dissertation is mainly about data extraction, analysis and recommendation
systems. Two different research area can be isolated: Data preprocessing and
Information filtering.
The first step in order to make recommendations is to gather some data. The
more data we have available, the better it is (T. Segaran, 2007). This data can
be retrieved in various ways, one of them is to get it directly from user's
browsers.
Data preparation and extraction
-------------------------------
The data gathered from browsers is basically URLs and additional information
about the context of the navigation. There is clearly a need to extract more
information about the meaning of the data the user is browsing, starting by the
content of the web pages.
Because the information provided on the current Web is not meant to be read by
machines (T. Berners Lee, 2001) there is a need of tools to extract meaning from
web pages. The information needs to be preprocessed before stored in a machine
readable format, allowing to make recommendations (Choochart et Al, 2004).
Data preparation is composed of two steps: cleaning and structuring (
Castellano et Al, 2007). Because raw data can contain a lot of un-needed text
(such as menus, headers etc.) and need to be cleaned prior to be stored.
Multiple techniques can be used here and belongs to boilerplate removal and
full text extraction (Kohlschütter et Al, 2010).
Then, structuring the information: category, type of content (news, blog, wiki)
can be extracted from raw data. This kind of information is not clearly defined
by HTML pages so there is a need of tools to recognise them.
Some context-related information can also be inferred from each resource. It can go
from the visit frequency to the navigation group the user was in while
browsing. It is also possible to determine if the user "liked" a resource, and
determine a mark for it, which can be used by information filtering a later
step (T. Segaran, 2007).
At this stage, structuring the data is required. Storing this kind of
information in RDBMS can be a bit tedious and require complex queries to get
back the data in an usable format. Graph databases can play a major role in the
simplification of information storage and querying.
Information filtering
---------------------
To filter the information, three techniques can be used (Balabanovic et
Al, 1997):
* The content-based approach states that if an user have liked something in the
past, he is more likely to like similar things in the future. So it's about
establishing a profile for the user and compare new items against it.
* The collaborative approach will rather recommend items that other similar users
have liked. This approach consider only the relationship between users, and
not the profile of the user we are making recommendations to.
* the hybrid approach, which appeared recently combine both of the previous
approaches, giving recommendations when items score high regarding user's
profile, or if a similar user already liked it.
Grouping is also something to consider at this stage (G. Myatt, 2007).
Because we are dealing with huge amount of data, it can be useful to detect group
of data that can fit together. Data clustering is able to find such groups (T.
Segaran, 2007).
References:
* Balabanović, M., & Shoham, Y. (1997). Fab: content-based, collaborative
recommendation. Communications of the ACM, 40(3), 6672. ACM.
Retrieved March 1, 2011, from http://portal.acm.org/citation.cfm?id=245108.245124&amp;.
* Berners-Lee, T., Hendler, J., & Lassila, O. (2001).
The semantic web: Scientific american. Scientific American, 284(5), 3443.
Retrieved November 21, 2010, from http://www.citeulike.org/group/222/article/1176986.
* Castellano, G., Fanelli, A., & Torsello, M. (2007).
LODAP: a LOg DAta Preprocessor for mining Web browsing patterns. Proceedings of the 6th Conference on 6th WSEAS Int. Conf. on Artificial Intelligence, Knowledge Engineering and Data Bases-Volume 6 (p. 1217). World Scientific and Engineering Academy and Society (WSEAS). Retrieved March 8, 2011, from http://portal.acm.org/citation.cfm?id=1348485.1348488.
* Kohlschutter, C., Fankhauser, P., & Nejdl, W. (2010). Boilerplate detection using shallow text features. Proceedings of the third ACM international conference on Web search and data mining (p. 441450). ACM. Retrieved March 8, 2011, from http://portal.acm.org/citation.cfm?id=1718542.
* Myatt, G. J. (2007). Making Sense of Data: A Practical Guide to Exploratory
Data Analysis and Data Mining.
* Segaran, T. (2007). Collective Intelligence.
Privacy
=======
The first thing that's come to people minds when it comes to process their
browsing data is privacy. People don't want to be stalked. That's perfectly
right, and I don't either.
But such a system don't have to deal with people identities. It's completely
possible to process completely anonymous data, and that's probably what I'm
gonna do.
By the way, if you have interesting thoughts about that, if you do know
projects that do seems related, fire the comments !
What's the plan ?
=================
There is a lot of different things to explore, especially because I'm
a complete novice in that field.
* I want to develop a firefox plugin, to extract the browsing informations (
still, I need to know exactly which kind of informations to retrieve). The
idea is to provide some *raw* browsing data, and then to transform it and to
store it in the better possible way.
* Analyse how to store the informations in a graph database. What can be the
different methods to store this data and to visualize the relationship
between different pieces of data? How can I define the different contexts,
and add those informations in the db?
* Process the data using well known recommendation algorithms. Compare the
results and criticize their value.
There is plenty of stuff I want to try during this experimentation:
* I want to try using Geshi to visualize the connexion between the links,
and the contexts
* Try using graph databases such as Neo4j
* Having a deeper look at tools such as scikit.learn (a machine learning
toolkit in python)
* Analyse web pages in order to categorize them. Processing their
contents as well, to do some keyword based classification will be done.
Lot of work on its way, yay !

View file

@ -1,57 +0,0 @@
Travailler moins pour mieux travailler ?
########################################
:date: 2011-05-19
:lang: fr
:category: thoughts
Je viens de passer une semaine et demi quasiment hors-ligne et je dois dire que
je suis assez impressionné du résultat: je suis de retour chez mes parents pour
le "easter break" et j'en ai profité pour donner un coup aux travaux de la
maison (et pour me reposer un brin!).
Bosser en extérieur est un réel plaisir et faire quelque chose de manuel
également. Je n'ai pas pour habitude de bricoler autre chose que du logiciel et
c'est vraiment quelque chose que j'apprécie.
J'avoue, je mens un peu quand je dis que j'étais complètement déconnecté:
j'ai vérifié mes mails assez régulièrement en utilisant mon téléphone
(merci Arnaud pour le prêt du gadget!) et j'ai limité ma présence web au strict
minimum. Je veux dire par là pas de twitter, pas d'IRC et autres mailing-lists.
Quand je dis hors-ligne, je ne dis pas que je n'ai pas travaillé sur mon
ordinateur. J'ai à fournir beaucoup plus de travail que ce que je ne pensait en
premier lieu pour la rédaction de mon mémoire et j'ai passé quelques heures par
ci par là à lire des articles et livres sur le sujet ainsi que rédigé une bonne
partie de mon mémoire durant ces 10 jours. Résultat ? Les heures que j'ai passées à travailler ont
été étonnement plus productives que celles que j'ai l'habitude de passer derrière
un écran. Je ne parles pas uniquement du fait de procrastiner; évidemment c'est
une des causes principales de ma perte de productivité, mais je pense également
au fait de laisser le cerveau reposer, au moins en ce qui concerne la partie
informatique. Bricoler demande de la concentration et de la réflexion mais
permet également de laisser son esprit vagabonder. J'ai pu donc avancer mes
sur certaines parties de mon mémoire alors que j'étais en train de poser le
bardage sur la garage par exemple.
Passer du temps sur autre chose (qui demandait également de la concentration
par ailleurs) m'a permis d'être réellement plus efficace lors de mes phases de
rédaction et de lecture.
Je me demande depuis quelques temps quel sera mon futur travail et quelle forme
il prendra. Éééh oui, la fin des études arrive pour la fin de l'année, c'est
pas une blague. Et je me pose sérieusement la question du travail aux 3/4
temps. La raison principale étant que je ne souhaites pas passer la majeure
partie de mon temps à travailler derrière un écran et que la formation que j'ai
m'y rattache beaucoup. Ne me comprenez pas de travers: j'aime ce que je fais;
mais j'aime aussi ce que je fais à coté de l'informatique: associatif, projets
alternatifs, permaculture et autres.
Viens s'ajouter à ça le fait d'avoir une qualité de vie qui me semble pouvoir
passer par le fait de travailler moins ("il est marant ce gamin, il à pas encore commencé
à travailler qu'il veut bosser moins, regarde moi cette feignasse!") et
travailler plus efficacement. Bien sur, on n'est jamais 100% productif et c'est
d'autant plus vrai pour moi, alors si gagner en productivité peut passer par
travailler moins, pourquoi pas s'y essayer !
Peut être que vous pratiquez déjà le travail au 3/4 temps, que vous avez des
retours d'expérience à faire : fausse bonne idée ? Vraie bonne idée ?

View file

@ -1,39 +0,0 @@
Un coup de main pour mon mémoire!
#################################
:date: 2011-05-25
:lang: fr
:category: tech
Ça y est, bientôt la fin. LA FIN. La fin des études, et le début du reste.
En attendant je bosse sur mon mémoire de fin d'études et j'aurais besoin d'un petit
coup de main.
Mon mémoire porte sur les systèmes de recommandation. Pour ceux qui connaissent
last.fm, je fais quelque chose de similaire mais pour les sites internet: en me
basant sur ce que vous visitez quotidiennement et comment vous le visitez (quelles
horaires, quelle emplacement géographique, etc.) je souhaites proposer des liens
qui vous intéresseront potentiellement, en me basant sur l'avis des personnes qui
ont des profils similaires au votre.
Le projet est loin d'être terminé, mais la première étape est de récupérer des
données de navigation, idéalement beaucoup de données de navigation. Donc si
vous pouvez me filer un coup de main je vous en serais éternellement
reconnaissant (pour ceux qui font semblant de pas comprendre, entendez "tournée
générale").
J'ai créé un petit site web (en anglais) qui résume un peu le concept, qui vous
propose de vous inscrire et de télécharger un plugin firefox qui m'enverra des
information sur les sites que vous visitez (si vous avez l'habitude d'utiliser
chrome vous pouvez considérer de switcher à firefox4 pour les deux prochains
mois pour me filer un coup de main). Il est possible de désactiver le plugin
d'un simple clic si vous souhaitez garder votre vie privée privée ;-)
Le site est par là: http://infuse.notmyidea.org. Une fois le plugin téléchargé
et le compte créé il faut renseigner vos identifiants dans le plugin en
question, et c'est tout!
A votre bon cœur ! Je récupérerais probablement des données durant les 2
prochains mois pour ensuite les analyser correctement.
Merci pour votre aide !

View file

@ -1,94 +0,0 @@
Using JPype to bridge python and Java
#####################################
:date: 11/06/2011
:tags: python, java
:category: tech
Java provides some interesting libraries that have no exact equivalent in
python. In my case, the awesome boilerpipe library allows me to remove
uninteresting parts of HTML pages, like menus, footers and other "boilerplate"
contents.
Boilerpipe is written in Java. Two solutions then: using java from python or
reimplement boilerpipe in python. I will let you guess which one I chosen, meh.
JPype allows to bridge python project with java libraries. It takes another
point of view than Jython: rather than reimplementing python in Java, both
languages are interfacing at the VM level. This means you need to start a VM
from your python script, but it does the job and stay fully compatible with
Cpython and its C extensions.
First steps with JPype
======================
Once JPype installed (you'll have to hack a bit some files to integrate
seamlessly with your system) you can access java classes by doing something
like that:
.. code-block:: python
import jpype
jpype.startJVM(jpype.getDefaultJVMPath())
# you can then access to the basic java functions
jpype.java.lang.System.out.println("hello world")
# and you have to shutdown the VM at the end
jpype.shutdownJVM()
Okay, now we have a hello world, but what we want seems somehow more complex.
We want to interact with java classes, so we will have to load them.
Interfacing with Boilerpipe
===========================
To install boilerpipe, you just have to run an ant script::
$ cd boilerpipe
$ ant
Here is a simple example of how to use boilerpipe in Java, from their sources
.. code-block:: java
package de.l3s.boilerpipe.demo;
import java.net.URL;
import de.l3s.boilerpipe.extractors.ArticleExtractor;
public class Oneliner {
public static void main(final String[] args) throws Exception {
final URL url = new URL("http://notmyidea.org");
System.out.println(ArticleExtractor.INSTANCE.getText(url));
}
}
To run it:
.. code-block:: bash
$ javac -cp dist/boilerpipe-1.1-dev.jar:lib/nekohtml-1.9.13.jar:lib/xerces-2.9.1.jar src/demo/de/l3s/boilerpipe/demo/Oneliner.java
$ java -cp src/demo:dist/boilerpipe-1.1-dev.jar:lib/nekohtml-1.9.13.jar:lib/xerces-2.9.1.jar de.l3s.boilerpipe.demo.Oneliner
Yes, this is kind of ugly, sorry for your eyes.
Let's try something similar, but from python
.. code-block:: python
import jpype
# start the JVM with the good classpaths
classpath = "dist/boilerpipe-1.1-dev.jar:lib/nekohtml-1.9.13.jar:lib/xerces-2.9.1.jar"
jpype.startJVM(jpype.getDefaultJVMPath(), "-Djava.class.path=%s" % classpath)
# get the Java classes we want to use
DefaultExtractor = jpype.JPackage("de").l3s.boilerpipe.extractors.DefaultExtractor
# call them !
print DefaultExtractor.INSTANCE.getText(jpype.java.net.URL("http://blog.notmyidea.org"))
And you get what you want.
I must say I didn't thought it could work so easily. This will allow me to
extract text content from URLs and remove the *boilerplate* text easily
for infuse (my master thesis project), without having to write java code, nice!

View file

@ -1,29 +0,0 @@
Pelican, 9 months later
#######################
:tags: pelican, python, open source, nice story
:date: 25/07/2011
:description: or why I like opensource so much
:category: tech
Back in October, I released `pelican <http://docs.notmyidea.org/alexis/pelican>`_,
a little piece of code I wrote to power this weblog. I had simple needs: I wanted
to be able to use my text editor of choice (vim), a vcs (mercurial) and
restructured text. I started to write a really simple blog engine
in something like a hundred python lines and released it on github.
And people started contributing. I wasn't at all expecting to see people
interested in such a little piece of code, but it turned out that they were.
I refactored the code to make it evolve a bit more by two times and eventually,
in 9 months, got 49 forks, 139 issues and 73 pull requests.
**Which is clearly awesome.**
I pulled features such as translations, tag
clouds, integration with different services such as twitter or piwik, import
from dotclear and rss, fixed
a number of mistakes and improved a lot the codebase. This was a proof that
there is a bunch of people that are willing to make better softwares just for
the sake of fun.
Thank you, guys, you're why I like open source so much.

View file

@ -1,63 +0,0 @@
Using dbpedia to get languages influences
#########################################
:date: 2011/08/16
:tags: dbpedia, sparql, python
:category: tech
While browsing the Python's wikipedia page, I found information about the languages
influenced by python, and the languages that influenced python itself.
Well, that's kind of interesting to know which languages influenced others,
it could even be more interesting to have an overview of the connexion between
them, keeping python as the main focus.
This information is available on the wikipedia page, but not in a really
exploitable format. Hopefully, this information is provided into the
information box present on the majority of wikipedia pages. And… guess what?
there is project with the goal to scrap and index all this information in
a more queriable way, using the semantic web technologies.
Well, you may have guessed it, the project in question in dbpedia, and exposes
information in the form of RDF triples, which are way more easy to work with
than simple HTML.
For instance, let's take the page about python:
http://dbpedia.org/page/Python_%28programming_language%29
The interesting properties here are "Influenced" and "InfluencedBy", which
allows us to get a list of languages. Unfortunately, they are not really using
all the power of the Semantic Web here, and the list is actually a string with
coma separated values in it.
Anyway, we can use a simple rule: All wikipedia pages of programming languages
are either named after the name of the language itself, or suffixed with "(
programming language)", which is the case for python.
So I've built `a tiny script to extract the information from dbpedia <https://github.com/ametaireau/experiments/blob/master/influences/get_influences.py>`_ and transform them into a shiny graph using graphviz.
After a nice::
$ python get_influences.py python dot | dot -Tpng > influences.png
The result is the following graph (`see it directly here
<http://files.lolnet.org/alexis/influences.png>`_)
.. image:: http://files.lolnet.org/alexis/influences.png
:width: 800px
:alt: Graph des influances des langages les uns sur les autres.
While reading this diagram, keep in mind that it is a) not listing all the
languages and b) keeping a python perspective.
This means that you can trust the scheme by following the arrows from python to
something and from something to python, it is not trying to get the matching
between all the languages at the same time to keep stuff readable.
It would certainly be possible to have all the connections between all
languages (and the resulting script would be easier) to do so, but the resulting
graph would probably be way less readable.
You can find the script `on my github account
<https://github.com/ametaireau/experiments>`_. Feel free to adapt it for
whatever you want if you feel hackish.

View file

@ -1,103 +0,0 @@
How are you handling your shared expenses?
##########################################
:tags: python, flask, budget-manager
:date: 2011-10-15
:category: tech
**TL;DR:** We're kick-starting a new application to manage your shared
expenses. Have a look at http://ihatemoney.notmyidea.org
As a student, I lived in a lot of different locations, and the majority of them
had something in common: I lived with others. It usually was a great experience
(and I think I will continue to live with others). Most of the time, we had to
spend some time each month to compute who had to pay what to the others.
I wanted to create a pet project using flask, so I wrote a little
(~150 lines) flask application to handle this. It worked out pretty well for my
housemates and me, and as we had to move into different locations,
one of them asked me if he could continue to use it for the year to come.
I said yes and gave it some more thoughts: We probably aren't the only ones
interested by such kind of software. I decided to extend a bit more the
software to have a concept of projects and persons (the list of persons was
hard-coded in the first time, boooh!).
I then discussed with a friend of mine, who was excited about it and wanted to learn
python. Great! That's a really nice way to get started. Some more friends were also
interested in it and contributed some features and provided feedback (thanks
`Arnaud <http://www.sneakernet.fr/>`_ and Quentin!)
Since that, the project now support multiple languages and provides a REST API
(android and iphone apps in the tubes!), into other things.
There is no need to register for an account or whatnot, just enter a project name,
a secret code and a contact email, invite friends and that's it (this was inspired by
doodle)!
.. image:: images/ihatemoney.png
:alt: Capture d'écran du site.
You can try the project at http://ihatemoney.notmyidea.org for now, and the
code lives at https://github.com/spiral-project/ihatemoney/.
Features
========
In the wild, currently, there already are some implementations of this shared
budget manager thing. The fact is that most of them are either hard to use, with
a too much fancy design or simply trying to do too much things at once.
No, I don't want my budget manager to make my shopping list, or to run a blog for
me, thanks. I want it to let me focus on something else. Keep out of my way.
No user registration
--------------------
You don't need to register an account on the website to start using it. You
just have to create a project, set a secret code for it, and give both the url and
the code to the people you want to share it with (or the website can poke
them for you).
Keeping things simple
---------------------
"Keep It Simple, Stupid" really matches our philosophy here: you want to add a
bill? Okay. Just do it. You just have to enter who paid, for who, how much,
and a description, like you would have done when you're back from the
farmer's market on raw paper.
No categories
-------------
Some people like to organise their stuff into different "categories":
leisure, work, eating, etc. That's not something I want (at least to begin
with).
I want things to be simple. Got that? Great. Just add your bills!
Balance
-------
One of the most useful thing is to know what's your "balance" compared to
others. In other words, if you're negative, you owe money, if you're positive,
you have to receive money. This allows you to dispatch who has to pay for the
next thing, in order to re-equilibrate the balance.
Additionally, the system is able to compute for you who has to give how
much to who, in order to reduce the number of transactions needed to restore
the balance.
API
---
All of what's possible to do with the standard web interface is also available
through a REST API. I developed a simple REST toolkit for flask for this (and
I should release it!).
Interested?
===========
This project is open source. All of us like to share what we are doing and
would be happy to work with new people and implement new ideas. If you have
a nice idea about this, if you want to tweak it or to fill bugs. Don't hesitate
a second! The project lives at http://github.com/spiral-project/ihatemoney/

View file

@ -1,29 +0,0 @@
La simplicité volontaire contre le mythe de l'abondance
#######################################################
:date: 2011-10-14
:lang: fr
:category: thoughts
Paul Ariès dans la préface de "`La simplicité volontaire contre le mythe de
l'abondance
<http://www.editionsladecouverte.fr/catalogue/index.php?ean13=9782707169747>`_"
Je sais aussi qu'à force d'être seulement contre, nous finissons par être
"tout contre", tout contre le système, ses débats pourris, ses pratiques
immondes, ses pervertions mentales. Cessons de porter notre adversaire sur
notre dos, car il finira par nous poignarder, au moment ou nous pensions
justement pouvoir le vaincre… Entendons-nous bien, il ne s'agit pas
d'apprendre à "positiver" sous prétexte que l'on pourrait "moraliser" ou
repeindre en vert le capitalisme, il s'agit, bien au contraire, d'être aussi
intraitables lorsque nous créons cet autre monde, que lorsque nous étions
ces militants purs mais un peu durs à jouir, il s'agit d'être aussi
indomptables mais sans oublier que le capitalisme ne pourra être arrété que
par du non-capitaliste… c'est-à-dire en multipliant les expérimentations
sociales, en acceptant de faire au maximum sécession, en inventant
(réinventant?) une gauche buissonière et maquisarde, en faisant, au
quotidien, la part belle à la dérive, à des modes de comportement
expérimentaux. Nous ne devons plus accepter de faire de la politique aux
conditions de nos adversaires, car c'est la seule façon d'éviter le
pessimisme, le ressentiment, une désensibilisation croissante et… la mort
lente.

View file

@ -1,176 +0,0 @@
Introducing Cornice
###################
:date: 07/12/2011
:category: tech
Wow, already my third working day at Mozilla. Since Monday, I've been working with
`Tarek Ziadé <http://ziade.org>`_, on a pyramid REST-ish toolkit named `Cornice <https://github.com/mozilla-services/cornice>`_.
Its goal is to take care for you of what you're usually missing so you can
focus on what's important. Cornice provides you facilities
for validation of any kind.
The goal is to simplify your work, but we don't want to reinvent the wheel, so
it is easily pluggable with validations frameworks, such as `Colander
<http://docs.pylonsproject.org/projects/colander/en/latest/>`_.
Handling errors and validation
==============================
Here is how it works:
.. code-block:: python
service = Service(name="service", path="/service")
def is_awesome(request):
if not 'awesome' in request.GET:
request.errors.add('query', 'awesome',
'the awesome parameter is required')
@service.get(validator=is_awesome)
def get1(request):
return {"test": "yay!"}
All the errors collected during the validation process, or after, are collected
before returning the request. If any, a error 400 is fired up, with the list of
problems encountered returned as a nice json list response (we plan to support
multiple formats in the future)
As you might have seen, `request.errors.add` takes three parameters: **location**,
**name** and **description**.
**location** is where the error is located in the request. It can either be "body",
"query", "headers" or "path". **name** is the name of the variable causing
problem, if any, and **description** contains a more detailed message.
Let's run this simple service and send some queries to it::
$ curl -v http://127.0.0.1:5000/service
> GET /service HTTP/1.1
> Host: 127.0.0.1:5000
> Accept: */*
>
* HTTP 1.0, assume close after body
< HTTP/1.0 400 Bad Request
< Content-Type: application/json; charset=UTF-8
[{"location": "query", "name": "awesome", "description": "You lack awesomeness!"}
I've removed the extra clutter from the curl's output, but you got the general idea.
The content returned is in JSON, and I know exactly what I have to do: add an
"awesome" parameter in my query. Let's do it again::
$ curl http://127.0.0.1:5000/service?awesome=yeah
{"test": "yay!"}
Validators can also convert parts of the request and store the converted value
in `request.validated`. It is a standard dict automatically attached to the
requests.
For instance, in our validator, we can chose to validate the parameter passed
and use it in the body of the webservice:
.. code-block:: python
service = Service(name="service", path="/service")
def is_awesome(request):
if not 'awesome' in request.GET:
request.errors.add('query', 'awesome',
'the awesome parameter is required')
else:
request.validated['awesome'] = 'awesome ' + request.GET['awesome']
@service.get(validator=is_awesome)
def get1(request):
return {"test": request.validated['awesome']}
The output would look like this:
::
curl http://127.0.0.1:5000/service?awesome=yeah
{"test": "awesome yeah"}
Dealing with "Accept" headers
=============================
The HTTP spec defines a **Accept** header the client can send so the response
is encoded the right way. A resource, available at an URL, can be available in
different formats. This is especially true for web services.
Cornice can help you dealing with this. The services you define can tell which
`Content-Type` values they can deal with and this will be checked against the
**Accept** headers sent by the client.
Let's refine a bit our previous example, by specifying which content-types are
supported, using the `accept` parameter:
.. code-block:: python
@service.get(validator=is_awesome, accept=("application/json", "text/json"))
def get1(request):
return {"test": "yay!"}
Now, if you specifically ask for XML, Cornice will throw a 406 with the list of
accepted `Content-Type` values::
$ curl -vH "Accept: application/xml" http://127.0.0.1:5000/service
> GET /service HTTP/1.1
> Host: 127.0.0.1:5000
> Accept: application/xml
>
< HTTP/1.0 406 Not Acceptable
< Content-Type: application/json; charset=UTF-8
< Content-Length: 33
<
["application/json", "text/json"]
Building your documentation automatically
=========================================
writing documentation for web services can be painful, especially when your
services evolve. Cornice provides a sphinx directive to automatically document
your API in your docs.
.. code-block:: rst
.. services::
:package: coolapp
:service: quote
Here is an example of what a generated page looks like: http://packages.python.org/cornice/exampledoc.html
Yay! How can I get it?
======================
We just cut a 0.4 release, so it's available at http://pypi.python.org/pypi/cornice
You can install it easily using `pip`, for instance::
$ pip install cornice
You can also have a look at the documentation at
http://packages.python.org/cornice/
What's next?
============
We try to make our best to find how Cornice can help you build better
web services. Cool features we want for the future include the automatic
publication of a static definition of the services, so it can be used by clients
to discover services in a nice way.
Of course, we are open to all your ideas and patches! If you feel haskish and
want to see the sources, `go grab them on github <https://github.com/mozilla-services/cornice>`_
, commit and send us a pull request!

View file

@ -1,123 +0,0 @@
Quels usages pour l'informatique ?
##################################
:date: 01/12/2011
:lang: fr
:slug: usages-informatique
:category: thoughts
Quand on termine ses études, on s'en pose un tas, des questions. Sur le métier
que l'on veut faire, sur ce que ça signifie, sur le sens et la valeur du
travail. Et j'en suis arrivé à faire un constat simple: l'informatique, c'est
utile, tant que ça ne vient pas vous pourrir la vie. Oui, parce que de
l'informatique on en a partout, des "geeks" et des "accros" aussi, et que ça
vient s'immiscer dans nos vies même quand d'autres moyens ou médias sont plus
utiles ou pertinents.
Certes, l'informatique nous permet de communiquer et travailler plus efficacement,
Mais à quel prix ? Ce n'est pas parce qu'il est possible d'`industrialiser
l'éducation
<http://retourdactu.fr/2011/11/07/la-non-communication-nouveau-modele-de-societe/>`_
(ou l'agriculture !), que l'on doit le faire. Oui, ça me dérange d'être une des
nombreuses personnes à l'œuvre derrière cette soit disant "révolution", qui
n'est pas toujours pour le meilleur. Attention, je ne remets pas l'informatique
et son intérêt en cause: je me pose des questions quand à la place que je veux
lui donner et la place que je souhaites occuper dans son évolution. Ce n'est
pas parce qu'on peut tuer avec un marteau (avec un peu de volonté) qu'il s'agit
d'un mauvais outil, mais si tout le monde se met à tuer avec des marteaux (y a
des malades partout, hein), alors se poser la question de son rôle, en tant que
fabricant de marteaux me semble nécessaire (oui, je vous l'accorde, on aura vu
des comparaisons plus perspicaces).
Donc: à partir de quel moment l'informatique cesse d'être un outil utile pour
transformer nos modes de vies d'une manière qui me dérange ? Peut être avec son
arrivée sur des périphériques mobiles ? Peut être quand elle se fait
l'instrument du consumérisme et de l'individualisme.
Et alors, on fait quoi ?
========================
Mais si je continue à faire de l'informatique, il y a bien des raison. J'ai
d'ailleurs trouvé mon intérêt de par le coté collaboratif qui est permis et
développé par l'outil informatique, et notamment par le réseau des réseaux
(internet). Faisons ensemble, mes amis. Prouvons que la collaboration a de
meilleurs jours à vivre que la compétition. Le web, notamment, est une avancée
majeure en ce qui concerne la liberté d'expression et le partage de
connaissances (oui, kipédia). Je vous conseille d'ailleurs à ce propos
`l'excellent discours tenu par Bernard Stiegler
<http://owni.fr/2011/11/30/vers-une-economie-de-la-contribution/>`_ paru
récemment sur `owni <http://www.owni.fr>`_.
Et c'est cet avenir qu'il me plait de défendre: l'ouverture d'esprit, la
possibilité que chacun puisse contribuer et participer à une base de savoir
commune, en apprenant des autres. Mais par pitié, n'imposons pas la
technologie là où elle n'est pas nécessaire, et utilisons la avec tact quand
elle peut nous être profitable.
Il me plait de repenser l'informatique comme outil et non plus comme mode de
vie. Faisons le l'outil de la collaboration. À l'école, apprenons à nos enfants
à collaborer, à susciter le partage, pas uniquement avec l'outil informatique,
mais aussi avec celui ci, tout en leurs apprenant à avoir un regard critique
sur les informations qu'ils reçoivent.
En bref, questionner le rôle que l'on souhaite avoir dans notre société par le
biais de l'informatique est nécessaire. Comme d'autres, je suis arrivé
à l'informatique par le biais du premier ordinateur familial, il y a de ça une
bonne quinzaine d'années. Ça intrigue, on touche un peu à tout (on en fait des
conneries !) et on finit par apprendre/comprendre comment ça marche, petit
à petit. Cette curiosité n'est d'ailleurs pas le propre de l'informatique
puisqu'on la retrouve dans la cuisine, dans le bricolage et dans un tas de
domaines de notre vie quotidienne.
Finalement, c'est aimer bidouiller, et comprendre comment ça fonctionne, quitte
à sortir les compétences de leur domaine de prédilection (qui a dit que
l'informatique ne pouvait être artistique ?) Le mouvement hacker (bidouilleurs)
aime à sortir l'informatique de son carcan et l'appliquer ailleurs.
C'est de cette manière que j'ai envie de considérer mon métier, qui avant tout
est une passion. Je suis un bidouilleur, j'aime découvrir comment les choses
fonctionnent et avoir une panoplie d'outils qui me permettent de répondre à des
besoins réels.
Favoriser la collaboration
==========================
Et donc, en tant qu'individu, pourquoi faire de l'informatique ? Qu'est-ce qui
m'attire dans cet outil ?
Ce qu'on pourrait qualifier de "recherche fondamentale", l'écriture de
bibliothèques logicielles, est important mais n'est pas tout. Ce qui importe ce
sont les usages qui en découlent. Je souhaite **savoir écrire des outils qui
sont utiles**, **qui favorisent la collaboration et participent à l'ouverture
des esprits**.
Je choisis de faire de l'informatique pour créer les outils qui répondent à des
problématiques réelles, pour trouver de meilleures manières de communiquer et
de travailler ensemble. Mais, comme me le disait David, d'`Outils-Réseaux
<http://outils-reseaux.org/PresentationProjet>`_, on ne crée pas de la
coopération: rien ne sert d'essayer de faire coopérer des gens qui ne veulent
pas. On peut, cependant, la faciliter, en utilisant les bons outils et en
formant les gens à leur utilisation, ainsi qu'aux pratiques collaboratives
(qui, je le répète, ne s'arrêtent pas du tout aux frontières informatique).
Le logiciel libre, avant d'être une force pour le marché logiciel, est une
application du partage. Une démonstration qu'il est possible de travailler
ensemble pour fabriquer quelque chose de fonctionnel et d'utile pour tous. Une
sorte d'antithèse de ce modèle capitaliste incarné par les brevets logiciel.
A plusieurs reprises, j'ai été bluffé par la réalité du logiciel libre. Oui, il
est facile de collaborer lorsqu'on crée un logiciel, pour peu qu'on explique
les tenants et les aboutissants aux participants. Les contributeurs sortent
d'on ne sait où, pour peu que le projet leur soit utile. Je ne parle pas
d'outils "corpo compliant" (bien que ça soit probablement aussi le cas), mais
d'outils que j'ai pu développer pour mon propre usage, et sur lesquels il a été
possible de collaborer avec d'autres.
Parce que l'informatique est utile dans bien des milieux, parce qu'elle peut
être (et elle l'est) un vecteur de participation et de collaboration, défendons
les valeurs qui nous sont chères (logiciels libres et ouverts!) et construisons
des ponts entre les initiatives qui nous parlent (fermes autogérées,
initiatives d'éducation populaire) et l'informatique.
Faisons en sorte de rendre l'informatique accessible et utile dans les milieux
ou elle peut apporter quelque chose !

View file

@ -1,63 +0,0 @@
2012, first months
##################
:date: 21-01-2012
:category: thoughts
A lot of changes in these last months. First of all, I've started to
work for `Mozilla <http://mozilla.org>`_, on the Services team, where I am working on
web services and scalability. Basically, what we are trying to do at services
is to provide a way for developers to make web services able to scale out of
the box.
Our most visible and known project, so far, is Firefox Sync, which allows to synchronize
browsing data (tabs, passwords, history, etc.) among different instances of
Firefox. We are also building other things, such as a way to get metrics
easily, a web service based queue, etc. Our primary consumers are
people inside Mozilla, and we want to help them having a simple way to create,
deploy and scale their apps. The project is named "sagrada", and you
can find some more information about it on `our public wiki <https://wiki.mozilla.org/Services/Sagrada>`_
All of what we do, we do it in the open. So you can have a look at `the
different pieces of code we wrote <http://github.com/mozilla-services>`_
and use them / contribute if you want to.
I will not dig in to all the details of what I have been doing, but so far, this have been
a pretty amazing experience. Part of this is explainable by the fact that the
team is made of amazing folks, all with a strong experience in different
topics, so I'm learning things™.
I am currently practicing a bit my C++ to do crypto related things (I may or
may not talk about this later on this web-logs) and it's great (well, it
remembers me why I love python for so many things, but it makes me think closer
to the metal ;)). I love this job.
Second, I moved to Paris. Yes, Paris. Some of you who know me a bit may find
it unexpected, and that's the case. I'm usually not a big fan of big cities and
am a fairly strong defender of having and creating activities in the country side,
to face the rural exodus problem, into other thingS.
I didn't changed my opinion about that. However, I don't want to *start* by
working remote, especially when working with a remote team. Having offices kind
of help me to have a differentiation between my working place and home, which I
find to be important.
And, to be honest, I don't like Paris for unknown reasons: I
haven't been there, so it's a big over-generalisation to say that it's not
good for me. The reality is that I have no idea of what Paris is, and if I'll
like it or not.
I found a really nice house (yeah, a house!) in Paris and am sharing it with 3
other persons. We have room, all like good food and…
they are not geeks, which is a big win for me: work is work and home is home.
So far, Paris had been really nice. A lot of things are going on in here, and I
kind of like the way it is possible to find alternative related things in here.
I found a `CSA <http://en.wikipedia.org/wiki/Community-supported_agriculture>`_,
some people interested by agriculture related problems and I like where things
seems to be going.
So, new job, new house, new city, things are going forward and that's great.
Oh, and I will try to post some more technical articles soon,
I'm missing them :)

View file

@ -1,28 +0,0 @@
Les dangers du livre numérique
##############################
:date: 23-01-2012
:lang: fr
:category: thoughts
Le framablog vient de publier `une traduction de l'article de RMS à propos des dangers du livre électronique <http://www.framablog.org/index.php/post/2012/01/22/stallman-ebook-livre-electronique>`_. Intéressant, même si il faut faire attention à ne pas confondre livre électronique et risques liés au format de distribution.
Si on passe sur le fait qu'un livre electronique est moins agréable à lire que sa version papier, il reste quand même quelques problèmes, la plupart liés au format de distribution de lœuvre.
J'avoue ne pas trop savoir quoi penser de tout ça. D'un coté le livre électronique permet de franchir les frontières plus facilement, et semble avoir un tas d'avantage (notamment le fait que se trimbaler avec l'ensemble de sa collection de bouquins est désormais possible).
A mon avis, ce qui pose vraiment problème, ce sont les formats sous lesquels ces livres sont mis à disposition, non pas les livres eux même. Encore une question de DRMs donc…
Encore une problématique liée au copyright et au fait que le copie privée pose des problèmes à l'industrie en place. Ça renvoie à des questions plus profondes, et principalement à la mise en perspective du producteur de contenu et du consomateur de ce même contenu. Exactement ce qu'on essaye de résoudre dans le milieu agricole par le biais des AMAPs.
Sauf qu'ici, on est face au simple problème de la dématérialisation. Est-ce qu'une responsabilisation des consommateurs ne pourrait pas résoudre ce problème de publication ?
Recemment, j'ai récupéré une version piratée d'un livre technique, simplement parce que je ne trouvais pas une version de ce livre en numérique qui me permette de faire une copie privée de celui ci. Un Epub, par exemple. J'ai fait en me disant que c'était un acte militant. Sauf que non, ce n'est pas une solution soutenable, et j'en viens maintenant presque à le regretter. On en discutait rapidement avec `Tarek <http://ziade.org>`_ il y à quelques jours et il pointait du doigt que ceux qui en patissent sont les auteurs des livres, non pas les éditeurs (qu'il ne faut pas non plus diaboliser selon moi, ils cherchent à trouver des manières de garder leur coeur de métier).
Or, avoir des auteurs, des personnes qui sont prêtes à partager leur savoir à de larges audiences me semble primordial pour que la répartition du savoir continue à se répendre. Certes, le blogging permet cela dans une faible mesure, mais de manière bien moins construite, et surtout, est fait de manière bénévole (à moins que certains bloggeurs aient trouvé des moyens de rémunération dont j'ignore l'existance ?), donc il est plus difficile pour les auteurs de se dégager du temps pour travailler sur de gros ouvrages (ceci est bien évidemment une généralisation).
Quelles sont nos solutions, donc ? Peut être se tourner vers des solution de publication alternatives, couplées à une résponsabilisation des lecteurs. Je ne pense pas necessairement aux plateformes alternatives comme `framabook <http://framabook.org>`_, parce que je me demande toujours si cela est une solution viable pour les auteurs, du moins dans les premières années, mais au moins des éditeurs qui ne font pas le choix du grand verrou numérique.
On demande pas grand chose, pourtant… Peut être même que de telles initiatives existent déjà ?
Et vous, vous les achetez ou vos livres ?

View file

@ -1,56 +0,0 @@
Bidouille
#########
:date: 30-04-2012
:tags: diy, électronique, hack, bidouille
:lang: fr
:category: thoughts
Bidouille bidouille bidouille.
Je pense que je suis un bidouilleur logiciel: j'aime bien aller farfouiller
dans le code pour comprendre comment tel ou tel programme fonctionne (ou
trop souvent comment il ne fonctionne pas !), faire des petites modifications,
tester, modifier, re-tester, tout casser, réparer …
Et cette bidouille, cette envie de comprendre comment les choses fonctionnent,
et depuis peu cette envie de mettre en pratique ces connaissances dépasse la
bidouille logicielle. J'ai passé une grosse partie de mon week-end à Main
d'Œuvre, où l'association `Under Construction
<http://www.underconstruction.fr>`_ faisait se rencontrer le milieu de
l'éducation populaire et le milieu de la bidouille.
Forcement, ni une ni deux, je saute dans le bateau en marche et, n'étant ni un
très grand bidouilleur ni un très grand animateur, j'en ressort enrichi de
toutes ces rencontres, de tous ces préjugés qui tombent, et de quelques
découvertes bluffantes, des idées plein la tête.
J'avais entendu parler des "`rep-raps <http://www.reprap.org>`_", des
imprimantes en 3 dimensions capables de produire des pièces en plastique
mais je n'avais jamais eu l'occasion de voir le bousin en vrai. Et
c'est impressionnant. Vraiment. ("Bienvenue dans le 21ème siècle !")
Ça laisse énormément à penser autour des questions d'émancipation
technologique, et de non dépendance envers les constructeurs, dans le milieu de
l'électro-ménager, par exemple. "Ah tiens, cette pièce est cassée, je vais
aller utiliser la rep-rap du coin pour me la fabriquer". Et hop, on mets fin à
tout un cycle d'obsolescence programmée…
Mais au delà du défi technique et technologique, j'ai pu refaire un petit peu
d'électronique, et découvrir que j'y prends vraiment gout rapidement. Il y a
bien évidemment un coté très ludique (la led s'allume quand on la branche),
mais il y a surtout cette notion de DIY (Do It Yourself) sous jacente: une fois
que je sais comment ça fonctionne, je peux vraiment faire des choses utiles de
mes 10 doigts, réparer des petits objets, bidouiller ceux existants etc.
De la récupération de composants on essaye de voir ce qu'on peut faire, on a
terminé par faire un "vibro-bot", un vibreur de téléphone portable monté sur
une tête de brosse à dents, faisant donc avancer cette dernière.
C'est pour s'amuser, c'est pas sérieux ! Pour autant, les concepts de
l'électricité sont appris et je me retrouve avec cette envie de comprendre un
peu plus ce monde de l'électronique qui, je m'en rends compte, m'échappe encore
complètement. De l'éducation à la bidouille !
Allez, demain c'est fer à souder, piles, leds, interrupteurs, potars et c'est
parti !

View file

@ -1,222 +0,0 @@
Génération de formulaires, geolocalisés ?
#########################################
:slug: carto-forms
:date: 02-04-2012
:author: Alexis Métaireau, Mathieu Leplatre
:tags: GIS, forms
:lang: fr
:category: tech
On a un plan. Un "truc de ouf".
À plusieurs reprises, des amis m'ont demandé de leur coder la même chose, à
quelques détails près: une page web avec un formulaire qui permettrait de
soumettre des informations géographiques, lié à une carte et des manières de
filtrer l'information.
L'idée fait son bout de chemin, et je commence à penser qu'on peut même avoir
quelque chose de vraiment flexible et utile. J'ai nommé le projet *carto-forms*
pour l'instant (mais c'est uniquement un nom de code).
Pour résumer: et si on avait un moyen de construire des formulaires, un peu
comme Google forms, mais avec des informations géographiques en plus?
Si vous ne connaissez pas Google forms, il s'agit d'une interface simple
d'utilisation pour générer des formulaires et récupérer des informations depuis
ces derniers.
Google forms est un super outil mais à mon avis manque deux choses importantes:
premièrement, il s'agit d'un outil propriétaire (oui, on peut aussi dire
privateur) et il n'est donc pas possible de le hacker un peu pour le faire
devenir ce qu'on souhaite, ni l'installer sur notre propre serveur.
Deuxièmement, il ne sait pas vraiment fonctionner avec des informations
géographiques, et il n'y à pas d'autre moyen de filtrer les informations que
l'utilisation de leur système de feuilles de calcul.
Après avoir réfléchi un petit peu à ça, j'ai contacté `Mathieu`_ et les anciens
collègues de chez `Makina Corpus`_, puisque les projets libres à base de carto
sont à même de les intéresser.
Imaginez le cas suivant:
1. Dans une "mapping party", on choisit un sujet particulier à cartographier et
on design un formulaire (liste des champs (tags) a remplir + description +
le type d'information) ;
2. Sur place, les utilisateurs remplissent les champs du formulaire avec ce
qu'ils voient. Les champs géolocalisés peuvent être remplis automatiquement
avec la géolocalisation du téléphone ;
3. À la fin de la journée, il est possible de voir une carte des contributions,
avec le formulaire choisi ;
4. Un script peut importer les résultats et les publier vers OpenStreetMap.
Quelques cas d'utilisation
==========================
J'arrive à imaginer différents cas d'utilisation pour cet outil. Le premier est
celui que j'ai approximativement décrit plus haut: la génération de cartes de
manière collaborative, avec des filtres à facettes. Voici un flux d'utilisation
général:
* Un "administrateur" se rend sur le site web et crée un nouveau formulaire
pour l'ensemble des évènements alternatifs. Il crée les champs suivants:
* Nom: le champ qui contient le nom de l'évènement.
* Catégorie: la catégorie de l'évènement (marche, concert, manifestation…).
Il peut s'agir d'un champ à multiples occurrences.
* Le lieu de l'évènement. Celui-ci peut être donné soit par une adresse soit
en sélectionnant un point sur une carte.
* Date: la date de l'évènement (un "date picker" peut permettre cela
facilement)
Chaque champ dans le formulaire a des informations sémantiques associées
(oui/non, multiple sélection, date, heure, champ géocodé, sélection carto,
etc.)
* Une fois terminé, le formulaire est généré et une URL permet d'y accéder.
(par exemple http://forms.notmyidea.org/alternatives).
* Une API REST permet à d'autres applications d'accéder aux informations et d'en
ajouter / modifier de nouvelles.
* Il est maintenant possible de donner l'URL à qui voudra en faire bon usage.
N'importe qui peut ajouter des informations. On peut également imaginer une
manière de modérer les modifications si besoin est.
* Bien sur, la dernière phase est la plus intéressante: il est possible de
filtrer les informations par lieu, catégorie ou date, le tout soit via une
API REST, soit via une jolie carte et quelques contrôles bien placés, dans le
navigateur.
Vous avez dû remarquer que le processus de création d'un formulaire est
volontairement très simple. L'idée est que n'importe qui puisse créer des
cartes facilement, en quelques clics. Si une API bien pensée suit, on peut
imaginer faire de la validation coté serveur et même faire des applications
pour téléphone assez simplement.
Pour aller un peu plus loin, si on arrive à penser un format de description
pour le formulaire, il sera possible de construire les formulaires de manière
automatisée sur différentes plateformes et également sur des clients
génériques.
On imagine pas mal d'exemples pour ce projet: des points de recyclage, les
endroits accessibles (pour fauteuils roulants etc.), identification des arbres,
bons coins à champignons, recensement des espèces en voie de disparition
(l'aigle de Bonelli est actuellement suivi en utilisant une feuille de calcul
partagée !), suivi des espèces dangereuses (le frelon asiatique par exemple),
cartographier les points d'affichage publicitaires, participation citoyenne
(graffitis, nids de poule, voir http://fixmystreet.ca), geocaching,
trajectoires (randonnées, coureurs, cyclistes)…
Voici quelques exemples où ce projet pourrait être utile (la liste n'est pas
exhaustive):
Un backend SIG simple à utiliser
--------------------------------
Disons que vous êtes développeur mobile. Vous ne voulez pas vous encombrer avec
PostGIS ou écrire du code spécifique pour récupérer et insérer des données SIG!
Vous avez besoin de *Carto-Forms*! Une API simple vous aide à penser vos
modèles et vos formulaires, et cette même API vous permet d'insérer et de
récupérer des données. Vous pouvez vous concentrer sur votre application et non
pas sur la manière dont les données géographiques sont stockées et gérées.
En d'autres termes, vous faites une distinction entre le stockage des
informations et leur affichage.
Si vous êtes un développeur django, plomino, drupal etc. vous pouvez développer
un module pour "plugger" vos modèles et votre interface utilisateur avec celle
de *Carto-Forms*. De cette manière, il est possible d'exposer les formulaires
aux utilisateurs de vos backoffices. De la même manière, il est possible
d'écrire des widgets qui consomment des données et les affichent (en utilisant
par exemple une bibliothèque javascript de webmapping).
Un outil de visualisation
-------------------------
Puisque les données peuvent être proposées de manière automatisée en utilisant
l'API, vous pouvez utiliser la page de résultat de Carto-forms comme un outil
de visualisation.
Il est possible d'explorer mon jeu de données en utilisant des filtres sur
chacun des champs. La recherche à facettes peut être une idée pour faciliter ce
filtrage. Une carte affiche le résultat. Vous avez l'impressoin d'être en face
d'un système d'aide à la décision !
Évidemment, il est possible de télécharger les données brutes (geojson, xml).
Idéalement, le mieux serait d'obtenir ces données filtrées directement depuis
une API Web, et un lien permet de partager la page avec l'état des filtres et
le niveau de zoom / la localisation de la carte.
Un service générique pour gérer les formulaires
-----------------------------------------------
Si vous souhaitez générer un fichier de configuration (ou ce que vous voulez,
messages emails, …) vous aurez besoin d'un formulaire et d'un template pour
injecter les données proposées par les utilisateurs et récupérer un résultat.
Un service de gestion des formulaires pourrait être utile pour créer des
formulaires de manière automatique et récupérer les données "nettoyées" et
"validées".
On peut imaginer par exemple l'utilisation d'un système de templates externe
reposant sur *carto-forms*. Celui-ci "parserait" le contenu des templates et
pourrait le lier aux informations ajoutées par les utilisateurs via un formulaire.
Pour ce cas particulier, il n'y a pas besoin d'informations géographiques
(SIG). Il s'agit quasiment du service proposé actuellement par Google forms.
Ça n'existe pas déjà tout ça ?
===============================
Bien sur, il y a Google forms, qui vous permet de faire ce genre de choses,
mais comme je l'ai précisé plus haut, il ne s'agit pas exactement de la même
chose.
Nous avons découvert https://webform.com qui permet de créer des formulaires
avec un système de drag'n'drop. J'adorerais reproduire quelque chose de
similaire pour l'interface utilisateur. Par contre ce projet ne gère pas les
appels via API et les informations de géolocalisation …
L'idée de http://thoth.io est également assez sympathique: une api très
simple pour stocker et récupérer des données. En plus de ça, *carto-forms*
proposerait de la validation de données et proposerait un support des points
SIG (point, ligne, polygone).
http://mapbox.com fait également un superbe travail autour de la cartographie,
mais ne prends pas en compte le coté auto-génération de formulaires…
On est parti ?!
===============
Comme vous avez pu vous en rendre compte, il ne s'agit pas d'un problème
outrageusement complexe. On a pas mal discuté avec Mathieu, à propos de ce
qu'on souhaite faire et du comment. Il se trouve qu'on peut sûrement s'en
sortir avec une solution élégante sans trop de problèmes. Mathieu est habitué à
travailler autour des projets de SIG (ce qui est parfait parce que ce n'est pas
mon cas) et connaît son sujet. Une bonne opportunité d'apprendre!
On sera tous les deux à `Djangocong`_ le 14 et 15 Avril, et on prévoit une
session de *tempête de cerveau* et un sprint sur ce projet. Si vous êtes dans
le coin et que vous souhaitez discuter ou nous filer un coup de patte,
n'hésitez pas!
On ne sait pas encore si on utilisera django ou quelque chose d'autre. On a
pensé un peu à CouchDB, son système de couchapps et geocouch, mais rien n'est
encore gravé dans le marbre ! N'hésitez pas à proposer vos solutions ou
suggestions.
Voici le document etherpad sur lequel on a travaillé jusqu'à maintenant:
http://framapad.org/carto-forms. N'hésitez pas à l'éditer et à ajouter vos
commentaires, c'est son objectif!
Merci à `Arnaud`_ pour la relecture et la correction de quelques typos dans le
texte :)
.. _Djangocong: http://rencontres.django-fr.org
.. _Mathieu: http://blog.mathieu-leplatre.info/
.. _Arnaud: http://sneakernet.fr/
.. _Makina Corpus: http://makina-corpus.com

View file

@ -1,201 +0,0 @@
Thoughts about a form generation service, GIS enabled
#####################################################
:slug: carto-forms
:date: 02-04-2012
:author: Alexis Métaireau, Mathieu Leplatre
:tags: GIS, forms
:lang: en
:category: tech
We have a plan. A "fucking good" one.
A bunch of friends asked me twice for quite the same thing: a webpage with a
form, tied to a map generation with some information filtering. They didn't
explicitly ask that but that's the gist of it.
This idea has been stuck in my head since then and I even think that we can
come out with something a little bit more flexible and useful. I've named it
*carto-forms* for now, but that's only the "codename".
To put it shortly: what if we had a way to build forms, ala Google forms, but
with geographic information in them?
If you don't know Google forms, it means having an user-friendly way to build
forms and to use them to gather information from different users.
In my opinion, Google forms is missing two important things: first, it's not
open-source, so it's not possible to hack it or even to run it on your own
server. Second, it doesn't really know how to deal with geographic data, and
there is no way to filter the information more than in a spreadsheet.
I knew that `Mathieu`_ and some folks at `Makina Corpus`_ would be interested
in this, so I started a discussion with him on IRC and we refined the details
of the project and its objectives.
Imagine the following:
1. For a mapping party, we choose a specific topic to map and design the form
(list of fields (i.e. tags) to be filled + description + type of the
information) ;
2. In situ, users fill the form fields with what they see. Geo fields can be
pre-populated using device geolocation ;
3. At the end of the day, we can see a map with all user contributions seized
through this particular form ;
4. If relevant, a script could eventually import the resulting dataset and
publish/merge with OpenStreetMap.
Some use cases
==============
I can see some use cases for this. The first one is a collaborative map, with
facet filtering. Let's draw a potential user flow:
* An "administrator" goes to the website and creates a form to list all the
alternative-related events. He creates the following fields:
* Name: a plain text field containing the name of the event.
* Category: the category of the event. Can be a finite list.
* Location: The location of the event. It could be provided by selecting a
point on a map or by typing an address.
* Date: the date of the event (a datepicker could do the trick)
Each field in the form has semantic information associated with it (yes/no,
multiple selection, date-time, geocoding carto, carto selection etc)
* Once finished, the form is generated and the user gets an url (say
http://forms.notmyidea.org/alternatives) for it.
* REST APIs allow third parties to get the form description and to
push/edit/get information from there.
* He can communicate the address in any way he wants to his community so they
can go to the page and add information to it.
* Then, it is possible to filter the results per location / date or category.
This can be done via API calls (useful for third parties) or via a nice
interface in the browser.
So, as you may have noticed, this would allow us to create interactive maps really
easily. It's almost just a matter of some clicks to the users. If we also come
up with a nice Web API for this, we could do server-side validation and build
even phone applications easily.
To push the cursor a bit further, if we can come with a cool description format
for the forms, we could even build the forms dynamically on different platforms,
with generic clients.
As mentioned before, the idea of a simple tool to support collaborative mapping
fullfils a recurring necessity !
We envision a lot of example uses for this : recycling spots, accessible spots (wheelchairs,
etc.), trees identification, mushrooms picking areas, tracking of endangered species
(e.g. Bonelli's Eagle is currently tracked by sharing a spreadsheet), spotting of dangerous
species (e.g. asian predatory wasps), map advertisement boards (most cities do not track them!),
citizen reporting (e.g. graffiti, potholes, garbage, lightning like http://fixmystreet.ca),
geocaching, trajectories (e.g hiking, runners, cyclists)...
Here are some other examples of where *carto-forms* could be useful:
Simple GIS storage backend
--------------------------
Let's say you are a mobile developer, you don't want to bother with PostGIS
nor write a custom and insecure code to insert and retrieve your GIS data! You
need carto-forms! A simple API helps you design your models/forms and the
same API allows you to CRUD and query your data. Thus, you only need to focus
on your application, not on how GIS data will be handled.
We make a distinction between storage and widgets.
Besides, if you are a django / drupal / plomino... maintainer : you
can develop a module to "plug" your models (content types) and UI to carto-forms!
Carto forms are then exposed to your backoffice users (ex: drupal admin UI, django
adminsite), and likewise you can write your own HTML widgets that consume datasets
in frontend views (facets in JSON/XML, and map data in GeoJSON).
Visualization tool
------------------
Since data submission can be done programmatically using the API, you could use Carto-forms
results page as a visualization tool.
You can explore your dataset content using filters related to each form field. Facets filtering
is a great advantage, and a map shows the resulting features set. You feel like you're in
front of a decision support system!
Of course, filtered raw data can be downloaded (GeoJSON, XML) and a permalink allows to
share the page with the state of the filters and the zoom/location of the map.
Generic forms service
---------------------
If you want to generate a configuration file (or whatever, email messages, ...),
you will need a form and a template to inlay user submitted values and get the result.
A form service would be really useful to create forms programmatically and retrieve
cleaned and validated input values.
You could run a dedicated template service based on *carto-forms*! Parsing a template
content, this external service could create a form dynamically and bind them together.
The output of the form service (fields => values) would be bound to the input of a template
engine (variables => final result).
Note that for this use-case, there is no specific need of GIS data nor storage of records
for further retrieval.
What's out in the wild already?
===============================
Of course, there is Google forms, which allows you to do these kind of things,
but it's closed and not exactly what we are describing here.
We've discovered the interesting https://webform.com/ which allows one to create
forms with a nice drag-n-drop flow. I would love to reproduce something similar
for the user experience. However, the project doesn't handle APIs and
geolocation information.
The idea of http://thoth.io is very attractive : an extremely simple web API to store
and retrieve data. In addition, *carto-forms* would do datatype validation and have
basic GIS fields (point, line, polygon).
http://mapbox.com also did an awesome work on cartography, but didn't take into
account the form aspect we're leveraging here.
So… Let's get it real!
======================
As you may have understood, this isn't a really complicated problem. We have
been sometimes chatting about that with Mathieu about what we would need and
how we could achieve this.
We can probably come with an elegant solution without too much pain. Mathieu is
used to work with GIS systems (which is really cool because I'm not at all) and
knows his subject, so that's an opportunity to learn ;-)
We will be at `Djangocong`_ on April 14 and 15 and will probably have
a brainstorming session and a sprint on this, so if you are around and want to
help us, or just to discuss, feel free to join!
We don't know yet if we will be using django for this or something else. We
have been thinking about couchdb, couchapps and geocouch but nothing is written
in stone yet. Comments and proposals are welcome!
Here is the etherpad document we worked on so far:
http://framapad.org/carto-forms. Don't hesitate to add your thoughts and edit
it, that's what it's made for!
Thanks to `Arnaud`_ and `Fuzzmz`_ for proof-reading and typo fixing.
.. _Djangocong: http://rencontres.django-fr.org
.. _Mathieu: http://blog.mathieu-leplatre.info/
.. _Arnaud: http://sneakernet.fr/
.. _Fuzzmz: http://qwerty.fuzz.me.uk/
.. _Makina Corpus: http://makina-corpus.com

View file

@ -1,80 +0,0 @@
Djangocong 2012
###############
:date: 16-04-2012
:lang: fr
:category: thoughts
Ce week-end, c'était `djangocong`_, une conférence autour de `django`_,
de `python`_ et du web, qui avait lieu dans le sud, à Carnon-plage, à quelques
kilomètres de Montpellier la belle.
J'ai vraiment apprécié les trois jours passés avec cette bande de geeks. Je
m'attendais à des *nerds*, j'y ai trouvé une qualité d'écoute, des personnes qui
partagent des valeurs qui leur sont chères, mais qui ne limitent pas
leurs discussions à du technique. Eeeh ouais, encore un préjugé qui tombe,
tiens :)
En tant que *hackers*, on a le moyen de créer des outils qui sont utiles à tous,
et qui peuvent être utiles pour favoriser la collaboration et la mise en commun
des données. J'ai eu l'occasion de discuter de projets tournant autour de
l'entraide, que ça soit pour mettre en lien des associations d'économie sociale
et solidaire (ESS) ou simplement pour que les populations *non tech* `puissent
utiliser toute la puissance de l'outil qu'est le web
<http://blog.notmyidea.org/quels-usages-pour-linformatique-fr.html>`_.
Au niveau du format des conférences, je ne savais pas trop à quoi m'attendre,
au vu des échos de l'an dernier, mais c'était adapté: des mini-confs de 12mn le
samedi matin + début d'aprem, en mode no-wifi pour récupérer une qualité
d'écoute. Et contrairement à mes attentes, ce n'est pas trop court. Pas mal de
retours d'expérience pour le coup, et une matinée pas vraiment techniques, mais
ça pose le décor et permet de savoir qui fait quoi.
Parmi l'ensemble des conférences du matin, je retiens principalement
celle de Mathieu Leplatre, "des cartes d'un autre monde", qui m'a réellement
bluffée quand à la facilité de créer des cartes avec `TileMill
<http://mapbox.com/tilemill/>`_, et qui me pousse à reconsidérer le fait que "la
carto, c'est compliqué". `La vidéo est (déja !) disponible en ligne
<https://www.youtube.com/watch?v=7NPQo54NbJ8>`_, je vous invite à la regarder
(c'est une 15aine de minutes) pour vous faire un avis ;)
Une fois les conf passées, ça reste très intéressant, voire plus: il reste un
jour et demi pour discuter avec les autres présents. On a pu se retrouver avec
Mathieu pour discuter de "notre" projet `"carto
forms" <http://blog.notmyidea.org/carto-forms-fr.html>`_, qui à finalement pu se
redéfinir un peu plus et donner naissance à un `README
<https://github.com/spiral-project/daybed/blob/master/README.rst>`_. On en
à profité pour lui choisir un nouveau nom: "daybed", en référence à couchdb.
Ça devrait se transformer en code d'ici peu. La curiosité aidant, on a pu
discuter du projet avec d'autres personnes et affiner les attentes de chacun
pour finalement arriver à quelque chose d'assez sympathique.
J'ai aussi pu me rendre compte que pas mal de monde utilise `pelican
<http://pelican.notmyidea.org>`_, le bout de code que j'ai codé pour générer ce
blog, et avoir des retours utiles ! Probablement des réflexions à venir
sur comment éviter qu'un projet open-source ne devienne chronophage, et sur
comment réussir à garder une qualité dans le code source tout en ne froissant
pas les contributeurs.
Bien évidemment, c'était aussi l'occaz de rencontrer des gens qu'on ne voir que
sur les inter-nets, et de discuter un brin de tout ce qui fait que notre monde
est chouette et moins chouette.
Entres autres faits notoires, JMad a perdu au baby-foot face à Exirel, même
en m'ayant à ses cotés pour le déconcentrer (et je suis un joueur d'un autre
monde - en d'autres termes, je suis nul), David`bgk ne s'est pas levé pour
aller courir le dimanche matin (il avait dit 5 heures!), Les suisses ont essayé
de me convertir à coup d'abricotine, j'ai perdu au skulls-n-roses en quelques
tours et on a allumé un feu chez Stéphane le dimanche soir (oui oui, à
montpellier, mi avril, je vous le dis qu'ils mentent avec leur soit disant
soleil).
Et c'est sans parler de `la brasucade <http://jehaisleprintemps.net/blog/fr/2012/04/15/j-ecris-ton-nom/>`_
Bref, vivement la prochaine (et allez, cette fois ci je ferais une présentation
!)
.. _djangocong: http://rencontres.django-fr.org
.. _python: http://python.org
.. _django: http://djangoproject.org

View file

@ -1,116 +0,0 @@
Lifestyle
#########
:lang: fr
:date: 11-05-2012
:category: thoughts
Eh beh, c'est pas aussi simple qu'il y parait de trouver un environnement qui
permette autant de travailler correctement et de ne pas s'enfermer dans le
boulot.
Surtout si comme moi vous cherchez à limiter vos déplacement, que vous aimez
vivre avec peu et cherchez à trouver un équilibre entre une vie connectée et
une vie *réelle* (oui, celle avec des vrais gens qui ont d'autres
préoccupations que l'informatique !). Comment réussir à trouver un juste
milieu entre le geek inconditionnel et le bon vivant, qui à du temps à
consacrer à autre chose qu'à son travail ?
Voyages
=======
Un des premiers trucs que j'ai trouvé surprennant en arrivant à Mozilla, c'est
la fréquence des voyages que l'on peut être amené à avoir. Ah, c'est pour la
bonne cause, c'est tellement plus sympa d'avoir les collègues à coté pour
bosser, plutôt qu'à l'autre bout du monde. Mais quand même, si je le voulais,
entre les semaines de travail et les conférences, je pourrais être tous les
deux mois aux États-Unis !
Une aubaine, penserons certains. Voyager, c'est *cool* ! Bon, si on mets de
coté le cout écologique d'un voyage (nécessairement en avion), la chose qui me
dérange le plus c'est cette impression de venir pour repartir. Voyager, c'est
sympa, mais avoir le temps de prendre un rythme de vie différent, de rencontrer
des gens, de construire quelque chose, ça me manque.
Donc je décline quand je n'en ai pas l'envie, tout simplement. Je loupe des
choses intéressantes (`PyCon`_ à Santa Clara avait vraiment l'air
chouette !), mais ça me permet également d'avoir plus de temps pour vivre là ou
j'habite, pour construire quelque chose localement. Et puis des évènements, il
y en à tellement en France et en Europe auquel je n'assiste pas que ça me fait
mal au cœur d'aller à l'autre bout du monde pour faire la même chose !
Bien sur, je serais amené à voyager. Et autant que faire se peut je le
ferais avec plaisir et je tenterais de rester un peu plus avant et après sur
place (plus question de faire un aller/retour en une semaine !), question de me
faire à l'atmosphère ! `Tarek`_ est par exemple resté un mois à San Francisco
en janvier pour son dernier séjour, alors pourquoi ne pas prendre exemple ?
Tout de suite ça me parles plus.
.. _Pycon: http://pycon.us
.. _Tarek: http://ziade.org
Et quand-est-ce qu'on arrête ?
==============================
Une autre chose assez difficile à gérer, c'est le temps.
J'ai vraiment une chance monstrueuse, celle de faire un travail qui me plait,
éthiquement et techniquement. Je pourrais y passer mes journées et mes nuits
que je n'aimerais pas moins ça (même si il m'arrive bien sur de saturer !).
Mais j'ai aussi d'autres envies, qui signifient aussi passer du temps
hors-ligne, parce que bizarrement, c'est là que j'ai l'impression de réfléchir
le plus. Loin de ce surplus d'informations…
Facile à dire.
D'autant que quand il est possible de travailler depuis n'importe où,
la séparation physique entre le lieu de travail et le lieu de vie tends à
disparaitre assez facilement. Et sans séparation physique, il faut une sacré
motivation pour savoir quand commencer et quand s'arrêter.
J'essaye de me donner une règle simple: point trop n'en faut. Aucun intérêt à
rester travailler des heures durant sans s'arrêter, ou en tout cas pas
d'intérêt à le faire de manière trop régulière. Une journée qui commence tôt
(~9h) me permet de me concentrer le matin (les collègues californiens dorment)
et d'avoir un rythme assez "normal". Et puis, avec ce soleil qui commence à
inonder les terrasses, autant faire autre chose que de rester enfermé à coder
en fin d'après midi !
Surplus
=======
Tiens, je parlais de surplus, nous y sommes. Que ça soit le surplus
d'informations ou le surplus d'objets, ça m'encombre ! Une journée, pour ma
part est faite de communications diverses, de code et de lectures (se tenir au
courant de ce qui se passe dans le monde du logiciel n'est pas une tâche des
plus facile, et qui peut facilement prendre énormément de temps).
Je me demande si je ne devrais pas aspirer à la frugalité de ce coté là
également. Je reçois des mails toute la journée, et mon aggrégateur rss/atom se
remplit également très vite. Mais je n'ai aucunement besoin d'avoir toutes ces
informations dans l'heure, et de les vérifier de manière fréquente. De la même
manière, j'ai simplement arrêté de lire mes flux rss.
Quelques (longues) fois dans la semaine semblent suffire et me permettent de
réussir à rester concentrer.
Résolutions
===========
Soyons fous, tentons quelque chose de nouveau, c'est le printemps ! Pas de
communication dans la matinée, je n'en ai probablement pas besoin, sauf cas
extrêmes. Le matin, c'est pour se concentrer sur le travail à faire.
Une fois les mails du matin dépilés (à 9h30), pas la peine de garder un œil
sur ma boite mail, j'irais y faire un tour en début et en fin d'après midi.
Je pense même à débrancher internet, pour éviter les interactions et pour me
concentrer, mais j'ai comme l'impression que c'est un peu trop abrupt comme
approche.
Aussi, définir en début de journée la liste des choses prévues, et revenir
dessus jour après jour me permettra surement d'avoir un aperçu un peu plus
global du travail accompli.
L'avenir dira si tout ça fonctionne :-)

View file

@ -1,206 +0,0 @@
Refactoring Cornice
###################
:date: 14-05-2012
:tags: python, Cornice, refactoring
:category: tech
After working for a while with `Cornice <http://cornice.readthedocs.com>`_ to
define our APIs at `Services <http://docs.services.mozilla.com>`_, it turned
out that the current implementation wasn't flexible enough to allow us to do
what we wanted to do.
Cornice started as a toolkit on top of the `pyramid
<http://docs.pylonsproject.org/en/latest/docs/pyramid.html>`_ routing system,
allowing to register services in a simpler way. Then we added some niceties
such as the ability to automatically generate the services documentation or
returning the correct HTTP headers `as defined by the HTTP specification
<http://www.w3.org/Protocols/rfc2616/rfc2616-sec10.html>`_ without the need
from the developer to deal with them nor to know them.
If you're not familiar with Cornice, here is how you define a simple service
with it:
.. code-block:: python
from cornice.service import Service
bar = Service(path="/bar")
@bar.get(validators=validators, accept='application/json')
def get_drink(request):
# do something with the request (with moderation).
This external API is quite cool, as it allows to do a bunch of things quite
easily. For instance, we've written our `token-server
<https://github.com/mozilla-services/tokenserver>`_ code on top of this in a
blast.
The burden
==========
The problem with this was that we were mixing internally the service
description logic with the route registration one. The way we were doing this
was via an extensive use of decorators internally.
The API of the `cornice.service.Service` class was as following (simplified so
you can get the gist of it).
.. code-block:: python
class Service(object):
def __init__(self, **service_kwargs):
# some information, such as the colander schemas (for validation),
# the defined methods that had been registered for this service and
# some other things were registered as instance variables.
self.schemas = service_kwargs.get(schema', None)
self.defined_methods = []
self.definitions = []
def api(self, **view_kwargs):
"""This method is a decorator that is being used by some alias
methods.
"""
def wrapper(view):
# all the logic goes here. And when I mean all the logic, I
# mean it.
# 1. we are registering a callback to the pyramid routing
# system so it gets called whenever the module using the
# decorator is used.
# 2. we are transforming the passed arguments so they conform
# to what is expected by the pyramid routing system.
# 3. We are storing some of the passed arguments into the
# object so we can retrieve them later on.
# 4. Also, we are transforming the passed view before
# registering it in the pyramid routing system so that it
# can do what Cornice wants it to do (checking some rules,
# applying validators and filters etc.
return wrapper
def get(self, **kwargs):
"""A shortcut of the api decorator"""
return self.api(request_method="GET", **kwargs)
I encourage you to go read `the entire file
<https://github.com/mozilla-services/cornice/blob/4e0392a2ae137b6a11690459bcafd7325e86fa9e/cornice/service.py#L44>`_.
on github so you can get a better opinion on how all of this was done.
A bunch of things are wrong:
* first, we are not separating the description logic from the registration one.
This causes problems when we need to access the parameters passed to the
service, because the parameters you get are not exactly the ones you passed
but the ones that the pyramid routing system is expecting. For instance, if
you want to get the view `get_drink`, you will instead get a decorator which
contains this view.
* second, we are using decorators as APIs we expose. Even if decorators are
good as shortcuts, they shouldn't be the default way to deal with an API. A
good example of this is `how the resource module consumes this API
<https://github.com/mozilla-services/cornice/blob/4e0392a2ae137b6a11690459bcafd7325e86fa9e/cornice/resource.py#L56>`_.
This is quite hard to follow.
* Third, in the `api` method, a bunch of things are done regarding inheritance
of parameters that are passed to the service or to its decorator methods.
This leaves you with a really hard to follow path when it comes to add new
parameters to your API.
How do we improve this?
=======================
Python is great because it allows you to refactor things in an easy way. What I
did isn't breaking our APIs, but make things way simpler to hack-on. One
example is that it allowed me to add features that we wanted to bring to
Cornice really quickly (a matter of minutes), without touching the API that much.
Here is the gist of the new architecture:
.. code-block:: python
class Service(object):
# we define class-level variables that will be the default values for
# this service. This makes things more extensible than it was before.
renderer = 'simplejson'
default_validators = DEFAULT_VALIDATORS
default_filters = DEFAULT_FILTERS
# we also have some class-level parameters that are useful to know
# which parameters are supposed to be lists (and so converted as such)
# or which are mandatory.
mandatory_arguments = ('renderer',)
list_arguments = ('validators', 'filters')
def __init__(self, name, path, description=None, **kw):
# setup name, path and description as instance variables
self.name = name
self.path = path
self.description = description
# convert the arguments passed to something we want to store
# and then store them as attributes of the instance (because they
# were passed to the constructor
self.arguments = self.get_arguments(kw)
for key, value in self.arguments.items():
setattr(self, key, value)
# we keep having the defined_methods tuple and the list of
# definitions that are done for this service
self.defined_methods = []
self.definitions = []
def get_arguments(self, conf=None):
"""Returns a dict of arguments. It does all the conversions for
you, and uses the information that were defined at the instance
level as fallbacks.
"""
def add_view(self, method, view, **kwargs):
"""Add a view to this service."""
# this is really simple and looks a lot like this
method = method.upper()
self.definitions.append((method, view, args))
if method not in self.defined_methods:
self.defined_methods.append(method)
def decorator(self, method, **kwargs):
"""This is only another interface to the add_view method, exposing a
decorator interface"""
def wrapper(view):
self.add_view(method, view, **kwargs)
return view
return wrapper
So, the service is now only storing the information that's passed to it and
nothing more. No more route registration logic goes here. Instead, I added this
as another feature, even in a different module. The function is named
`register_service_views` and has the following signature:
.. code-block:: python
register_service_views(config, service)
To sum up, here are the changes I made:
1. Service description is now separated from the route registration.
2. `cornice.service.Service` now provides a `hook_view` method, which is not a
decorator. decorators are still present but they are optional (you don't
need to use them if you don't want to).
3. Everything has been decoupled as much as possible, meaning that you really
can use the `Service` class as a container of information about the services
you are describing. This is especially useful when generating documentation.
As a result, it is now possible to use Cornice with other frameworks. It means
that you can stick with the service description but plug any other framework on
top of it. `cornice.services.Service` is now only a description tool. To
register routes, one would need to read the information contained into this
service and inject the right parameters into their preferred routing system.
However, no integration with other frameworks is done at the moment even if the
design allows it.
The same way, the sphinx description layer is now only a consumer of this
service description tool: it looks at what's described and build-up the
documentation from it.
The resulting branch is not merged yet. Still, you can `have a look at it
<https://github.com/mozilla-services/cornice/tree/refactor-the-world>`_.
Any suggestions are of course welcome :-)

View file

@ -1,174 +0,0 @@
Pourquoi Mozilla?
#################
:date: 2012-07-16
:tags: logiciel-libre, valeurs
:lang: fr
:category: thoughts
Depuis que j'ai commencé à bosser chez Mozilla, je me retrouve assez souvent à
expliquer ce que j'y fais. J'aime bien raconter l'histoire de Mozilla, la
mission, et comment je m'y rattache.
Je prends bien sur un malin plaisir à expliquer à chaque fois les tenants et
les aboutissants, aussi je me suis dit que ça pouvait avoir du sens de l'écrire
quelque part.
Ça parle bien sur de logiciel libre, de protection de la vie privée et de
contre-pouvoirs.
Je ne m'adresse pas ici aux afficionados du logiciel libre et du non contrôle
du web, mais aux potentiels intéressés, qui souhaitent comprendre ce qu'on fait
à Mozilla, pourquoi et comment, et plus particulièrement quel est le rôle que
je joue la dedans.
Logiciel libre
==============
Une des premières choses qui vient à l'esprit des gens quand on parle de
Mozilla, et par extension de Firefox, c'est qu'il s'agit d'un logiciel gratuit.
D'un logiciel soit disant "libre". Avouez que le concept est de prime abord
curieux. Un logiciel qui serait libéré, mais libéré de quoi ?
Je ne vais pas refaire la génèse du logiciel et du logiciel libre, mais pour
résumer et expliquer ça très grossièrement, le logiciel libre c'est pour moi
l'idée de la collaboration. "Plutôt que de travailler chacun dans son coin,
construisons ensemble quelque chose qui nous sera utile à tous". Ça marche dans
le domaine de l'informatique parce qu'on est exposé à un bien commun non
matériel. Ce n'est pas parce que je te donne un logiciel que je ne l'ai plus.
La duplication est possible et elle rend la collaboration plus facile.
Euh, oui mais…
--------------
Ok, ok. Et comment on coopère ? Derrière un logiciel, il faut écrire des lignes
de code, il faut décrire comment doit se comporter le logiciel dans l'ensemble
des cas qu'il peut rencontrer. Mais pas seulement. Beaucoup de personnes
travaillent pour faire en sorte que Firefox soit disponible dans près de 100
langues et dialectes par exemple.
J'aime beaucoup penser que le logiciel libre réussit à réunir des personnes
avec des objectifs differents. Linux, qui est un logiciel libre, est par exemple
utilisé dans beaucoup de domaines très différents tels que la médecine,
l'automobile ou l'énergie.
Le logiciel libre est une valeur clé que nous défendons chez Mozilla.
Protection de la vie privée
===========================
Mozilla en fait un peu sa devise. Nous ne sommes pas une entreprise, nous
n'avons aucun intérêt à enfermer les utilisateurs chez nous, et surtout nous
n'exploitons et n'exploiterons pas les données utilisateurs à des fins
commerciales. Jamais.
Stockage des données
--------------------
Un exemple qui est frappant est celui de `Sync`_, l'outil qui permet de
synchroniser les données de navigation entre plusieurs périphériques (Cela peut
être utile pour avoir votre historique de navigation partagé entre votre
ordinateur de bureau et un téléphone portable par exemple)
Les données qui sont stockées dans un service tel que sync sont cruciales: vos
mots de passe et votre historique de navigation par exemple. Imaginez ce que
des annonceurs publicitaires pourraient faire avec ces données. Il est assez
facile de connaître votre profil et donc d'ensuite faire de la publicité
ciblée à partir de ces informations. Voire pire. Donner ces données à qui fait
suffisemment pression sur vous pour les récupérer.
Heureusement, les données qui sont stockées sur les serveurs Sync sont
chifrées, et seul l'utilisateur a accès a la clé de chiffrement et de
déchiffrement. En d'autres termes, en ayant accès aux serveurs de Mozilla, même
de l'intérieur, je pourrais avoir accès à vos données mais je ne pourrais rien
en faire car celles-ci me sont impossibles à déchiffrer.
Mozilla essaye de mettre le doigt là où ça fait mal dans l'innovation web : la
publicité et le respect de la vie privée des utilisateurs. Facebook, Google,
Twitter sont autant d'entreprises qui gagnent de l'argent grâce à leurs
utilisateurs et à leurs données privées.
Cela n'est pas *nécessairement* un mal mais il me semble important d'informer
les utilisateurs d'Internet la dessus, et de leur proposer des méthodes qui
leur permettent de protéger leur vie privée.
.. _Sync: https://www.mozilla.org/en-US/mobile/sync/
Décentralisation
----------------
Un autre aspect important est le fait que vous n'avez pas besoin de dépendre des
serveurs de Mozilla si vous ne souhaitez pas en dépendre. Bien que nous
fassions tout ce qui est en notre pouvoir pour avoir des serveurs très réactifs
et capables de tenir la charge, nous ne sommes pas à l'abri de pannes. Auquel
cas il vous faudra simplement vous armer de patience.
Mais il est possible pour vous de maintenir votre propre serveur et de ne pas
dépendre de Mozilla pour stocker vos données privées. J'ai parlé de Sync mais
Mozilla (j'en parle un peu plus bas) travaille aussi sur un système
d'exploitation pour téléphone portable, nommé Firefox OS (anciennement Boot 2
Gecko), et sur l'écosystème qui va avec.
Actuellement, si vous souhaitez synchroniser vos contacts par exemple, vous
dépendez quasiment toujours d'une autorité à qui vous ne faites peut être pas
confiance: Apple, Microsoft ou bien Google.
On ne vous propose pas simplement de nous faire confiance, on vous propose la
possibilité de ne faire confiance qu'à ceux à qui vous souhaitez accorder votre
confiance, et ça peut être vous si vous le souhaitez.
La décentralisation à ceci de bon qu'elle vous laisse le choix d'où vous
souhaitez stocker vos données.
Innovation et standardisation
=============================
Mozilla, dès ses débuts, a été un laboratoire. Firefox (si je ne me trompe pas)
a été le premier navigateur à avoir des onglets. Le web, c'est cool parce que
ça bouge tout le temps ! (Edit: en fait, `ce n'était pas le premier
<http://en.wikipedia.org/wiki/Tabbed_document_interface>`_, mais l'idée est là)
La dernière innovation en date est Firefox OS: utilisons les technologies du
web pour créer un téléphone: utilisons le web comme plateforme, et profitons de
tout l'écosystème qui existe déjà autour de celui-ci.
C'est bien que ça bouge mais il faut qu'on se mette d'accord sur comment on
veut faire bouger les choses. La guerre des navigateurs a eu lieu. Ne pas
reproduire ça est parfois un challenge. La standardisation, tout le monde s'y
met.
On a gagné une guerre: aux utilisateurs de choisir les outils qu'ils souhaitent
et non pas aux développeurs d'imposer leurs choix.
Et moi, qu'est-ce que je fais la dedans ?
=========================================
Je travaille dans l'équipe nommée Services. On travaille à la mise en
place de services web qui sont capables de tenir la charge, de fonctionner de
manière décentralisée.
Ce travail a plusieurs objectifs:
* Mettre à disposition des outils pour les développeurs, leur permettant de
créer des services de bonne qualité rapidement;
* Permettre aux utilisateurs d'héberger eux mêmes leurs propres serveurs s'ils
le souhaitent, réduisant leur dépendance a des services externes.
* Écrire les services en question de telle manière que les utilisateurs (vous
!) puissent les utiliser sans avoir trop de tracas :)
Ça semble peu, mais j'aime ce boulot. Éthiquement et techniquement. C'est ça,
pour moi, la mission de Mozilla. Si vous avez des suggestions sur ce qui
pourrait être amélioré dans les services de Mozilla en termes de protection de
la vie privée, de décentralisation et de haute disponibilité, vous savez vers
qui vous tourner !
La liste des projets sur lesquels je travaille ou j'ai travaillé à Mozilla pour
l'instant:
* https://github.com/mozilla-services/tokenserver
* http://circus.io/
* http://powerhose.rtfd.org/
* https://github.com/mozilla-services/server-aitc
* http://cornice.readthedocs.org/en/latest/index.html
* https://github.com/mozilla/PyBrowserID/
* http://chaussette.readthedocs.org/en/0.3/index.html

View file

@ -1,41 +0,0 @@
Cheese & Code party: October 20-21
##################################
:date: 20/09/2012
:slug: afpy-computer-camp-october-20-21
:category: tech
At PyconFR, this week-end, a few ideas were thrown in the air and one of them
was to have a /dev/fort doing some python-related coding.
The concept of a /dev/fort is to put a bunch of hackers together and see what
comes out from it. Tarek is doing something related with the Afpy Computer
Camps at his house each year, I've been there twice and it really was a nice
experience.
At Djangocong 2012, in Montpellier (south of France), `Mathieu Leplatre
<http://blog.mathieu-leplatre.info/>`_ and myself started to work on a model
validation and storage service, named `Daybed
<https://github.com/spiral-project/daybed/>`_.
I've talked about this project to some persons this week-end (I've even done `a
lightning talk <http://alexis.notmyidea.org/lightning-daybed.html>`_ about it)
and it gathered some interest from people in the python community, so we
thought about sprinting on this.
20 and 21 October - A Computer Camp !
=====================================
Add to this a few beers, and the sprint turns magically into a camp. We'll be
sprinting at the end of October (the 20 and 21) near Angers, on daybed.
We plan to have great food and wine, so if you feel like it and if you want to
come and work on some python-related things, you're invited!
Although, I can host a limited number of persons, so you'll need to contact me
before :), that's `alexis at notmyidea dot org`.
I've setup a wiki page to organize a bit everything (knowing how many people will
come by will allow me to handle things better), please put information there:
http://wiki.python.org/moin/ComputerCampAlexis

View file

@ -1,96 +0,0 @@
Circus sprint at PyconFR
########################
:date: 17/09/2012
:category: tech
Last Thursday to Sunday, `Pycon France <http://pycon.fr>`_ took place, in
Paris. It was the opportunity to meet a lot of people and to talk about python
awesomness in general.
We had three tracks this year, plus sprints the two first days. We sprinted on
`Circus <http://circus.io>`_, the process and socket manager we're using
at Mozilla for some of our setups.
The project gathered some interest, and we ended up with 5 persons working on
it. Of course, we spent some time explaining what is Circus, how it had been
built, a lot of time talking about use-cases and possible improvements, but we
also managed to add new features.
Having people wanting to sprint on our projects is exciting because that's
when making things in the open unleashes its full potential. You can't imagine
how happy I was to have some friends come and work on this with us :)
Here is a wrap-up of the sprint:
Autocompletion on the command-line
==================================
`Remy Hubscher <http://natim.ionyse.com>`_ worked on the command-line
autocompletion. Now we have a fancy command-line interface which is able to
aucomplete if you're using bash. It seems that not that much work is needed to
make it happen on zsh as well :)
`Have a look at the feature
<https://github.com/mozilla-services/circus/blob/master/extras/circusctl_bash_completion>`_
On the same topic, we now have a cool shell for Circus. If you start the
`circusctl` command without any option, you'll end-up with a cool shell. Thanks
`Jonathan Dorival <https://github.com/jojax>`_ for the work on this! You can
have a look at `the pull request
<https://github.com/mozilla-services/circus/pull/268>`_.
Future changes to the web ui
============================
`Rachid Belaid <https://twitter.com/rachbelaid>`_ had a deep look at the source
code and is much more familiarized to it now than before. We discussed the
possibility to change the implementation of the web ui, and I'm glad of this.
Currently, it's done with bottle.py and we want to switch to pyramid.
He fixed some issues that were in the tracker, so we now can have the age of
watchers in the webui, for instance.
Bug and doc fixing
==================
While reading the source code, we found some inconsistencies and fixed them,
with `Mathieu Agopian <http://mathieu.agopian.info/>`_. We also tried to
improve the documentation at different levels.
Documentation still needs a lot of love, and I'm planning to spend some time on
this shortly. I've gathered a bunch of feedback on this
Circus clustering capabilities
==============================
One feature I wanted to work on during this sprint was the clustering abilities
of Circus. Nick Pellegrino made an internship on this topic at Mozilla so we
spent some time to review his pull requests.
A lot of code was written for this so we discussed a bunch of things
regarding all of this. It took us more time than expected (and I still need to
spend more time on this to provide appropriate feedback), but it allowed us to
have a starting-point about what this clustering thing could be.
Remy wrote `a good summary about our brainstorming
<http://tech.novapost.fr/circus-clustering-management-en.html>`_ so I'll not do
it again here, but feel free to contact us if you have ideas on this, they're
very welcome!
Project management
==================
We've had some inquiries telling us that's not as easy as it should to get
started with the Circus project. Some of the reasons are that we don't
have any release schedule, and that the documentation is hairy enough to lost
people, at some point :)
That's something we'll try to fix soon :)
PyconFR was a very enjoyable event. I'm looking forward to meet the community
again and discuss how Circus can evolve in ways that are interesting to
everyone.
Tarek and me are going to `Pycon ireland <http://python.ie/pycon/2012/>`_, feel
free to reach us if you're going there, we'll be happy to meet and enjoy beers!

View file

@ -1,89 +0,0 @@
Motivation, bénévolat et participation
######################################
:date: 04-10-2012
:lang: fr
:category: thoughts
Des luttes, dieu (même si on peut à juste titre se demander ce qu'il vient
faire là) sait qu'il y en a. Principalement pour pointer du doigt les hérésies
du système actuel. Ça s'applique à l'informatique et à son système de brevets,
au `bétonnage de nos campagnes <http://zad.nadir.org/>`_ ou encore aux luttes
contre l'oligarchie et les profits d'une minorité aux dépends du reste du monde,
et à encore bien d'autres choses.
Pendant un bout de temps, j'ai parlé d'entraide, de collaboration, j'ai essayé
de sensibiliser autour de la question environnementale et aux alternatives
sociales. C'est d'ailleurs de cette manière que je me suis moi-même le plus
sensibilisé à ces questions qui me préoccupaient.
J'ai tenté de le faire sans tomber dans la critique des choix des uns et des
autres. Je respecte profondément la diversité des points de vues **mais** je
souhaite également que ces choix soient faits en connaissance de cause.
Une des choses difficile à supporter (pour les autres) quand on fait de la
sensibilisation, c'est le syndrôme du jeune con, du donneur de leçons.
On dirait qu'on parle de sauver le monde. "Nous qui avons tout compris, on peut
vous aider à aller dans la *bonne direction*", mais c'est en oubliant que
la bonne direction pour l'un ne l'est pas nécessairement pour les autres…
Just do it !
============
Se battre *contre quelque chose* permet de facilement trouver des personnes qui
partagent les même craintes alors que se battre *pour* permet d'engager des
discussions avec des personnes qui partagent une vision commune.
Proposer des choses, trouver des personnes qui partagent des points de vue est
un bon point de départ pour le changer ce monde, a notre échelle. Le récent
documentaire `"Just do it" <http://justdoitfilm.com/>`_ porte un message assez
clair: toute initiative compte, aussi petite et insignifiante qu'elle puisse
sembler.
Des initiatives locales, il y en a, plein. Et si ce que nous avons dans notre
quotidien nous pèse (aller au supermarché, subir la sur-médiatisation
télévisuelle, ne pas parler à nos voisins de quartier…), qu'est-ce qui nous
empêche d'y substituer des modèles alternatifs ?
Monter une `AMAP`_ (Association Pour le Maintien d'une Agriculture Paysanne)
n'est pas aussi compliqué qu'il y parait. Pour avoir fait l'expérience par deux
fois, j'ai été très agréablement surpris par la facilité des choses, pour peu
qu'on ne cherche pas à s'encombrer de l'inutile (tiens encore une fois on
parle de frugalité !): il est facile de vouloir faire trop, de recréer les
processus complexes auxquels nous sommes souvent confrontés.
Vous souhaitez partager des connaissances (cuisine, musique, danse, bricolage,
écriture), il suffit de le faire. En fait, pour la plupart des choses, il
suffit de tenter l'expérience, c'est rarement décevant. Surtout quand on
s'embarque dans des choses saugrenues ou personnellement inédites.
Pour moi, la frugalité, la simplicité volontaire, la sobriété heureuse, appelez-ça
comme vous le voulez, représente ce qui me convient et me permet d'être en
ligne avec les idées que je défends.
.. _AMAP: https://fr.wikipedia.org/wiki/AMAP
Faciliter la participation
==========================
Beaucoup de personnes sont à même de participer à des projets locaux, pour peu
qu'ils soient au courant mais pour autant peu franchissent le pas, et encore
moins persévèrent, pourquoi ?
Et pourquoi pas laisser les présents, les motivés, s'investir par eux-mêmes ?
Avoir des responsabilités est souvent pour ma part un frein à la réalisation
d'un projet lorsque je suis bénévole.
Décider à l'avance des choses qui semblent utiles et/ou importantes est parfois
indispensable, mais ne pas trop en faire permet de laisser libre court
à l'imagination (souvent débordante) des participants.
J'aime beaucoup l'idée de faire des camps de quelques jours, où rien n'est
réellement décidé à l'avance, mise à part un thème et quelques temps de
plénière ou il est possible à chacun de s'exprimer sur les projets qui
pourraient êtres réalisés.
Pas besoin de tant de formalisation: mettez une équipe de bidouilleurs ensemble
durant une semaine sans objectif commun à priori et sans distractions, vous
verrez bien ce qui en ressortira !

View file

@ -1,149 +0,0 @@
Bière maison !
##############
:date: 04-10-2012
:lang: fr
:category: diy
Et voilà, c'est notre troisième brassin. On a commencé à faire notre propre
bière (avec un ami, Fred) il y a quasiment un an maintenant, et après quelques
dératés, même s'il nous reste encore bien du chemin à parcourir pour avoir
quelque chose qui nous convienne réellement… c'est pas si pire comme on dit !
Cette fois-çi, on s'est penché sur la confection d'une IPA (Indian Pale Ale, une
bière un peu plus amère que celle qu'on à l'habitude de trouver en France).
Elle est plus amère car elle comporte plus de houblon que les autres, et
(dans notre cas en tout cas) parce qu'on fait la première fermentation en
présence de houblon.
Comment qu'on fait de la bière ?
================================
Machine arrière; n'allons pas trop vite: comment est-ce qu'on fait de la bière,
d'abord ?
En fin de compte, les quelques étapes nécessaire à la confection de la bière ne
sont pas bien sorcières; concassage de l'orge maltée, cuisson (libération de
l'amidon dans l'eau), infusion du houblon, refroidissement, première
fermentation, embouteillage et seconde fermentation.
L'idée principale est transformer l'amidon d'orge maltée en sucre, pour le
"donner à manger" à des levures. Vous ajoutez un peu de houblon au milieu pour
donner un petit goût amer et le tour est joué. Enfin presque.
Étape par étape
===============
Première étape: **le concassage**. On avait 6kg d'orge maltée à concasser (plus
exactement 6kg de malt pâle *7EDC* et 500g de malt cara *50EDC*).
.. image:: images/concassage.jpg
:width: 400px
:alt: Image de concassage.
Attention, pas trop fin dis donc ! On ne veut pas de la poudre, on veut
simplement permettre à l'amidon de se dissoudre dans l'eau. Si on concasse le
malt trop fin, on se retrouve avec un dépôt dégeulasse au fond de toutes les
bouteilles (c'est l'expérience qui parle, notre première bière avait plus goût
de céréale que de bière…)
Contrairement aux fois précédentes où nous avions utilisé la technique du
marteau et du torchon (oui, comme vous pouvez l'imaginer, c'est assez long et
fastidieux), On a utilisé… un moulin à malt ! Qui nous à permis de concasser les
6kg en 30 minutes (heureusement qu'on était trois pour se relayer sur le
moulin, parce que nos petits muscles fatiguaient assez vite; vous pouvez
envisager de faire ça tout seul si vous êtes un tennisman).
.. image:: images/concasse.jpg
:width: 700px
:alt: C'est dur !
La seconde étape, **l'empatage**. Il s'agit de faire chauffer notre orge maltée
à différentes températures. Les fois précédentes, on avait utilisé plusieurs
paliers de température, mais il semble que ça ne soit pas si nécessaire que ça,
selon les informations de l'ami Fred. On à donc tenté de faire chauffer notre
malt directement à 50°C. Une petite erreur sur la route, on à eu peur de la
contamination bactérienne et on à décidé de faire bouillir nos 26L d'eau pour
être sur que les bactéries s'enfuient en courant. Je dis erreur parce que ça
nous à pris pas loin de 3h30, inertie quand tu nous tiens!
On se rends compte de la taille de la marmite un peu là:
.. image:: images/marmite.jpg
:width: 400px
:alt: Une grosse marmite
Une fois l'eau à température (54°C), il faut ajouter le malt et le laisser
durant 30mn à cette température, puis augmenter jusqu'à 65°C durant 1h.
La troisième étape, c'est **le rinçage**, l'idée est de récupérer l'amidon qui
s'est dissout dans l'eau et de mettre de côté l'orge maltée (la partie solide).
Pour ça, il faut faire chauffer de l'eau de rinçage. On a utilisé 10L d'eau de
rinçage qu'on a fait chauffer à 78°C, en comptant sur le fait qu'elle perdra de sa
température (20°C à peu près) en étant utilisée. On a filtré deux fois pour
être sûr de ne rien perdre.
.. image:: images/filtrage.jpg
:width: 700px
:alt: Filtrage filtrage...
L'étape d'après (la quatrième, vous suivez), c'est **le houblonnage**.
On va faire infuser notre "solution aqueuse" (wouah, on dirait de la chimie !)
avec du houblon. Il faut porter l'eau à ébullition et laisser faire durant 1h.
Dernière étape: **le refroidissement**. On dirait que c'est tranquilou comme
ça, mais en fait ça ne l'est pas tant que ça: il faut réussir à passer notre
liquide qui était en ébullition à 54°C en un temps acceptable. Pour ça, on
a utilisé un serpentin confectionné main.
.. image:: images/refroidisseur.jpg
:width: 400px
:alt: Notre refroidisseur fait main par Fred.
Ça nous a permis de passer de 100°C à 54°C en… 35 minutes quand même ! (Nous avions essayé les fois précédentes
de gérer ça à coup de baignoire et de glaçons, les temps n'étaient absolument
pas au rendez-vous).
.. image:: images/refroidissement.jpg
:width: 700px
:alt: Décidement pas.
Je disais dernière étape, mais il ne faut pas oublier de rajouter les
levures, qui elles vont faire tout le travail et transformer tout ça en… alcool
! Dans notre cas, on ajoute aussi dans la cuve de fermentation du houblon
question de donner l'amertume dont on a envie.
On à mesuré une densité de 1046, ce qui veut dire 6° d'alcool. La cuve est
maintenant en train de buller tranquillement (les levures produisent du gaz qui
est évacué), et ça doit durer 15 jours approximativement.
Mise en bouteille
=================
Une fois ces deux semaines passées, il faut mettre en bouteille. Dans notre cas
nous avons récupéré des bouteilles à bouchon mécanique (vous savez, les
bouteilles de limonades) qu'on à bien rincé et nettoyé.
On s'équipe d'un siphon (pensez à prendre un tuyau avec un diamètre assez
important, le notre était petit et c'était assez long) et après avoir ajouté du
sucre dans le mélange (pour réactiver les levures), on remplit les bouteilles
! Il s'agit de la seconde fermentation, celle qui va faire les bulles (la
première fermentation se charge de l'alcool, la seconde des bulles).
Et voilà ! Il ne reste plus qu'à mettre les bouteilles de coté durant deux
semaines de plus et… à déguster le moment venu.
On a donc pu tester notre bière la semaine dernière et, ma foi, elle est pas
mal du tout. Elle ne mousse pas trop et à un goût un peu amer. Malheureusement
pas assez à mon goût, mais ça viendra. En comparaison à nos précédents essais,
c'est plutôt positif: la première était ratée puisque trop de pression et trop
de dépôt (et donc un fort goût de levures) alors que la seconde (on avait tenté
d'ajouter de la lavande) avait un goût de lavande amère, pour ne pas dire de
savon.
Cette dernière bière a un goût de… de bière ! Il nous reste encore à comprendre
comment faire pour lui donner la saveur que l'on souhaite, mais c'est déjà un
grand pas en avant. Prochaine étape... La bière de Noël !

View file

@ -1,143 +0,0 @@
Cheese & code - Wrap-up
#######################
:date: 2012-10-22
:category: tech
This week-end I hosted a *cheese & code* session in the country-side of Angers,
France.
We were a bunch of python hackers and it rained a lot, wich forced us to stay
inside and to code. Bad.
We were not enough to get rid of all the cheese and the awesome meals, but
well, we finally managed it pretty well.
Here is a summary of what we worked on:
Daybed
------
Daybed started some time ago, and intend to be a replacement to google forms,
in term of features, but backed as a REST web service, in python, and open
source.
In case you wonder, daybed is effectively the name of a couch. We chose this
name because of the similarities (in the sound) with **db**, and because
we're using **CouchDB** as a backend.
.. image:: images/daybed.jpg
:width: 400px
:alt: Daybed is a big couch!
We mainly hacked on daybed and are pretty close to the release of the first
version, meaning that we have something working.
`The code <http://github.com/spiral-project/daybed>`_ is available on github,
and we also wrote `a small documentation <http://daybed.rtfd.org>`_ for it.
Mainly, we did a lot of cleanup, rewrote a bunch of tests so that it would be
easier to continue to work on the project, and implemented some minor features.
I'm pretty confidend that we now have really good basis for this project.
Also, we will have a nice todolist application, with the backend **and** the
frontend, in javascript / html / css, you'll know more when it'll be ready :-)
Once we have something good enough, we'll release the first version and I'll
host it somewhere so that people can play with it.
Cornice
-------
Daybed is built on top of `Cornice <http://cornice.rtfd.org>`_, a framework to
ease the creation of web-services.
At Pycon France, we had the opportunity to attend a good presentation about `SPORE
<https://github.com/SPORE/specifications>`_. SPORE is a way to describe your
REST web services, as WSDL is for WS-* services. This allows to ease the
creation of generic SPORE clients, which are able to consume any REST API with
a SPORE endpoint.
Here is how you can let cornice describe your web service for you
.. code-block:: python
from cornice.ext.spore import generate_spore_description
from cornice.service import Service, get_services
spore = Service('spore', path='/spore', renderer='jsonp')
@spore.get
def get_spore(request):
services = get_services()
return generate_spore_description(services, 'Service name',
request.application_url, '1.0')
And you'll get a definition of your service, in SPORE, available at `/spore`.
Of course, you can use it to do other things, like generating the file locally
and exporting it wherever it makes sense to you, etc.
I released today `Cornice 0.11 <http://crate.io/packages/cornice/>`_, which adds
into other things the support for SPORE, plus some other fixes we found on our
way.
Respire
-------
Once you have the description of the service, you can do generic clients
consuming them!
We first wanted to contribute to `spyre <https://github.com/bl0b/spyre>`_ but
it was written in a way that wasn't supporting to `POST` data, and they
were using their own stack to handle HTTP. A lot of code that already exists in
other libraries.
While waiting the train with `Rémy <http://natim.ionyse.com/>`_, we hacked
something together, named "Respire", a thin layer on top of the awesome
`Requests <http://python-requests.org>`_ library.
We have a first version, feel free to have a look at it and provide
enhancements if you feel like it. We're still hacking on it so it may break
(for the better), but that had been working pretty well for us so far.
You can `find the project on github
<http://github.com/spiral-project/respire>`_, but here is how to use it, really
quickly (these examples are how to interact with daybed)
.. code-block:: python
>>> from respire import client_from_url
>>> # create the client from the SPORE definition
>>> cl = client_from_url('http://localhost:8000/spore')
>>> # in daybed, create a new definition
>>> todo_def = {
... "title": "todo",
... "description": "A list of my stuff to do",
... "fields": [
... {
... "name": "item",
... "type": "string",
... "description": "The item"
... },
... {
... "name": "status",
... "type": "enum",
... "choices": [
... "done",
... "todo"
... ],
... "description": "is it done or not"
... }
... ]}
>>> cl.put_definition(model_name='todo', data=todo_def)
>>> cl.post_data(model_name='todo', data=dict(item='make it work', status='todo'))
{u'id': u'9f2c90c0529a442cfdc03c191b022cf7'}
>>> cl.get_data(model_name='todo')
Finally, we were out of cheese so everyone headed back to their respective
houses and cities.
Until next time?

View file

@ -1,47 +0,0 @@
Gnome 3, extensions
###################
:date: 27-12-2012
:tags: note
:category: tech
Après avoir tenté pendant un bout de temps unity, le bureau par defaut de
ubuntu, j'ai eu envie de changements, et j'ai donc essayé un peu de regarder du
coté de gnome 3, à nouveau.
Et finalement, j'ai trouvé quelques extensions qui sont vraiment utiles, que je
liste ici.
- `Antisocial Menu
<https://extensions.gnome.org/extension/547/antisocial-menu/>`_ vire les
boutons et textes en rapport avec le web social. J'en avais pas besoin
puisque je suis connecté à mon instant messenger dans un terminal, en
utilisant weechat.
- `Coverflow Alt-Tab
<https://extensions.gnome.org/extension/97/coverflow-alt-tab/>`_ change le
switcher d'applications par defaut. Je le trouve bien plus pratique que celui
par defaut puisqu'il me permet de voir "en grand" quelle est la fenêtre que
je vais afficher.
- `Media player indicator
<https://extensions.gnome.org/extension/55/media-player-indicator/>`_ me
permet de voir en temps réel ce qui se passe dans mon lecteur audio. Ça
semble ne pas être grand chose, mais ça me manquait. Ça s'intègre niquel avec
Spotify, et ça c'est chouette.
- `Rechercher dans les bookmarks firefox
<https://extensions.gnome.org/extension/149/search-firefox-bookmarks-provider/>`_
permet de… à votre avis ?
Un peu moins utile mais sait on jamais:
- “`Advanced Settings in UserMenu
<https://extensions.gnome.org/extension/130/advanced-settings-in-usermenu/>`_”
permet d'avoir un raccourci vers les paramètres avancés dans le menu
utilisateur (en haut à droite)
- Une `intégration à Getting things Gnome
<https://extensions.gnome.org/extension/409/gtg-integration/>`_ (un truc de
GTD). Je suis en train d'expérimenter avec cet outil, donc je ne sais pas
encore si ça va rester, mais pourquoi pas.
Vous pouvez aller faire un tour sur https://extensions.gnome.org/
pour en trouver d'autres à votre gout.

View file

@ -1,14 +0,0 @@
"Groovy"
########
:date: 27-12-2012
:tags: note
:category: musique
“Groovy”, c'est comme ça que je l'aime la musique: peut importe le style
finalement, la bonne musique c'est celle qui sonne, celle qui groove, celle qui
fait que tu tapes du pied (le droit chez moi) et que que ta tête commence
à hocher.
C'est pour ça que j'ai du mal à répondre quand on me demande quel type de
musique j'aime bien. Bah voila, maintenant je sais, je l'aime groovy ;)

View file

@ -1,21 +0,0 @@
Habitat collectif
#################
:date: 28-12-2012
:category: notes
Habiter à plusieurs, partager un lieu de vie, monter une communauté, changer
nos modes de vie et prendre plus de temps les uns pour les autres.
Ça fait réfléchir un peu quand même, non ? en tout cas ça marche chez moi.
Voilà quelques ressources qui peuvent être utiles si jamais vous aussi ça vous
titille:
- `LHabitat Coopératif : Solution au problème de responsabilisation sociale des
copropriétaires sur la commune de Vaulx en Velin
? <http://www.habicoop.fr/IMG/pdf/Memoire_hbtat_coop_Vaulx-2.pdf>`_ - mémoire REPIQUET Anne
2005.
- Un bouquin à lire avec plein d'infos: `Vivre autrement
<http://www.ecosociete.org/t101.php>`_ de Diana Leafe Christian.
- …

View file

@ -1,18 +0,0 @@
Languages
#########
:date: 28-12-2012
:tags: note
:category: musique
Ouriel Ellert " Languages" avec Anthony Jambon & Natascha Rogers, c'est
enregistré par le `Studio Mezzanine
<http://www.studiomezzanine.fr>`_ qui comme d'hab font un
travail impeccable.
Plus d'infos sur Natasha Rogers et son groupe ici:
http://www.studiomezzanine.fr/natascha-rogers/
.. raw:: html
<iframe width="650" height="480" src="http://www.youtube.com/embed/3I5PPdsTFz0" frameborder="0" allowfullscreen></iframe>

View file

@ -1,17 +0,0 @@
Notre dame des landes
#####################
:date: 27-12-2012
:category: notes
La lutte à Notre Dame des Landes ne fait pas du tout que commencer, mais il se
trouve que les médias se sont "emparés" de la question que très récemment,
depuis que JM Ayrault s'est retrouvé premier ministre.
Voici une sélection d'articles que j'ai trouvé pertinents, à partir de décembre
2012:
- Article dans le monde qui explique la complexité de la lutte sur place: http://www.lemonde.fr/idees/article/2012/12/13/notre-dame-des-landes-une-resistance-qui-ne-se-laissera-pas-dicter-sa-conduite_1805511_3232.html
- autour de relations à la presse:
http://www.rennestv.fr/catalogue/magazine/notre-dame-des-landes-l-inaceptable-interdiction-de-la-presse.html
- Notre-Dame-des-Landes : un pilote annonce un fiasco pour le futur aéroport http://www.bastamag.net/article2866.html

View file

@ -1,23 +0,0 @@
Semences paysannes
##################
:date: 20-12-2012
:category: notes
http://www.dailymotion.com/video/x5nhq0_les-semences-paysannes_news#from=embed
A l'heure actuelle, il est interdit pour deux agriculteurs de s'échangers des semences dans le but d'en revendre la production.
Les états ont crée la propriété interellectuelle pour relancer l'industrie après les dégats de la guerre et les selectionneurs en ont profité en 1960 au sein de l'UPOV pour faire des textes pour s'approprié les selections qu'ils ont fait. Les textes ont été votés par les députés depuis: bien prové au lieu de bien collectif.
Les semenciers n'existent que depuis 150 ans. Ils revendiquent maintenant le monopole de selection.
Un catalogue est prévu pour les semences dites "de conservation" (alors qu'elles évoluent, conservation n'est pas un terme adapté). C'est la voie qui est possible pour pouvoir échanger des semences entre agriculteurs.
→ Quelles sont les semences de conservation depuis 2002 ? → Quid des semences paysannes, qui évoluent et que l'on garde d'année en année, en selectionnant les meilleures especes. → Existe-il un autre catalogue ? → Au niveau européen, quelles sontles contraintes d'inscription ? Gratuité demandée, qu'en est il ?
→ Relocalistion sur les terroirs des échanges.
→ Biodiversité serait tué par l'utilisation d'espèces inscrites.
Série de vidéos sur la paysannerie: http://www.latelevisionpaysanne.fr/video.php?lirevideo=86#86

View file

@ -1,38 +0,0 @@
Astuces SSH
###########
:date: 27-12-2012
:tags: note
:category: notes
Tunelling
=========
Parce que je m'en rapelle jamais (tête de linote)::
$ ssh -f hote -L local:lolnet.org:destination -N
.ssh/config
===========
(merci `gaston <http://majerti.fr>`_ !)
La directive suivante dans .ssh/config permet de sauter d'hôte en hôte
séparés par des "+" ::
Host *+*
ProxyCommand ssh $(echo %h | sed
's/+[^+]*$//;s/\([^+%%]*\)%%\([^+]*\)$/\2 -l \1/;s/:/ -p /')
PATH=.:\$PATH nc -w1 $(echo %h | sed 's/^.*+//;/:/!s/$/ %p/;s/:/ /')
On peut donc spécifier des "sauts" ssh du style::
ssh root@91.25.25.25+192.168.1.1
Ensuite on peut essayer de rajouter::
Host <label_pour_mon_serveur_privé>
user <monuser(root)>
IdentityFile <chemin vers ma clé ssh pour le serveur publique>
hostname ip_serveur_publique+ip_serveur_privé

View file

@ -1,129 +0,0 @@
Status board
############
:date: 29-12-2012
:lang: fr
:category: tech
À force de démarrer des services web pour un oui et pour un non, de proposer
à des copains d'héberger leurs sites, de faire pareil pour quelques assos etc,
je me suis retrouvé avec, comme dirait l'autre, *une bonne platrée* de sites et
de services à gérer sur `lolnet.org`, mon serveur.
Jusqu'à très récemment, rien de tout ça n'était sauvegardé, et non plus monitoré.
Après quelques recherches, je suis tombé sur `stashboard
<http://www.stashboard.org/>`_, un "status board" qu'il est bien fait. Le seul
problème, c'est écrit pour se lancer sur GAE, *Google App Engine*.
Heureusement, c'est open-source, et ça a été forké pour donner naissance
à `whiskerboard <https://github.com/bfirsh/whiskerboard>`_ (la planche
moustachue, pour les non anglophones).
.. image:: images/status_board.png
:alt: Capture d'écran du site.
Vérifier le statut des services
===============================
Donc, c'est chouette, c'est facile à installer, tout ça, mais… mais ça ne fait
en fait pas ce que je veux: ça ne fait que m'afficher le statut des services,
mais ça ne vérifie pas que tout est bien "up".
Bon, un peu embêtant pour moi, parce que c'est vraiment ça que je voulais. Pas
grave, je sais un peu coder, autant que ça serve. J'ai ajouté quelques
fonctionnalités au soft, qui sont disponibles sur mon fork, sur
github:: https://github.com/ametaireau/whiskerboard .
Entres autres, il est désormais possible de lancer `celery
<http://celeryproject.org/>`_ en tache de fond et de vérifier périodiquement
que les services sont toujours bien vivants, en utilisant une tache spécifique.
C'était un bonheur de développer ça (on a fait ça à deux, avec guillaume, avec
un mumble + tmux en pair prog, en une petite soirée, ça dépote).
Les modifications sont assez simples, vous pouvez aller jeter un œil aux
changements ici:
https://github.com/ametaireau/whiskerboard/compare/b539337416...master
En gros:
- ajout d'une `connection_string` aux services (de la forme
protocol://host:port)
- ajout d'une commande `check_status` qui s'occupe d'itérer sur les services et
de lancer des taches celery qui vont bien, en fonction du protocole
- ajout des taches en question
Déploiement
===========
Le plus long a été de le déployer en fin de compte, parce que je ne voulais pas
déployer mon service de supervision sur mon serveur, forcément.
Après un essai (plutôt rapide en fait) sur `heroku <http://heroku.com>`_, je me
suis rendu compte qu'il me fallait payer pas loin de 35$ par mois pour avoir un
process `celeryd` qui tourne, donc j'ai un peu cherché ailleurs, pour
finalement déployer la chose chez `alwaysdata <https://www.alwaysdata.com/>`_
Après quelques péripéties, j'ai réussi à faire tourner le tout, ça à été un peu
la bataille au départ pour installer virtualenv (j'ai du faire des changements
dans mon `PATH` pour que ça puisse marcher), voici mon `.bash_profile`::
export PYTHONPATH=~/modules/
export PATH=$HOME/modules/bin:$HOME/modules/:$PATH
Et après y'a plus qu'à installer avec `easy_install`::
easy_install --install-dir ~/modules -U pip
easy_install --install-dir ~/modules -U virtualenv
Et à créer le virtualenv::
virtualenv venv
venv/bin/pip install -r requirements.txt
Dernière étape, la création d'un fichier `application.wsgi` qui s'occupe de
rendre l'application disponible, avec le bon venv:
.. code-block :: python
import os
import sys
activate_this = '/home/lolnet/venv/bin/activate_this.
execfile(activate_this, dict(__file__=activate_this))
paths = ['/home/lolnet/public',]
for path in paths:
if path not in sys.path:
sys.path.append(path)
import django.core.handlers.wsgi
os.environ['DJANGO_SETTINGS_MODULE'] = 'settings'
application = django.core.handlers.wsgi.WSGIHandler()
SSL et Requests
===============
Quelques tours de manivelle plus loin, j'ai un celeryd qui tourne et qui
consomme les taches qui lui sont envoyées (pour des questions de simplicité,
j'ai utilisé le backend `django` de celery, donc pas besoin d'AMQP, par
exemple).
Problème, les ressources que je vérifie en SSL (HTTPS) me jettent. Je sais pas
exactement pourquoi à l'heure qu'il est, mais il semble que lorsque je fais une
requête avec `Requests <http://docs.python-requests.org/en/latest/>`_ je me
récupère des *Connection Refused*. Peut être une sombre histoire de proxy ? En
attendant, les appels avec `CURL` fonctionnent, donc j'ai fait `un fallback
vers CURL lorsque les autres méthodes échouent
<https://github.com/ametaireau/whiskerboard/blob/master/board/tasks.py#L17>`_.
Pas super propre, mais ça fonctionne.
**EDIT** Finalement, il se trouve que mon serveur était mal configuré.
J'utilisais haproxy + stunnel, et la négiciation SSL se passait mal. Une fois
SSL et TLS activés, et SSLv2 désactivé, tout fonctionne mieux.
Et voilà
========
Finalement, j'ai mon joli status-board qui tourne à merveille sur
http://status.lolnet.org :-)

View file

@ -1,23 +0,0 @@
Tricot
######
:date: 28-12-2012
:tags: note
:category: diy
Puisque j'ai décidé d'apprendre à faire les trucs moi-même, je me mets au
tricot. Et puis y'a aussi tout un symbole derrière: le tricot, c'est pour les
filles, tu sais, un "truc de gonzesse".
Eh bah c'est pas gagné, jte le dis. Pour l'instant j'ai réussi à faire à peu
près un rang d'endroit et j'arrive pas à enchainer sur l'envers pour réussir
à faire un point jersey (jersey c'est un rang endroit puis un rang envers).
Enfin bref, si jamais ça vous botte vous aussi, voila quelques ressources que
j'ai trouvé sur internet (en plus des conseils avisés de maman chérie™):
- `Montage des mailles "normales" <http://www.youtube.com/watch?v=VcGiBG2BNxo&list=UUskaiVNnKf7amRb5OI5op_w>`_
- `Le point jersey
<http://www.youtube.com/watch?v=aIQtNN89pqA&list=UUskaiVNnKf7amRb5OI5op_w>`_
La nana explique plutôt bien et assez lentement. En espérant que ça prenne.

View file

@ -1,93 +0,0 @@
New year python meme, 2012
##########################
:date: 07-01-2013
:category: tech
This series, also known as "`Tarek Ziadé <http://ziade.org>`_ strikes again",
is a good occasion to take a look back at 2012 and see what I've done related
to python. So, let's try.
**1. Whats the coolest Python application, framework or library you have
discovered in 2012 ?**
I discovered `Pyramid
<http://docs.pylonsproject.org/en/latest/docs/pyramid.html>`_ this year and
quite enjoyed it. I like the way they bring back some nice concepts on the
table, and how they compete with other frameworks. That's nicely decomposed and
everything fits together really well. I learned a bit about its internal
routing mechanism when working on `Cornice <http://cornice.rtfd.org>`_, and
it's really well done.
**2. What new programming technique did you learn in 2012 ?**
I learned about asynchronous programming, something I wasn't really aware of.
(Yes, that's a shame). This was really helpful to understand some bits of
`Circus <http://circus.io>`_. I also started to learn about some related
concepts present in `go <http://golang.org>`_ or in `erlang
<http://erlang.org>`_ with `the actor model
<http://en.wikipedia.org/wiki/Actor_model>`_
**3. Which open source project did you contribute to the most in 2012 ? What did
you do ?**
I worked a bunch on `Cornice <http://cornice.rtfd.org>`_ and `Circus
<http://circus.io>`_, not as much as I would like, but that was two really
interesting projects. For Cornice, I completely `refactored the internals
<http://blog.notmyidea.org/refactoring-cornice.html>`_ back in May, and since
that, I added support for `SPORE <https://github.com/SPORE/specifications>`_
and am currently working on porting it to Python 3 and adding support for `CORS
<http://www.w3.org/TR/cors/>`_. For Circus, I worked on the web interface and
on other bits of the projects related to stats.
I didn't contributed that much to `Pelican <http://getpelican.com>`_, mainly
because I'm less excited about it than I was previously: the project is
working and needs to focus more on code quality than features. We started in
this direction, hopefully it will pay-off; but I committed a lot less code than
previously.
**4. Which Python blog or website did you read the most in 2012 ?**
I really don't know. I found some interesting python-related news on `hacker
news <http://news.ycombinator.com/>`_ and on the printed version as well,
`hacker monthly <http://hackermonthly.com/>`_. Twitter and IRC got me some
interesting articles as well.
**5. What are the three top things you want to learn in 2013 ?**
On the computer science side, I want to learn more about other paradigms, maybe
in other languages. I like python, but I want to learn about other concepts,
maybe some of them don't really fit with python.
For instance, I don't know that much about pattern matching or about the actor
model. Well I know what it is, but I would like to make good use of them in
order to have something nice and useful.
Also, I want to learn how to make a product. From scratch. Which means
designing, implementing and maintaining something. Maybe this will be the case
with `daybed <https://github.com/spiral-project/daybed>`_ ? Who knows.
I want to get better at building communities. Working with others is something
that can be complex and quite hard sometimes. I want to learn how to handle
this better.
On the other side, I want to learn about tons of other non-tech things: taking
pictures, finding a good balance between life and work, working with children,
teaching and animating workshops, writing articles, be better at reading (being
critic when I'm thinking!).
**6. What is the top software, application or library you wish someone would
write in 2013 ?**
The one missing thing, IMO, is a **good** webmail reader, in python. One we
could contribute to, one we could write features for, and one that could come
and compete with gmail, in term of features of UI.
However, most of the time, I'm just impressed by the new ideas that come from
others. I would like to have a library to handle the actor model in a nice way
in Python, I would like to see packaging fixed in python :-)
Want to do your own list? Here's how:
* copy-paste the questions and answer to them in your blog
* tweet it with the #2012pythonmeme hashtag

View file

@ -1,123 +0,0 @@
Des profils de confiance partout et pour tout ?
###############################################
:date: 04/02/2013
:slug: confiance
:lang: fr
:category: thoughts
Depuis un petit moment déjà, le site covoiturage.fr est passé "payant". Il est
désormais possible (et même obligatoire) de payer les trajets à l'avance, et en
ligne, laissant au passage quelques royalties au site en question.
Précédemment, il était possible de retrouver le numéro des conducteurs
sur le site et de les appeler soi même, chose maintenant automatisée.
Dès que cette décision à été prise, il y a eu des émules. Le site `Covoiturage
Libre <http://covoiturage-libre.fr>`_ à été d'ailleurs créé pour faire en sorte
de garder "l'esprit" du covoiturage. Bref ça jasait dans les chaumières.
Il y à peu, j'ai reçu un *couriel* contenant un lien vers une vidéo d'`une
conférence animée par le fondateur de covoiturage.fr
<http://www.covoiturage.fr/blog/2013-confiance>`_.
Ils semblent vouloir parler de confiance, alors ça m'intrigue, d'autant que la
présentation en question est donnée lors d'un évènement TEDx, auquel j'accorde
un certain crédit.
Un "capital de confiance"
=========================
Cette vidéo parle entre autres du *capital de confiance* que nous pouvons
nous accorder les uns aux autres; et notamment du fait que ce capital de
confiance n'est malheureusement pas partagé au dela d'un cercle de
connaissances assez limité. Il reste dans notre cercle de connaissances proche, les
amis des amis.
C'est donc une chose regrettable, parce que ça nous fait perdre du temps (et
donc, *ohmygod* de l'argent) à tous pour construire cette confiance. Temps qui
pourrait être mieux employé.
La solution proposée, attention les yeux, est de faire appel un maximum aux
profils en ligne, une manière de "prouver au monde" que nous sommes des
personnes de confiance. Selon les termes de la présentation, nous pourrions
alors tous devenir des "super héros du trust", des "trustman".
Grâce à des profils en ligne ou monsieur et madame tout le monde pourraient
aller voter et donner leur avis sur les personnes qu'ils ont rencontré.
L'avènement du paiement en ligne
================================
On nous dit maintenant que le paiement en ligne est une révolution, un moyen de
tracer le fait qu'il y à effectivement eu une transaction entre deux personnes;
et que donc il en deviendrait un outil pour vérifier que la confiance est bien
légitime, et non pas créée de toute pièce sur le profil de la personne en
question.
Plu
Plus exactement, ce qui est dit est que le paiement en ligne permet de
justifier qu'il y a bien eu transaction entre deux personnes, et que donc les
commentaires et "notations" effectuées sont donc légitimes.
Ce n'est pas un problème de confiance !
=======================================
Bien que j'arrive à suivre le raisonnement, il soulève certaines questions :
Si j'accorde de la confiance à quelqu'un dans mon cercle de connaissances,
c'est justement parce qu'il fait partie de ce cercle de connaissances. Pas
parce qu'une personne que je ne connait pas me dit qu'il s'agit d'une personne
de confiance. En d'autres termes, **pourquoi ne garderions nous pas ces
relations privilégiées de personne à personne ?**
Dans le cadre du covoiturage, j'arrive à comprendre le raisonnement du paiement
*à l'avance*, pour avoir souvent entendu parler de désistements à la dernière
minute de la part des voyageurs. Le paiement à l'avance permet d'éviter ce
genre de désagréments.
Mais cela n'as rien à voir avec la confiance, il s'agit d'engagement de la part
des deux parties.
Et c'est bien ce qui semble poser problème: lorsqu'on s'attend à partager le
prix d'un trajet avec quelqu'un, c'est bien d'avoir quelque chose qui nous
y engage. J'aime beaucoup l'idée de payer une fois dans la voiture, de garder
cette transaction manuelle; et de laisser peu de place au paiements en ligne
dans cette histoire, mais je n'ai pas d'autre solution miracle.
En tout cas, la question n'est pas la question de savoir avec qui on embarque,
mais bel et bien la question de l'engagement des deux parties.
Nous sommes malheureusement dans une société qui est dirigée par la peur. On
à peur de se faire agresser par le gars qui tends le pouce sur le bord de la
route, peur de se faire envoyer un produit qui ne fonctionne pas via Amazon,
etc.
En poussant l'idée dans ses retranchements, j'aurais bientôt peur de mes
voisins alors je ne leur parlerais plus, parce qu'ils n'ont pas leur profil
disponible en ligne ou parce que quelqu'un à eu une mauvaise expérience avec
eux ?
Exposer des choses qui relèvent de ma vie privée en ligne de la sorte me
pose des problèmes éthiques: d'abord parce que je ne veux pas juger les gens
a priori, ensuite parce que l'expérience d'une personne n'est peut-être pas
représentative, tout simplement.
Donc non, ce n'est pas un problème de confiance, il s'agit d'un problème
d'engagement, dans le cadre du covoiturage, et les profils en ligne n'ont rien
à faire la dedans. Le principe du paiement à l'avance me semble intéressant,
mais il n'est à mon avis pas lié au profils en ligne.
La vidéo termine sur un "libérez la valeur de la confiance". Oui, mais la
libérer pour qui ? Quels sont les problèmes liés à cette confiance rendue
nécessaire partout et pour tout ? Cela ne nous ferait-il pas évoluer uniquement
dans des cercles fermés ? Quelle place laisser à l'inconnu, à la surprise ?
Cette volonté de "confiance partout" semble découler tout droit des délires
sécuritaires que l'on nous sert à toutes les sauces. Et maintenant cela
serait rendu accessible à tous grâce à "l'intelligence collective"; gommant au
passage les différences de valeur; Préférant éviter de rencontrer les inconnus
aux profils "légers".
Je sais pas vous, mais elle me fait peur cette idée.

View file

@ -1,262 +0,0 @@
Implementing CORS in Cornice
############################
:date: 04-02-2013
:slug: cross-origin-in-cornice
:category: tech
.. note::
I'm cross-posting `on the mozilla services weblog
<https://blog.mozilla.org/services/>`_. Since this is the
first time we're doing that, I though it could be useful to point you
there. Check it out and expect more technical articles there in the future.
For security reasons, it's not possible to do cross-domain requests. In other
words, if you have a page served from the domain `lolnet.org`, it will not be
possible for it to get data from `notmyidea.org`.
Well, it's possible, using tricks and techniques like `JSONP
<http://en.wikipedia.org/wiki/JSONP>`_, but that doesn't work all the time (see
`the section below <#how-this-is-different-from-jsonp>`_). I remember myself
doing some simple proxies on my domain server to be able to query other's API.
Thankfully, there is a nicer way to do this, namely, "Cross Origin
Resource-Sharing", or `CORS <http://www.w3.org/TR/cors/>`_.
You want an icecream? Go ask your dad first.
============================================
If you want to use CORS, you need the API you're querying to support it; on the
server side.
The HTTP server need to answer to the `OPTIONS` verb, and with the appropriate
response headers.
`OPTIONS` is sent as what the authors of the spec call a "preflight request";
just before doing a request to the API, the *User-Agent* (the browser most of
the time) asks the permission to the resource, with an `OPTIONS` call.
The server answers, and tell what is available and what isn't:
.. image:: images/cors_flow.png
:alt: The CORS flow (from the HTML5 CORS tutorial)
- 1a. The User-Agent, rather than doing the call directly, asks the server, the
API, the permission to do the request. It does so with the following headers:
- **Access-Control-Request-Headers**, contains the headers the User-Agent
want to access.
- **Access-Control-Request-Method** contains the method the User-Agent want
to access.
- 1b. The API answers what is authorized:
- **Access-Control-Allow-Origin** the origin that's accepted. Can be `*` or
the domain name.
- **Access-Control-Allow-Methods** a *list* of allowed methods. This can be
cached. Note than the request asks permission for one method and the
server should return a list of accepted methods.
- **Access-Allow-Headers** a list of allowed headers, for all of the
methods, since this can be cached as well.
- 2. The User-Agent can do the "normal" request.
So, if you want to access the `/icecream` resource, and do a PUT there, you'll
have the following flow::
> OPTIONS /icecream
> Access-Control-Request-Methods = PUT
> Origin: notmyidea.org
< Access-Control-Allow-Origin = notmyidea.org
< Access-Control-Allow-Methods = PUT,GET,DELETE
200 OK
You can see that we have an `Origin` Header in the request, as well as
a `Access-Control-Request-Methods`. We're here asking if we have the right, as
`notmyidea.org`, to do a `PUT` request on `/icecream`.
And the server tells us that we can do that, as well as `GET` and `DELETE`.
I'll not cover all the details of the CORS specification here, but bear in mind
than with CORS, you can control what are the authorized methods, headers,
origins, and if the client is allowed to send authentication information or
not.
A word about security
=====================
CORS is not an answer for every cross-domain call you want to do, because you
need to control the service you want to call. For instance, if you want to
build a feed reader and access the feeds on different domains, you can be
pretty much sure that the servers will not implement CORS, so you'll need to
write a proxy yourself, to provide this.
Secondly, if misunderstood, CORS can be insecure, and cause
problems. Because the rules apply when a client wants to do a request to
a server, you need to be extra careful about who you're authorizing.
An incorrectly secured CORS server can be accessed by a malicious client very easily,
bypassing network security. For instance, if you host a server on an intranet
that is only available from behind a VPN but accepts every cross-origin call. A bad guy
can inject javascript into the browser of a user who has access to your
protected server and make calls to your service, which is probably not what you want.
How this is different from JSONP?
=================================
You may know the `JSONP <http://en.wikipedia.org/wiki/JSONP>`_ protocol. JSONP
allows cross origin, but for a particular use case, and does have some
drawbacks (for instance, it's not possible to do DELETEs or PUTs with JSONP).
JSONP exploits the fact that it is possible to get information from another domain
when you are asking for javascript code, using the `<script>` element.
Exploiting the open policy for <script> elements, some pages use them to
retrieve JavaScript code that operates on dynamically generated
JSON-formatted data from other origins. This usage pattern is known as
JSONP. Requests for JSONP retrieve not JSON, but arbitrary JavaScript code.
They are evaluated by the JavaScript interpreter, not parsed by a JSON
parser.
Using CORS in Cornice
=====================
Okay, things are hopefully clearer about CORS, let's see how we
implemented it on the server-side.
Cornice is a toolkit that lets you define resources in python and takes care of
the heavy lifting for you, so I wanted it to take care of the CORS support as
well.
In Cornice, you define a service like this:
.. code-block:: python
from cornice import Service
foobar = Service(name="foobar", path="/foobar")
# and then you do something with it
@foobar.get()
def get_foobar(request):
# do something with the request.
To add CORS support to this resource, you can go this way, with the
`cors_origins` parameter:
.. code-block:: python
foobar = Service(name='foobar', path='/foobar', cors_origins=('*',))
Ta-da! You have enabled CORS for your service. **Be aware that you're
authorizing anyone to query your server, that may not be what you want.**
Of course, you can specify a list of origins you trust, and you don't need
to stick with `*`, which means "authorize everyone".
Headers
-------
You can define the headers you want to expose for the service:
.. code-block:: python
foobar = Service(name='foobar', path='/foobar', cors_origins=('*',))
@foobar.get(cors_headers=('X-My-Header', 'Content-Type'))
def get_foobars_please(request):
return "some foobar for you"
I've done some testing and it wasn't working on Chrome because I wasn't
handling the headers the right way (The missing one was `Content-Type`, that
Chrome was asking for). With my first version of the implementation, I needed
the service implementers to explicitely list all the headers that should be
exposed. While this improves security, it can be frustrating while developing.
So I introduced an `expose_all_headers` flag, which is set to `True` by
default, if the service supports CORS.
Cookies / Credentials
---------------------
By default, the requests you do to your API endpoint don't include the
credential information for security reasons. If you really want to do that,
you need to enable it using the `cors_credentials` parameter. You can activate
this one on a per-service basis or on a per-method basis.
Caching
-------
When you do a preflight request, the information returned by the server can be
cached by the User-Agent so that it's not redone before each actual call.
The caching period is defined by the server, using the `Access-Control-Max-Age`
header. You can configure this timing using the `cors_max_age` parameter.
Simplifying the API
-------------------
We have cors_headers, cors_enabled, cors_origins, cors_credentials,
cors_max_age, cors_expose_all_headers … a fair number of
parameters. If you want to have a specific CORS-policy for your services, that
can be a bit tedious to pass these to your services all the time.
I introduced another way to pass the CORS policy, so you can do something like
that:
.. code-block:: python
policy = dict(enabled=False,
headers=('X-My-Header', 'Content-Type'),
origins=('*.notmyidea.org'),
credentials=True,
max_age=42)
foobar = Service(name='foobar', path='/foobar', cors_policy=policy)
Comparison with other implementations
=====================================
I was curious to have a look at other implementations of CORS, in
django for instance, and I found `a gist about it
<https://gist.github.com/426829.js>`_.
Basically, this adds a middleware that adds the "rights" headers to the answer,
depending on the request.
While this approach works, it's not implementing the specification completely.
You need to add support for all the resources at once.
We can think about a nice way to implement this specifying a definition of what's
supposed to be exposed via CORS and what shouldn't directly in your settings.
In my opinion, CORS support should be handled at the service definition level,
except for the list of authorized hosts.
Otherwise, you don't know exactly what's going on when you look at the definition of the service.
Resources
=========
There are a number of good resources that can be useful to you if you want to
either understand how CORS works, or if you want to implement it yourself.
- http://enable-cors.org/ is useful to get started when you don't know anything
about CORS.
- There is a W3C wiki page containing information that may be useful about
clients, common pitfalls etc: http://www.w3.org/wiki/CORS_Enabled
- *HTML5 rocks* has a tutorial explaining how to implement CORS, with `a nice
section about the server-side
<http://www.html5rocks.com/en/tutorials/cors/#toc-adding-cors-support-to-the-server>`_.
- Be sure to have a look at the `clients support-matrix for this feature
<http://caniuse.com/#search=cors>`_.
- About security, `check out this page
<https://code.google.com/p/html5security/wiki/CrossOriginRequestSecurity>`_
- If you want to have a look at the implementation code, check `on github
<https://github.com/mozilla-services/cornice/pull/98/files>`_
Of course, the W3C specification is the best resource to rely on. This
specification isn't hard to read, so you may want to go through it. Especially
the `"resource processing model" section <http://www.w3.org/TR/cors/#resource-processing-model>`_

View file

@ -1,202 +0,0 @@
Le revenu de base
#################
:date: 10/03/2013
:category: notes
.. raw:: html
<iframe width="560" height="315" src="http://www.youtube.com/embed/-cwdVDcm-Z0"
frameborder="0" allowfullscreen></iframe>
Quelques notes prises en visualisant le documentaire "le revenu de base".
- 4 Allemands sur 10 travaillent.
- 3/10 (les enfants et jeunes)
- 2/10 retraite / rente
- 1/10 assurance chomage / AS
- 41% sont le fruit d'un travail rémunéré.
Le revenu de base est inconditionnel.
Le marché du travail ne pourra pas suffire à toute la population. En refusant
l'idée du RDB, on est obligé de croire en la croissance économique.
Différence entre une approche qantitative du travail VS une approche sociale.
La croissance éco ≠ croissance de l'emploi.
Parallelle entre le RDB et la déclaration des droits de l'homme. "Et qui voudra
faire le sale boulot ?"
Utopie veut dire le "non lieu", le lieu qu'on à pas encore trouvé ici sur
terre, à part dans notre imaginaire.
Agriculture: Il y à 100 ans, qqn qui travaillait dans l'agriculture produisait assez pour
3 autres personnes. ajd un agriculteur produit assez pour 120 personnes, via
des machines énormes et à la rationalisation.
Rationalisation: moins d'emploi.
La condition de pouvoir refuser un travail est très importante.
Citations
=========
Le financmenet est acquis, la dificulté c'est la liberté
— NA
Il faut en finir avec cette idée fausse, selon laquelle seul le travail
rémunéré constitue une contribution méritoire à la société, en réalité, c'est
souvent exactement l'inverse.
— Katja Kipping, membre du parlement allemand.
Si les gens on déjà une sécurité matérielle, ils sont plus difficiles
à corrompre.
— Katja Kipping
Soutenir les populations sans poser de condition. c'est un principe qui à la
longe, devra s'imposer. Mais il lui faudra d'abord affronter les droits et
privilèges dont on bénéficie aujourd'hui.
— Anonyme.
Si les revenus étaient uniquement lié au travail, il faudrait donner les plus
hauts revenus aux machines.
Le sens de l'économie, c'est de libérer l'homme du travail Beaucoup de gens qui
ont une "place de travail", n'ont en réalité qu'une "place de revenu".
Chiffres
========
Un sondage à été effectué. La question est: "Si vous aviez un revenu de base,
est-ce que vous iriez encore travailler ?"
- ~60% disent oui
- 30% répondent oui, mais plus à plein temps.
- 10% pour faire autre chose.
Avec une question différente:
"Si on instaurait un revenu de base, est-ce que vous pensez que les autres
iraient travailler ?"
- ~80% répondent non.
C'est un changement aussi dans les modes d'éducation, on nous enseigne à être
"employable", et non pas à apprendre quelque chose qui nous interesse. Les gens
ont peur de ne pas trouver du travail.
Ressources
==========
- Le sens commun, Thomas Payne.
- Peter Ulrich
Comment financer le RDB
=======================
Si lon se fie à son produit intérieur brut (PIB), la France est aujourdhui le
cinquième pays le plus riche du monde. En 2010, le revenu disponible (après
versement des pres- tations sociales et prélèvement des impôts directs) sy
élevait à 1 276 euros par mois et par personne, adultes et enfants confondus.
Nous disposons donc de ressources suffisantes pour garantir à chaque individu 1
276 euros si lon décidait dopérer un partage strictement égalitaire. Cest
nettement plus que le seuil de pauvreté actuel, fixé en France à 60 % du revenu
médian (1), soit 960 euros par adulte. Qui peut le plus pouvant le moins, la
France a donc sans nul doute les moyens dassurer à tous ses résidents un
revenu au moins égal au seuil de pauvreté.
À Reculons, par André Gorz.
===========================
(Paru dans le monde diplomatique de Juin 1990)
*Proche de Jean-Paul Sartre, cofondateur, en 1964, du Nouvel Observateur, le
philosophe André Gorz (1923-2007) sest converti progressivement à un
écosocialisme dont il est devenu lun des principaux théoriciens. En 1990, dans
nos colonnes, sous le titre « Pourquoi la société salariale a besoin de
nouveaux valets », il formulait une critique de lidéologie du travail qui
devait lamener quelques années plus tard à se prononcer en faveur dun revenu
dexistence.*
Dans lensemble des pays capitalistes dEurope, on produit trois à quatre fois
plus de richesses quil y a trente-cinq ans ; cette production nexige pas
trois fois plus dheures de travail, mais une quantité de travail beaucoup plus
faible. (...)
Nous sortons de la civilisation du travail, mais nous en sortons à reculons, et
nous entrons à reculons dans une civilisation du temps libéré, incapables de la
voir et de la vouloir, incapables donc de civiliser le temps libéré qui nous
échoit, et de fonder une culture du temps disponible et une culture des
activités choisies pour relayer et compléter les cultures techniciennes et
profes- sionnelles qui dominent la scène. (...)
Pour près de la moitié de la population active, lidéologie du travail est
devenue une mauvaise farce ; lidentification au travail est désormais
impossible, car le système économique na pas besoin ou na pas un besoin
régulier de leur capacité de travail. La réalité que nous masque lexaltation
de la « ressource humaine », cest que lemploi stable, à plein temps, durant
toute lannée et toute la vie active, devient le privilège dune minorité.
Pour [les autres], le travail cesse dêtre un métier qui intègre dans une
communauté productive et définit une place dans la société. Ce que le patronat
appelle « flexibilité » se traduit pour les salariés par la précarité. (...)
Que doit être une société dans laquelle le travail à plein temps de tous les
citoyens nest plus nécessaire, ni économiquement utile ? Quelles priorités
autres quéconomiques doit-elle se donner ? Comment doit-elle sy prendre pour
que les gains de productivité, les économies de temps de travail profitent à
tout le monde ? Comment peut-elle redistribuer au mieux tout le travail
socialement utile de manière à ce que tout le monde puisse travailler, mais
travailler moins et mieux, tout en recevant sa part des richesses socialement
produites ?
La tendance dominante est décarter ce genre de questions et de poser le
problème à lenvers : comment faire pour que, malgré les gains de productivité,
léconomie consomme autant de travail que par le passé ? Comment faire pour que
de nouvelles activités rémunérées viennent occuper ce temps que, à léchelle de
la société, les gains de productivité libèrent ? A quels nouveaux domaines
dactivité peut-on étendre les échanges marchands pour remplacer tant bien que
mal les emplois supprimés par ailleurs dans lindustrie et les services
industrialisés ?
On connaît la réponse, pour laquelle les Etats-Unis et le Japon ont montré la
voie : le seul domaine dans lequel il est possible, en économie libérale, de
créer à lavenir un grand nombre demplois, cest celui des services aux
personnes. Le développement de lemploi pourrait être illimité si lon
parvenait à transformer en prestations de services rétribuées les activités que
les gens ont, jusquà présent, assumées chacun pour soi. Les économistes
parlent à ce sujet de « nouvelle croissance plus riche en emplois », de «
tertiarisation » de léconomie, de « société de services » prenant le relais de
la « société industrielle » (1). (...)
Le problème de fond auquel nous sommes confrontés est celui dun au-delà de
léconomie et, ce qui revient au même, dun au- delà du travail rémunéré. La
rationalisation économique libère du temps, elle continuera den libérer, et il
nest plus possible, par conséquent, de faire dépendre le revenu des citoyens
de la quantité de travail dont léconomie a besoin. Il nest plus possible, non
plus, de continuer à faire du travail rémunéré la source principale de
lidentité et du sens de la vie pour chacun.
La tâche dune gauche, si gauche il doit y avoir, consiste à transformer cette
libération du temps en une liberté nouvelle et en des droits nouveaux : le
droit de chacun et de chacune de gagner sa vie en travaillant, mais en
travaillant de moins en moins, de mieux en mieux, tout en recevant sa pleine
part de la richesse socialement produite. Le droit, dautre part, de travailler
de façon discontinue, intermittente, sans perdre durant les intermittences de
lemploi le plein revenu de manière à ouvrir de nouveaux espaces aux
activités sans but économique et à reconnaître à ces activités qui nont pas la
rémunération pour but une dignité et une valeur éminentes, tant pour les
individus que pour la société elle-même.

View file

@ -1,33 +0,0 @@
François Elie : Quelle école pour la société de linformation ?
###############################################################
:date: 14/06/2013
:category: notes
http://www.framablog.org/index.php/post/2013/06/11/francois-elie-education-conference
Quelques bouts selectionnés.
Mais pourquoi continue t-on à enseigner des maths à des gens qui ne vont pas
les utiliser ? Ben évidemment cest parce quon nest pas dans une école de
linitiation où les mathématiciens font ça entre eux et on nest pas non plus
dans une école de lapprentissage où lécole a pour but de donner un métier, un
bagage utilisable. Lécole ne sert évidemment pas à ça. Dailleurs heureusement
parce que sinon on nenseignerait pas la philosophie qui ne sert à rien à part
fabriquer des profs de philosophie !
On na pas besoin de tableau numérique pour enseigner linformatique elle-même
pour enseigner la science. De la même façon on na pas besoin de machine à
calculer pour enseigner les mathématiques. Évidemment ! On na pas besoin dune
machine à calculer pour savoir faire une division. Au contraire, surtout pas !
Il faut cesser dopposer lenseignement de la programmation dune part et
lenseignement des usages, cest important mais ça cest lécole des maîtres et
des esclaves. Ce quil faut enseigner, vite et à tous, cest la science, pas la
technologie ou lusage. Cest en amont de la programmation, lalgorithmique.
Cest, en amont de telle instanciation, du codage, du chiffrement, la théorie,
quelque chose qui comme les maths nont besoin que dune craie et dun tableau
noir.
Ce n'est pas un hasard si le mot "numérique" à remplaçé le mot "informatique",
c'est qu'on voudrait nous faire croire qu'il n'y a pas besoin de l'apprendre.

View file

@ -1,39 +0,0 @@
Notes: Économie libidinale et économie politique
################################################
:date: 07/06/2013
:category: notes
Une enquete d'un cabinet de marketing american ARI qui pour la première fois en
2004 disait qu'on voyait aparaitre des "alter consommateurs", qui n'étaient pas
de gens qui consommaient moins, mais qui étaient des gens malheureux de
consommer. Et qui définissaient la consommation comme une dépendance et une
addiction.
Un autre comportement s'est développé: le modèle "collaboratif et contributif".
Ce modèle ne se repose pas sur la consommation mais sur l'implication et la
collaboration. Ce modèle est induit par internet, qui ne repose plus sur
l'opposition production / consommation.
Sur internet nous ne sommes pas des simples consommateurs, puisque vous êtes un
expéditeur / distributeur.
Le changement prduit par internet est le fait que les gens ne sont plus
simplement des consommateurs,mais sont également producteurs de contenus
/ viennent améliorer les contenus existants.
Note perso: quid du culte de la personalité qui en ressort ? Ce qu'il apelle
l'écologie relationelle ?
Quel est le manque que vient combler facebook par exemple ? Et quel est
l'impact que ces nouveaux réseaux ont sur les modèles relationels que l'ont
connait (famille, école, droit, etc.).
Citations
=========
Une révolution c'est le fait de faire une boucle est d'arriver au terme de
quelque chose. D'avoir clôt un cycle. La lune fait des révolutions aussi.
81% des Américains déclarent que le consumerisme est une plaie pour l'amérique
(d'après Juliet Score)

View file

@ -1,46 +0,0 @@
Des carnets d'esquisse
######################
:date: 16/08/2013
:lang: fr
:category: thoughts
Je me rends compte que je n'écris pas si souvent que ça ici, principalement
parce que je me sens obligé d'y écrire en Anglais, mais aussi parce que je le
considère comme un espace ou les choses doivent êtres abouties et non pas
expérimentales.
Des fois j'ai cette envie d'ouvrir un "carnet" et d'y jeter juste quelques
notes. Pas grand chose: mes quelques pensées ou alors des liens que je veux me
garder de coté, des pensées que je souhaite partager… Un endroit ou je peux
venir écrire quelque chose et le compléter plus tard.
Du coup, le flux Atom contiens désormais quelques notes sur des sujets variés.
Ces notes ne sont pas relayées sur la page d'accueil, mais vous pouvez les
trouver dans `la section notes <|category|notes>`_.
Je ne sais pas encore si il s'agit du meilleur endroit pour ça, mais peu importe,
essayons. A bas la pudeur rédactionelle.
J'ai du au passage chambouler un peu vos agrégateurs, pardonnez moi :)
Le retour des commentaires
==========================
Au passage, je ne me rappelle plus quand exactement, mais j'avais décidé de
supprimer les commentaires de cet espace. Paf, apu. Comme ça, sans prévenir.
Les raisons en étaient à la fois techniques (je ne souhaitait pas avoir recours
à disqus qui est un silo propriétaire de plus) et parce que je considérais que
les commentaires n'avaient que peu d'intérêt. Ceci dit, le manque d'échange me
manque; j'aimerais bien savoir ce que vous pensez de ce que j'écris des fois,
et avoir des débats si nos opinions divergent.
Et puis bon, partager dans un seul sens, c'est un peu dommage !
Il est maintenant possible, avec `talka.tv <http://talka.tv>`_ d'héberger soi
même ses commentaires. J'ai dans l'idée d'héberger une instance de ce service
sur `discus.notmyidea.org`, ou d'utiliser Daybed pour faire la même chose,
mais faut il encore que je le fasse, alors en attendant, j'ai réactivé disqus
ici! (Le mieux est l'ennemi du bien, paraît il !)

View file

@ -1,204 +0,0 @@
What's Hawk and how to use it?
##############################
:date: 2014-07-31
:category: tech
At Mozilla, we recently had to implement `the Hawk authentication scheme
<https://github.com/hueniverse/hawk>`_ for a number of projects, and we came up
creating two libraries to ease integration into pyramid and node.js apps.
But maybe you don't know Hawk.
Hawk is a relatively new technology, crafted by one of the original `OAuth
<https://en.wikipedia.org/wiki/OAuth>`_ specification authors, that intends to
replace the 2-legged OAuth authentication scheme using a simpler approach.
It is an authentication scheme for HTTP, built around `HMAC digests
<https://en.wikipedia.org/wiki/Hmac>`_ of requests and responses.
Every authenticated client request has an Authorization header containing a MAC
(Message Authentication Code) and some additional metadata, then each server
response to authenticated requests contains a Server-Authorization header that
authenticates the response, so the client is sure it comes from the right
server.
Exchange of the hawk id and hawk key
====================================
To sign the requests, a client needs to retrieve a token id and a token key
from the server.
Hawk itself does not define how these credentials should be exchanged
between the server and the client. The excellent team behind `Firefox Accounts
<http://accounts.firefox.com>`_ put together a scheme to do that, which acts
like the following:
.. note::
All this derivation crazyness might seem a bit complicated, but don't worry,
we put together some libraries that takes care of that for you automatically.
If you are not interested into these details, you can directly jump to the
next section to see how to use the libraries.
When your server application needs to send you the credentials, it will return
it inside a specific `Hawk-Session-Token` header. This token can be derived to
split this string in two values (hawk id and hawk key) that you will use to
sign your next requests.
In order to get the hawk credentials, you'll need to:
First, do an `HKDF derivation <http://en.wikipedia.org/wiki/HKDF>`_ on the
given session token. You'll need to use the following parameters::
key_material = HKDF(hawk_session, "", 'identity.mozilla.com/picl/v1/sessionToken', 32*2)
.. note::
The ``identity.mozilla.com/picl/v1/sessionToken`` is a reference to this way of
deriving the credentials, not an actual URL.
Then, the key material you'll get out of the HKDF need to be separated into two
parts, the first 32 hex caracters are the hawk id, and the next 32 ones are the
hawk key.
Credentials:
.. code-block:: javascript
credentials = {
'id': keyMaterial[0:32],
'key': keyMaterial[32:64],
'algorithm': 'sha256'
}
Httpie
======
To showcase APIs in the documentation, I like to use `httpie
<https://github.com/jakubroztocil/httpie>`_, a curl-replacement with a nicer
API, built around `the python requests library <http://python-requests.org>`_.
Luckily, HTTPie allows you to plug different authentication schemes for it, so `I wrote
a wrapper <https://github.com/mozilla-services/requests-hawk>`_ around `mohawk
<https://github.com/kumar303/mohawk>`_ to add hawk support to the requests lib.
Doing hawk requests in your terminal is now as simple as::
$ pip install requests-hawk httpie
$ http GET localhost:5000/registration --auth-type=hawk --auth='id:key'
In addition, it will help you to craft requests using the requests library:
.. code-block:: python
import requests
from requests_hawk import HawkAuth
hawk_auth = HawkAuth(
credentials={'id': id, 'key': key, 'algorithm': 'sha256'})
requests.post("/url", auth=hawk_auth)
Alternatively, if you don't have the token id and key, you can pass the hawk
session token I talked about earlier and the lib will take care of the
derivation for you:
.. code-block:: python
hawk_auth = HawkAuth(
hawk_session=resp.headers['hawk-session-token'],
server_url=self.server_url
)
requests.post("/url", auth=hawk_auth)
Integrate with python pyramid apps
==================================
If you're writing pyramid applications, you'll be happy to learn that `Ryan
Kelly <https://www.rfk.id.au/blog/>`_ put together a library that makes Hawk
work as an Authentication provider for them. I'm chocked how simple it
is to use it.
Here is a demo of how we implemented it for Daybed:
.. code-block:: python
from pyramid_hawkauth import HawkAuthenticationPolicy
policy = HawkAuthenticationPolicy(decode_hawk_id=get_hawk_id)
config.set_authentication_policy(authn_policy)
The `get_hawk_id` function is a function that takes a request and
a tokenid and returns a tuple of `(token_id, token_key)`.
How you want to store the tokens and retrieve them is up to you. The default
implementation (e.g. if you don't pass a `decode_hawk_id` function) decodes the
key from the token itself, using a master secret on the server (so you don't
need to store anything).
Integrate with node.js Express apps
===================================
We had to implement Hawk authentication for two node.js projects and finally
came up factorizing everything in a library for express, named `express-hawkauth
<https://github.com/mozilla-services/express-hawkauth>`_.
In order to plug it in your application, you'll need to use it as
a middleware:
.. code-block:: javascript
var express = require("express");
var hawk = require("express-hawkauth");
app = express();
var hawkMiddleware = hawk.getMiddleware({
hawkOptions: {},
getSession: function(tokenId, cb) {
// A function which pass to the cb the key and algorithm for the
// given token id. First argument of the callback is a potential
// error.
cb(null, {key: "key", algorithm: "sha256"});
},
createSession: function(id, key, cb) {
// A function which stores a session for the given id and key.
// Argument returned is a potential error.
cb(null);
},
setUser: function(req, res, tokenId, cb) {
// A function that uses req and res, the hawkId when they're known so
// that it can tweak it. For instance, you can store the tokenId as the
// user.
req.user = tokenId;
}
});
app.get("/hawk-enabled-endpoint", hawkMiddleware);
If you pass the `createSession` parameter, all non-authenticated requests will
create a new hawk session and return it with the response, in the
`Hawk-Session-Token` header.
If you want to only check a valid hawk session exists (without creating a new
one), just create a middleware which doesn't have any `createSession` parameter
defined.
Some reference implementations
==============================
As a reference, here is how we're using the libraries I'm talking about, in
case that helps you to integrate with your projects.
- The Mozilla Loop server `uses hawk as authentication once you're logged in with
a valid BrowserID assertion
<https://github.com/mozilla-services/loop-server/blob/master/loop/index.js#L70-L133>`_;
request, to keep a session between client and server;
- `I recently added hawk support on the Daybed project
<https://github.com/spiral-project/daybed/commit/f178b4e43015fa077430798dcd3d0886c7611caf>`_
(that's a pyramid / cornice) app.
- It's also interesting to note that Kumar put together `hawkrest, for the
django rest framework <http://hawkrest.readthedocs.org/en/latest/>`_

View file

@ -1,331 +0,0 @@
Retours sur deux ans à Mozilla
##############################
:date: 2014-07-29
:category: thoughts
.. note::
Ça fait un bail que j'ai cet article en cours de rédaction, et je me dis que
je dois le poster maintenant, sinon je ne le ferais jamais (saloperie de
perfectionnisme ?)
Il y à deux ans et demi, en décembre, je commençais à travailler chez
Mozilla, dans l'équipe "Cloud Services".
Depuis, énormément de choses ont évoluées, tant en ce qui concerne les
objectifs de Mozilla (avec l'arrivée de FirefoxOS) que le travail que
j'effectue au jour le jour. Pour autant, mes objectifs personnels restent
intacts.
Deux ans ça parait énorme, c'est le temps le plus long que j'ai passé
à travailler sur un projet, avec quasiment les mêmes personnes. Si vous suivez
un peu ces carnets, vous savez surement que j'ai beaucoup travaillé avec `Tarek
<ziade.org>`_ par exemple.
Ça a été (et c'est toujours) un réel plaisir de bosser avec la personne dont
j'avais lu les livres pour apprendre le python, merci !
Services
--------
Le principal de mon travail a été de construire des outils. Je suis le
mainteneur de `Cornice <https://github.com/mozilla-services/cornice>`_, un
utilitaire qui vient se greffer par dessus `le framework python pyramid
<http://docs.pylonsproject.org/projects/pyramid/en/latest/>`_ pour
vous simplifier la vie et créer des services web; J'ai travaillé un peu
sur un outil de gestion des processus nommé `Circus
<https://github.com/mozilla-services/circus>`_, et également sur un outil de
montée en charge dénommé `Loads <https://github.com/mozilla-services/loads>`_
Au tout début, j'ai travaillé sur un concept de `serveur de
tokens <https://github.com/mozilla-services/tokenserver>`_. L'idée était de
désolidariser l'authentification des services web des services eux mêmes.
L'idée est (je pense) bonne mais le service n'a pas été utilisé durant plus de
deux ans. La raison étant principalement que Sync, pour lequel le serveur de
tokens a été écrit, a subi des changements majeurs (qui sont rentrés en
production il y a quelques semaines)
Circus est né de besoins découverts via le token server, et il m'a
personnellement beaucoup appris. Le token server est finalement utilisé dans la
nouvelle version de Sync qui est rentrée en production il y a peu.
Marketplace ("chouette, on va casser du serveur")
-------------------------------------------------
Après 6 mois à travailler à Services, Tarek et moi avons commencé à rejoindre
l'équipe du Marketplace pour faire un travail d'"audit de performance".
L'idée était de prêter main forte à l'équipe du marketplace, mais les détails
étaient alors assez flous. Le code est assez indigeste au premier abord, ce qui
m'avait alors pas mal refroidi. La raison principale étant que le code est
utilisé à la fois par `addons.mozilla.org` et par `marketplace.firefox.com`,
rendant les choses souvent un peu plus compliquées qu'il ne faudrait.
Cet "audit" a été l'occasion de travailler sur des outils de montée en charge
assez sympa, qui ont donné naissance à un projet qu'on utilise assez souvent
maintenant, `Loads`_.
Énormément d'efforts sont fait pour aller dans la bonne direction et faire en
sorte que le code soit plus facile à maintenir et que le projet soit plus
facile à aborder. D'ailleurs, pas mal de copains djangonautes français
travaillent dessus (salut `Mathieu <http://virgule.net>`_, Yohan, `David
<http://larlet.fr>`_ et `Mathieu Agopian <http://mathieu.agopian.info>`_!)
Une partie de notre plan a été de sortir certaines fonctionnalités du code
actuel, pour en faire quelque chose de plus facile à maintenir et de moins
imbriqué.
La Communauté
-------------
`Circus`_ et `Cornice`_ sont
deux outils qui semblent utiles à la communauté. J'ai eu des retours très
positifs sur Cornice, et j'essaye de le faire évoluer dans la direction qui me
semble propice.
D'ailleurs, Cornice est utilisé (par `Mathieu L.
<http://blog.mathieu-leplatre.info/pages/about.html>`_
— encore un —, `Rémy <http://twitter.com/natim>`_ et moi) actuellement pour coder
`Daybed <https://github.com/spiral-project/daybed>`_ un service de validation
de formulaires, mais ça sera l'objet d'un futur billet.
Circus commence à recevoir des contributions de plus en plus intéressantes, et
à être utilisé en interne chez nous et chez d'autres, donc c'est une
extrêmement bonne nouvelle.
Talkilla / Loop
---------------
Après quelques temps, j'avais envie d'apprendre de nouveau. Python c'est génial
mais c'était devenu ma "zone de confort". J'adore découvrir des choses, donc
c'était le moment de faire en sorte que ça continue!
C'était aussi l'occasion de travailler avec `Nicolas
<https://nicolas.perriault.net/>`_ et `Romain <http://monkeypatch.me/blog/>`_.
Je suivais le projet Talkilla de plus ou moins loin depuis quelques mois,
c'était donc l'occasion à ne pas manquer.
En rentrant dans cette équipe, je cherchais principalement à avoir un projet
visible pour les utilisateurs finaux. Refaire un peu de frontend, apprendre
à faire du JavaScript propre et découvrir de nouvelles personnes.
J'y ai aussi récupéré une équipe qui essaye de suivre les principes de
l'agilité et qui est sur mon fuseau horaire (pour la plupart). Le rêve.
L'idée derrière Talkilla est d'utiliser la technologie de communication pair
à pair dans les navigateurs (WebRTC) pour faire des appels audio / vidéo. En
d'autres termes, c'est un peu transformer votre firefox en téléphone, sauf que
personne ne peut espionner ce qui se passe entre vous et l'autre bout du fil.
A peine arrivé dans le projet (peut-être un mois et quelques après mon
débarquement) le choix a été fait de tout réécrire depuis zéro, dans un projet
qui se nomme actuellement "Loop", qui veut proposer la même chose, mais inclus
directement dans Firefox.
C'est en bonne voie, on a quelque chose qui fonctionne dans nightly, et le code
du serveur fonctionne pas mal. Le code du serveur est ici:
https://github.com/mozilla-services/loop-server.
Un client est en train d'être implémenté dans Firefox et un autre en tant
qu'application pour FirefoxOS. Le boulot ne s'arrête pas de pleuvoir, mais je
pense qu'on va dans une direction intéressante.
Pour être complètement terminé, il faudrait qu'on soit capable de se passer
complètement de notre provider, TokBox (que l'on utilise en tant que relai
média), pour que n'importe qui puisse choisir d'utiliser son propre serveur
STUN / TURN et installe son serveur loop chez lui.
Le travail à distance
=====================
Quand j'ai commencé à travailler à Mozilla, j'ai décidé de venir m'installer
à Paris. La plupart des personnes de mon entourage ont d'ailleurs fait des gros
yeux, parce qu'ils connaissaient mon avis sur la ville en question, mais casser
des préjugés n'est jamais une mauvaise chose.
Après deux ans passés à Paris, j'ai décidé de partir m'installer à Rennes,
puisque de toute manière, la plupart de mon travail s'effectue au jour le jour
à distance. En d'autres termes, la plupart de mon équipe n'est pas à coté de
moi quand je travaille, ce qui veut dire que je peux travailler depuis
n'importe où.
Ce qui fonctionne pour moi, c'est de ne quasiment jamais travailler depuis la
maison. J'utilise `un espace de coworking <http://www.lacantine-rennes.net/>`_
qui est un moyen de garder ma vie perso séparée de ma vie privée et de
rencontrer des gens passionnés par ce qu'ils font.
Depuis que je suis arrivé à Rennes, Rémy a commencé à travailler avec moi, et
c'est un réel bonheur que de pouvoir partager des journées de travail. On
"pair-prog" énormément et j'ai l'impression d'avoir un boost dans ma
productivité quotidienne.
Enseignements
=============
Mozilla est ma première expérience professionnelle, et par conséquent, je
manque nécessairement de recul sur ce qui est acceptable et ce qui ne l'est
pas. D'une manière générale, avoir un environnement de travail basé sur la
confiance est réellement appréciable (La première réaction des gens quand je
dis que je peux travailler à distance, c'est de me demander comment ils font
pour être sur que je travaille. Et la réponse est… il n'y en a pas).
J'ai encore un peu de mal à savoir quels indicateurs utiliser pour savoir si je
suis "productif" ou non, mais j'ai globalement l'impression que je manque de
concentration et de discipline: beaucoup d'interruptions n'aident pas à se
concentrer.
La motivation fluctue aussi énormément: un jour on est super motivé, un autre
c'est juste impossible de la trouver. Après quelques expérimentations, le mieux
(pour moi) est d'avoir des horaires fixes, pour pouvoir séparer le travail du
reste, de ne pas hésiter à faire des pauses et d'écouter un peu ses envies et
son corps (si je suis crevé, ça ne sert à rien de se lever pour aller
travailler, il vaut mieux se reposer un peu pour être plus efficace ensuite,
par exemple).
J'ai essayé de tirer quelques enseignements de ces deux années:
Malheureusement, le code n'est pas propre
-----------------------------------------
Je me rends compte que bien souvent je suis assez déçu de la qualité du code
que je regarde. Principalement parce que je ne suis pas capable de le
comprendre rapidement. Spécifiquement, ça m'est arrivé avec certaines parties
de `Zamboni <https://github.com/mozilla/zamboni>`_, le code du `Marketplace
<http://marketplace.firefox.com>`_ dont je parlais plus haut, avec certaines
parties de Talkilla ou alors le code de Firefox lui même.
C'était extrêmement frustrant pour moi de découvrir que le code écrit à Mozilla
n'était pas exemplaire. Tout le code qui est ajouté à l'heure actuelle est
revu, corrigé et validé par des pairs, mais un certain nombre de projets ont un
historique assez lourd qui rends leur structure complexe.
Je réalise donc que mon travail n'est pas uniquement de savoir écrire du code
propre, mais également de réussir à comprendre du code que je considère comme
"sale" (quitte à l'améliorer au passage !).
Et c'est pas du gâteau; je m'attendais à réussir à comprendre des projets
complexes facilement, mais aucun miracle de ce coté là. Il faut réussir
à rester concentré pendant suffisamment longtemps pour pouvoir tirer tous les
fils et commencer à démêler… Pas facile !
Apprendre est un processus actif
--------------------------------
Il est facile de passer à coté de l'apprentissage. Être entouré de gens
talentueux ne suffit pas pour continuer à apprendre.
Savoir reconnaitre un échec est nécessaire. Dire que l'on comprends pour éviter
de passer pour un idiot est un biais qui se prends assez rapidement, et qu'il
faut éviter à tout prix.
Surtout au début, c'était une erreur que je faisais énormément, une question
d'égo probablement.
Il y a une espèce de honte de ne pas savoir, alors que tout le monde autour
sait ou en tout cas semble savoir. Bien souvent, les gens autour ne savent pas
non plus, ce qui mène à des discussions de comptoir, sans trop savoir pourquoi.
Connaître ses limites techniques est un bon début pour pouvoir les surpasser.
Chercher à les rencontrer est un processus actif.
Le manque de temps m'empêche bien souvent de pouvoir prendre un livre technique
et de pouvoir l'apprécier. Je ne sais pas exactement pourquoi, peut être par
sur-dose, mais je n'ai ouvert que quelques rares livres techniques durant ces
deux années. Et j'aimerais bien que ça change !
"Assez bien" est suffisant
--------------------------
La culture de l'excellence se mets parfois au milieu du chemin. On oublie
souvent que "le mieux est l'ennemi du bien".
Rien ne sert de faire des commits parfaits tout le temps. Quand j'ai besoin de
"hacker" sur un projet, je ne voulais d'abord pas tout péter, par peur de ne
plus m'y retrouver.
Mon approche actuelle est bien différente: on mets les mains dans le cambouis
jusqu'à ce que ça marche, et ensuite on répare les dégâts. Enfin… dans une
certaine mesure hein !
Écrire des boites à outils et non pas des frameworks
----------------------------------------------------
Écrire des frameworks force les utilisateurs à les utiliser, et à les connaitre
dans les moindres recoins. Heureusement, il existe déjà énormément de
frameworks qui pour la plupart font très bien leur travail. Ce qui nous manque
ce n'est pas plus de frameworks, mais bel et bien plus de boites à outils.
Une boite à outil prends un problème bien défini et propose une solution pour
ce problème. Une boite à outils est, en mon sens, ce qu'on appelle une
bibliothèque. Pas besoin de réécrire tout votre projet pour utiliser ma
nouvelle bibliothèque afin de profiter des fonctionnalités qu'elle apporte
(alors que c'est le cas avec un framework, justement).
Être le moteur de son propre changement
---------------------------------------
Facile à dire, héhé ! D'une manière générale, je me rends compte qu'il est
facile de se plaindre sans pour autant être moteur du changement que l'on
souhaite voir arriver.
Ça vaut le coup de se donner la peine de faire changer les choses, surtout
à Mozilla, parce que le changement n'est pas seulement vu d'un mauvais œil.
Pour que les choses évoluent, il faut être force de proposition. Se plaindre
n'a jamais servi à rien si ce n'est pas suivi d'actes ;)
Je dis de temps en temps que Mozilla est une "do-o-cratie" (celui qui fait
à raison), et je le pense de plus en plus. Quand j'ai envie que quelque chose
soit fait, et bah… il faut le faire !
Ne pas chercher à avoir raison
------------------------------
Peu importe qui a raison, l'important n'est pas de chercher à montrer que tu
sais, mais de trouver ce qui est juste. Ça parait peut être évident, mais bien
souvent on cherche à se mettre en avant, au détriment du projet… Allez, gardons
nos égos de coté ;)
Arrêter le négativisme
----------------------
Il est très facile de se laisser embarquer dans le négativisme. Il y a toujours
des choses qui ne vont pas, et probablement il y en aura toujours. Ce ne sont
pas des raisons suffisantes pour perdre le moral. Identifier les points faibles
est important est permet de savoir ce qu'il est nécessaire d'améliorer, mais
regarder les choses du coté positif (et il y en a nécessairement un !) est
indispensable !
À plusieurs reprises je me suis retrouvé dans des crises de négativisme, pour
un tas de raisons différentes. La meilleure manière de s'en sortir: en causer
et trouver des solutions, prendre le problème à bras le corps, et ne pas
considérer que c'est un problème sur lequel on a aucune prise possible.
La suite ?
==========
Je n'ai aucune idée d'à quoi va ressembler la suite, et c'est justement ce que
j'apprécie et qui m'effraie en même temps…
Je fais actuellement énormément de Javascript et je travaille sur des
projets qui semblent avoir plus de sens qu'avant (même si je vois déjà des
choses que je souhaiterais améliorer, mais chaque chose en son temps). Donc
techniquement j'apprends et dans ma quête de faire des produits qui touchent un
utilisateur.
Depuis quelques semaines, je peux travailler une journée par semaine sur un
projet qui me tiens vraiment à cœur: daybed (http://daybed.rtfd.org).
L'objectif est de faire en sorte que le projet avance et soit utilisé au sein
de mozilla.
Avant toute autre chose, il faudra faire des changements de "pitch" pour qu'il
soit plus simple d'expliquer ce que Daybed souhaite faire, mais… c'est une autre
histoire.

View file

@ -1,118 +0,0 @@
Quel métier, quelle utilité ?
=============================
:date: 2014-07-29
:category: thoughts
Aujourd'hui, mon métier est d'être développeur d'applications. Imaginer des
solutions techniques pour faire marcher des logiciels, puis écrire les lignes
de code nécessaires.
Être Développeur n'est pas un métier qui a du sens en lui même (comme peut
l'être le métier d'instituteur/rice par exemple). Tout comme lorsque l'on est
écrivain il est important de se poser des questions sur les textes que l'on
produit, pour qui et dans quel but; il est important de se questionner sur
l'utilité du métier de développeur, et sur l'utilisation des contenus produits.
Je suis un développeur parce que je défends certaines valeurs. Les valeurs du
partage de connaissances, de la collaboration, et de l'émancipation.
Je suis aussi développeur parce qu'il me plait de créer des contenus à partir
de "pas grand chose". La *magie* de la création logicielle m'anime, parce que j'ai
l'impression qu'il est possible de faire des choses géniales à partir de ce "pas
grand chose". Donnez moi un ordinateur et je vous crée une application de
partage de semences paysannes. Un peu comme il est possible de donner une
feuille de papier à un dessinateur pour se retrouver avec un univers magnifique
couché sur papier.
Je me rends compte qu'au fur et à mesure des années, je me laisse ramollir,
absorber par le quotidien et me retrouve à ne plus me poser de questions
quant à l'utilité de mon métier. Pourquoi est-ce que je code ? À qui cela sert
il ? Quelle est ma motivation réelle ?
En travaillant pour Mozilla, on pourrait croire que ce problème est résolu de fait,
puisque après tout, Mozilla, c'est les "protecteurs du web", des
gentils, et qu'on essaye nécessairement de faire les choses bien…
L'omniprésence technologique
----------------------------
Je ne suis pas convaincu qu'utiliser la technologie de la manière dont on le
fait actuellement est systématiquement une bonne chose:
Depuis 2 ans quasiment maintenant, Mozilla travaille sur un système
d'exploitation mobile, un remplaçant pour les iphones et androides, qui utilise
cette fois ci les technologies du web. Les avantages sont multiples, et le
principal intérêt est de faire un téléphone qui ne soit pas au service
des "gros" du Web mondial (Google et Apple).
Ces "ordiphones" à destination des pays dits "émergents" sont d'ailleurs
construits à faible coût — toujours de manière honteuse, pour la plupart en
chine, dans les mêmes chaines de production que les autres téléphones, mais
c'est un autre débat.
L'idée, assez intéressante d'un point de vue marché (les pays en question
n'ayant que peu de périphériques actuellement semblent un terrain propice à la
diffusion des "ordiphones"), est de donner accès à la technologie, au Web à ces
pays émergents.
L'accès à la technologie pour tous me semble relever de la chimère
productiviste: je conçois que la technologie puisse être un pas en avant assez
fou, notamment lorsque l'on connaît la richesse des contenus qu'on peut trouver
sur le web, mais cette richesse vient aussi avec un certain coût, que nous
avons actuellement du mal, en tant qu'utilisateurs, à contrôler et à mesurer.
Les gens sont beaucoup beaucoup trop connectés.
Je le suis par exemple bien plus souvent que ce que je voudrais l'admettre, que
ce soit pour regarder un film, lire mes emails, communiquer avec des amis,
faire de l'associatif, écrire du code, des billets sur ces carnets…
Cette technologie, omniprésente dans nos vies, je ne sais pas si c'est un
futur que je souhaite partager.
Pour prendre un autre exemple, les bienfaits de la technologie ne viennent pas
seuls. Les réseaux sociaux, qui constituent une bonne part de l'utilisation du
Web, relèvent du culte de la personnalité, de l'individualisme, et ce n'est pas
ce développement que je souhaite pour notre société.
L'idée de base du Web, le fait de faire une toile de connaissances ouverte et
partagée entre tous est en train, petit à petit, de glisser vers l'idée d'un
outil de relai de l'information, où tout va vite, où l'on ne prends guère
plus le temps de lire autre chose que les titres des quotidiens, ou des
"tweets" de cent vingt caractères…
Des outils utiles
-----------------
Bon an, mal an, je pense quand même que la technologie puisse être un vecteur
d'émancipation. Plus spécifiquement, je crois qu'il ne faut pas laisser
l'utilisation de la technologie aux "gros", aux entreprises, aux états ou
"spécialistes".
Il est important de ne pas laisser ceux que l'on combat s'emparer des "outils
du pouvoir". La science, la technologie ou les médias sont autant de champs
qu'il est important de défendre, de conserver, de s'approprier.
Un des objectifs que je me fixe, pour les années à venir, ce que j'ai envie de
créer, c'est à la fois des outils utiles pour les organisations, mais aussi
éduquer à ces outils.
Parce que l'éducation populaire ne s'arrête pas aux frontières du numérique,
parce qu'il est important de se battre avec les mêmes outils que ce monde que
l'on cherche parfois à combattre.
Les outils sur lesquels j'ai envie d'être amené à travailler sont des outils
qui favorisent et questionnent la collaboration.
Des outils comme etherpad par exemple, révolutionnent la manière de prendre des
notes en commun, et il reste énormément à faire sur le web à ce propos.
Nombre d'associations me demandent de plus en plus souvent ce qu'il en est de
Daybed, et de quand est-ce qu'on va pouvoir utiliser un système de génération
de formulaires en ligne, qui ne soit pas centré sur les services de google…
Allez, au boulot !
PS: je me rends compte après relecture que ce billet fait echo à un billet que
j'ai écris juste alors que je terminais mes études, `sur le sens du travail et
de l'informatique <{filename}2011.05.travailler-moins-mieux.rst>`_, ça fait du bien :)

View file

@ -1,40 +0,0 @@
Le secret du bonheur
====================
:date: 20/11/2014
:category: notes
Un enfant demande à son père :
Dis papa, quel est le secret pour être heureux ?
Sans dire un mot, le père demande à son fils de le suivre ;
Ils sortent de la maison, le père sur leur vieil âne et le fils suivant à pied.
Et les gens du village de dire :
Mais quel mauvais père qui oblige ainsi son fils d'aller à pied !
Le lendemain ils sortent de nouveau.
Le père ayant installé son fils sur l'âne et lui marchant à côté.
Les gens du village dirent alors :
Quel fils indigne, qui ne respecte pas son vieux père et le laisse aller à pied !
Le jour suivant, ils s'installent tous les deux sur l'âne avant de quitter la maison.
Les villageois commentèrent en disant :
Ils ne respectent pas leur bête à la surcharger ainsi !
Le jour suivant, ils partirent en portant eux-mêmes leurs affaires, l'âne trottinant derrière eux.
Cette fois les gens du village y trouvèrent encore à redire :
Voilà qu'ils portent eux-mêmes leurs bagages maintenant ! C'est le monde à l'envers !
De retour à la maison, le père dit à son fils :
Tu me demandais l'autre jour le secret du bonheur.
Peu importe ce que tu fais, il y aura toujours quelqu'un pour y trouver à redire.
Fais ce qui te plaît et là tu seras vraiment heureux.

View file

@ -1,121 +0,0 @@
Title: Comment est-ce que vous générez vos formulaires ?
Headline: Présentation d'une solution pour gérer vos formulaires en gardant la main sur les données générées
Date: 2016-05-31
Category: tech
Image: images/forms.jpg
Image_link: https://www.flickr.com/photos/kurtfaler/2946570890/in/photolist-5unWSo-nxwHk4-fwjQ1b-Xk5F1e-2nyhfK-Wewupi-qRH2Xe-2XeevA-2nyiGe-VoQgbo-2nyh1z-rgyTKm-aPe8yB-9X8MXQ-5zmZi-Vmx4Qu-9X5V9P-5g5EkR-9erwKR-pfUuMZ-obTwRp-dsPpSz-ckgYNh-9X8Zvf-ASZGaH-7LTmLX-fuJpoW-dabtsC-e32SSu-jV9aSa-5vvCn5-9CAB7c-g6y6sK-8N5tB8-87iko3-dsPqmz-4PAkkC-9X67E8-dYGSEz-9X634n-a2GgEA-98kTPP-a6Lpcf-9X5YMk-jcUL1s-7QJYFF-axhDsE-p9vhA8-fA6GmA-5kZtaV
Image_author: Kurt Faler
Image_license: CC BY-NC-ND 2.0
TL; DR: Je viens à peine de *releaser* la première version d'un service de génération de formulaires.
Allez jeter un coup d'œil sur [https://www.fourmilieres.net](https://www.fourmilieres.net)
*En février 2012, je parlais ici [d'un service de génération de formulaires](https://blog.notmyidea.org/carto-forms.html).
Depuis, pas mal d'eau à coulé sous les ponts, on est passé par pas mal d'étapes pour
finalement arriver à une première version de ce service de génération de
formulaires (à la *google forms*).*
En tant qu'organisateurs d'évènements (petits et gros), je me retrouve souvent
dans une situation ou je dois créer des formulaires pour recueillir des
informations. Actuellement, la meilleure solution disponible est *Google Forms*,
mais celle ci à plusieurs problèmes, à commencer par le fait que le code n'est
pas libre et que les données sont stockées chez Google.
La plupart du temps, le besoin est assez simple: je veux spécifier quelques
questions, et donner un lien à mes amis pour qu'ils puissent y répondre.
Je reviens ensuite plus tard pour voir la liste des réponses apportées.
![Capture de l'interface de création du formulaire]({filename}/static/formbuilder-build.png)
## Fonctionnalités
Il existe pas mal de solutions techniques qui essayent de répondre à la même
problématique, mais la plupart d'entre elles sont assez souvent compliquées,
nécessitent de se créer un compte, et/ou ne vous laisse pas la main libre sur
les données générées, voire le code est assez difficile à faire évoluer ou à
déployer.
Je voulais donc quelque chose de simple à utiliser *et* pour les créateurs de
formulaires *et* pour les utilisateurs finaux. Pas de chichis, juste quelques
vues, et des URLs à sauvegarder une fois l'opération terminée.
![Capture de l'écran avec les URLs générées]({filename}/static/formbuilder-created.png)
![Capture d'écran d'un exemple de formulaire]({filename}/static/formbuilder-form.png)
### Pas de compte
Vous n'avez pas besoin d'avoir un compte sur le site pour commencer à l'utiliser.
Vous créez simplement un nouveau formulaire puis envoyez le lien à vos amis pour
qu'eux puissent à leur tour le remplir.
![Capture de la page d'accueil, ou aucun compte n'est requis]({filename}/static/formbuilder-welcome.png)
### Gardez la main sur vos données
Une fois que vous avez récupéré les réponses à vos questions, vous pouvez
récupérer les données sur votre machines dans un fichier `.csv`.
![Capture de la page de resultats, il est possible de télécharger en CSV.]({filename}/static/formbuilder-results.png)
### API
L'ensemble des données sont en fait stockées dans [Kinto](https://kinto.readthedocs.org)
qui est interrogeable très facilement en HTTP. Ce qui fait qu'il est très facile de
réutiliser les formulaires que vous avez construits (ou leurs réponses) depuis
d'autres outils.
### Auto-hébergeable
Un des objectifs de ce projet est de vous redonner la main sur vos données.
Bien sur, vous pouvez utiliser l'instance qui est mise à votre disposition sur
[wwww.fourmilieres.net](https://www.fourmilieres.net), mais vous pouvez
également l'héberger vous même très
simplement, et vous êtes d'ailleurs fortement encouragés à le faire ! Notre
objectif n'est pas de stocker l'ensemble des formulaires du monde, mais de
(re)donner le contrôle aux utilisateurs !
## On commence petit…
Cette *release* n'est (bien sur) pas parfaite, et il reste encore pas mal de
travail sur cet outil, mais je pense qu'il s'agit d'une base de travail
intéressante pour un futur où Google n'a pas la main sur toutes nos données.
La liste des champs supportés est pour l'instant assez faible (Texte court,
Texte long, Oui/Non, choix dans une liste) mais elle à vocation à s'étendre, en
fonction des besoins de chacun.
J'ai d'ailleurs créé [un formulaire pour que vous puissiez me faire part de vos
retours](https://www.fourmilieres.net/#/form/cfd878264cec4ed2), n'hésitez pas !
## Et, euh, comment ça marche ?
Le *formbuilder*, comme j'aime l'appeler se compose en fin de compte de deux
parties distinctes:
- [Kinto](https://kinto.readthedocs.org), un service qui stocke
des données coté serveur et qui les expose via des **APIs HTTP**
- [Le formbuilder](https://github.com/kinto/formbuilder), une application
JavaScript qui ne tourne que coté client (dans votre navigateur) qui permet
de construire les formulaires et d'envoyer les données sur les *APIs* coté
serveur.
Au niveau de la *stack* technique, le **formbuilder** est codé en ReactJS. Un
des points techniques intéressants du projet est qu'il génère en fin de compte du
[JSON Schema](http://jsonschema.net/), un format de validation de données *JSON*.
Donc, reprenons! Vous arrivez sur la page d'accueil puis cliquez sur
"Create a new form", puis vous vous retrouvez face à une interface ou vous pouvez
ajouter des champs de formulaire. Une fois ce travail effectué, vous appuyez sur
"Create the form".
- Le JSON Schema est alors envoyé au serveur Kinto, qui l'utilisera pour valider
les données qu'il recevra par la suite.
- Ce JSON Schema sera aussi utilisé lors de l'affichage du formulaire aux
personnes qui le remplissent.
- Un jeton d'accès est généré et ajouté à l'URL, il s'agit de l'identifiant du
formulaire.
- Un second jeton d'accès administrateur et généré, il vous faut le garder de
coté pour avoir accès aux réponses.
Bref, en espérant que ça vous serve ! Un petit pas dans la direction des données
rendues à leurs utilisateurs !

View file

@ -1,92 +0,0 @@
Chiffrement
###########
:category: thoughts
:date: 2015-05-08
:headline: Face a la surveillance généralisée, une seule solution, le
chiffrement de nos données et communications.
.. epigraph::
En france, depuis le 5 Mai 2015, il est possible au Premier Ministre de
surveiller massivement et sans contrôle la population française.
le projet de loi n'a pas été significativement amendé en séance mi-avril,
et ses dispositions dangereuses ont été conservées :
- Élargissement des finalités du renseignement, permettant une **potentielle
mise sous surveillance de pans entiers de la vie politique, syndicale,
militante**, mais aussi économique, scientifique, etc. ;
- Légalisation massive de pratiques illégales des services de
renseignement et **introduction de techniques de surveillance de masse
des communications électroniques** ;
- **Absence de contrôle réel et indépendant** a priori par la future
CNCTR, et recours des citoyens illusoires ;
-- `La Quadrature du Net - L'Assemblée nationale vote la surveillance de
masse des citoyens français ! <https://www.laquadrature.net/fr/lassemblee-nationale-vote-la-surveillance-de-masse-des-citoyens-francais>`_
Je m'étonne que `les révélations d'Edward Snowden
<https://fr.wikipedia.org/wiki/R%C3%A9v%C3%A9lations_d%27Edward_Snowden>`_ — qui
ont démontré que la plupart des communications électroniques et téléphoniques
pouvaient être scrutés par la NSA, l'agence de sécurité Américaine) — ne
fassent pas plus de remous que ça.
À peine deux années après ces révélations, la France fait passer une loi qui
légitime cette surveillance de masse, à plus de 77% des voies. Pour moi c'est
un signal fort de la perte de valeurs de notre démocratie, et à fortiori de ma
perte de foi en notre forme de démocratie.
Notre liberté d'expression se voit bien évidemment amputée de par la
surveillance généralisée. Sans avoir nécessairement à cacher mes échanges, ce
qui est de la sphère privée devrait pouvoir le rester.
De toute manière, l'email comme on l'utilise traditionnellement est une
hérésie: toutes les parties qui traitent le message peuvent le lire,
(destinataire, auteur et corps du message entre autres). Il est grand temps de
rendre les outils de chiffrement plus simples et ergonomiques.
Je compte donc:
- Organiser des ateliers de sensibilisation aux outils de communication, envers
mes proches;
- Utiliser la communication chiffrée le plus souvent possible, au moins pour
rendre le déchiffrement des messages plus longue, "noyer le poisson".
Si vous êtes intéressé(e)s, faites moi signe, je me ferais un plaisir de vous
expliquer ce qui n'est pas si complexe et vise à laisser dans la sphère privée
ce qui devrait l'être à priori.
Une manière simple de se protéger est d'installer Thunderbird avec Enigmail et
de le configurer correctement. Ce n'est pas très compliqué et permet d'avoir
des échanges chiffrés. `Référez vous à ce guide
<https://emailselfdefense.fsf.org/fr/>`_ pour des instructions pas à pas.
La clé publique pour me contacter est `0x078805D867F56F12
</static/alexis.notmyidea.org.asc>`_. Et
vous ?
Je vous invite à aller voir le documentaire Citizen Four, qui passe en salles.
Si vous ni avez pas accès, vous pouvez le visionner ici, et éventuellement
faire un don aux auteurs ou associations qui gravitent autour (`Electronic
Fronteer Fondation <https://supporters.eff.org/donate>`_, `Tails
<https://tails.boum.org/contribute/how/donate/index.fr.html>`_, `La quadrature
du net <https://support.laquadrature.net/>`_ en france ou d'autres…)
.. raw:: html
<link href="http://vjs.zencdn.net/4.12/video-js.css" rel="stylesheet">
<script src="http://vjs.zencdn.net/4.12/video.js"></script>
<video id="MY_VIDEO_1" class="video-js vjs-default-skin" controls
preload="auto" width="640" height="264" poster="MY_VIDEO_POSTER.jpg"
data-setup="{}">
<source src="https://citizenfour.thecthulhu.com/citizenfour.mp4" type='video/mp4'>
<p class="vjs-no-js">To view this video please enable JavaScript, and
consider upgrading to a web browser that <a
href="http://videojs.com/html5-video-support/" target="_blank">supports
HTML5 video</a></p>
</video>

View file

@ -1,89 +0,0 @@
Simplifier les preuves d'identités
##################################
:category: crypto
:date: 2015-05-11
:headline: Qu'est-ce que Keybase.io et comment essayent-ils de simplifier la
création de preuves d'identité.
L'un des problèmes non réellement résolu actuellement quant au chiffrement des
échanges est lié à l'authenticité des clés. Si quelqu'un décide de publier une
clé en mon nom, et en utilisant mon adresse email, cela lui est assez facile.
Il est donc nécessaire d'avoir des moyens de prouver que la clé publique que
j'utilise est réellement la mienne.
Traditionnellement, il est nécessaire de faire signer ma clé publique par
d'autres personnes, via une rencontre en personne ou des échanges hors du
réseau. C'est par exemple ce qui est réalisé lors des `Key Signing parties
<https://fr.wikipedia.org/wiki/Key_signing_party>`_.
Une manière simple d'effectuer ces vérifications serait, en plus de donner son
adresse email, sa signature de clé, ou a minima de donner un mot clé pour
valider que les échanges proviennent bien de la bonne personne.
PGP propose un mécanisme de signature des clés d'autrui, une fois celles ci
validées, ce qui permet de placer sa confiance dans les signataires de la clé.
`Keybase.io <https://keybase.io>`_ est un service qui vise à rendre la création
de ces preuves plus facile, en partant du principe qu'il est possible
d'utiliser différents moyens afin de prouver l'identité des personnes. Par
exemple, leurs comptes Twitter, GitHub ou leurs noms de domaines. De la même
manière qu'il est possible de signer (valider) les clés de nos amis, il est
possible de les "tracker" selon le jargon de keybase.
Donc, en somme, *Keybase.io* est un annuaire, qui tente de rendre plus facile la
création de preuves. Bien.
Quelques points d'ombre
=======================
Il s'agit d'une *startup* américaine, domiciliée dans le Delaware, qui se trouve être
un des paradis fiscaux qui `est connu pour être un paradis fiscal au coeur
même des États-Unis <https://fr.wikipedia.org/wiki/Delaware>`_. Je ne veux pas
faire de raccourcis trop rapides, bien évidemment, alors `j'ai ouvert un ticket
sur GitHub pour en savoir plus
<https://github.com/keybase/keybase-issues/issues/1569>`_ (après tout, le fait
d'être un paradis fiscal permet peut-être d'échapper à certaines lois sur la
requêtes de données). D'autant plus étonnant, la startup n'a pour l'instant `pas
de *business model* <https://github.com/keybase/keybase-issues/issues/788>`_
(ce qui en un sens est assez rassurant, même si on peut se poser la question de
pourquoi faire une startup dans ces cas là).
Le service (bien qu'en Alpha), n'est pas mis à disposition sous licence libre,
ce qui pour l'instant empêche quiconque de créer son propre serveur Keybase.
`Une partie des composants, cependant, le sont (open source)
<https://github.com/keybase/>`_.
J'ai du mal à croire en des initiatives qui veulent sauver le monde, mais dans
leur coin, je ne comprends pas pourquoi il n'y à pas de documentation sur
comment monter son propre serveur, ou comment les aider à travailler sur la
fédération. Mais bon, c'est pour l'instant une initiative encore fraîche, et je
lui laisse le bénéfice du doute.
Sur le long terme, une infrastructure comme *Keybase.io*, devra évidemment être
`distribuée <https://github.com/keybase/keybase-issues/issues/162>`_.
.. epigraph::
We've been talking about a total decentralization, but we have to solve
a couple things, synchronization in particular. Right now someone can
mirror us and a client can trust a mirror just as easily as the server at
keybase.io, but there needs to be a way of announcing proofs to any server
and having them cooperate with each other. We'd be so happy to get this
right.
-- `Chris Coyne, co-founder of Keybase
<http://chris.beams.io/posts/keybase/>`_
Afin de se "passer" de leur service centralisé, les preuves générées (qui sont
la force du système qu'ils mettent en place) pourraient être exportées sur des
serveurs de clés existants. C'est quelque chose `qu'ils souhaitent réaliser .
<https://github.com/keybase/keybase-issues/issues/890>`_.
Bref, une initiative quand même importante et utile, même si elle soulève des
questions qui méritent qu'on s'y attarde un brin.
Par ailleurs, `d'autres projets qui visent des objectifs similaires
<https://leap.se/nicknym>`_ existent, via le projet LEAP, mais je n'ai pas
encore creusé.

View file

@ -1,44 +0,0 @@
Language
########
:date: 2015-05-01
:headline: Nos langues peuvent être autant de frontières que de ponts...
:category: thoughts
.. epigraph::
Nous savons tous que le fait d'obliger les fonctionnaires internationaux,
diplomates ou ministres à s'exprimer dans une langue qui n'est pas la leur
équivaut à les placer en situation d'infériorité. **Cela les prive de la
capacité de nuance et de raffinement**, ce qui revient à faire des
concessions à ceux dont c'est la langue maternelle.
Aussi nous savons tous que les concepts qui paraissent similaires sont
souvent différents d'une civilisation à l'autre. Les mots expriment une
culture, une façon de penser et une vision du monde.
-- M. Boutros Boutros-Ghali, ancien secrétaire général des Nations Unies
Je me surprends à préférer le français pour m'exprimer au lieu de l'anglais,
notamment au niveau des articles non techniques.
Il y a quelques années, alors que je terminais mes études en Angleterre et que
je commençais à travailler pour Mozilla, on me proposait de venir aux
États-Unis, ce que j'ai refusé parce qu'exprimer mes points de vue de manière
fine m'était trop difficile dans une langue qui n'était pas la mienne.
- Cela me permet de pouvoir tenir des discours avec des positions et un
argumentaire "fin", ce qui me serait beaucoup plus difficile dans une langue
que je maitrise moins;
- Sans même parler d'argumentaire, les mots utilisés dans ma langue maternelle
me permettent de manœuvrer plus finement et de faire passer des idées de
manière plus efficace;
- J'ai l'impression de pouvoir engager plus facilement avec les gens qui
m'entourent géographiquement, par exemple par rapport à la communauté
technophile / pythoniste francophone.
- Même si mon niveau d'anglais à progressé, ce n'est pas nécessairement le cas
de mes interlocuteurs.
Par contre, cela nuit clairement à engager avec d'autres personnes dont la
langue n'est pas la mienne, dans tels cas, traduire les contenus intéressants
vers l'anglais semble une solution (chronophage).

View file

@ -1,73 +0,0 @@
Phrases de passe et bonnes pratiques
####################################
:category: crypto
:date: 2015-05-09
:headline: Communiquer de manière chiffrée n'est pas aisée, et nécessite de
mémoriser des phrases de passes complexes. Comment s'en sortir ?
.. epigraph::
Au contraire des autres mots de passe, les mots de passe cryptographiques
ont specifiquement besoin d'être longs et extremement difficiles à deviner.
La raison est qu'un ordinateur (ou un cluster de plusieurs ordinateurs)
peut être programmé pour faire des trillions d'essais de manière
automatique. Si le mot de passe choisi est trop faible ou construit d'une
manière trop prédictible, cette attaque par la force pourrait se revéler
fructueuse en essayant toutes les possibilités.
-- `The Electronic Frontier Foundation
<https://www.eff.org/wp/defending-privacy-us-border-guide-travelers-carrying-digital-devices>`_ (traduction de mon fait)
Comprendre les concepts et l'écosystème qui permettent d'avoir une vie
numérique chiffrée n'est pas quelque chose d'aisé. `Plusieurs
<https://emailselfdefense.fsf.org/fr/>`_ `guides
<http://www.controle-tes-donnees.net/outils/GnuPG.html>`_ ont été écrits à ce
propos, et pour autant je me rends compte que naïvement il est possible de
mal utiliser les outils existants.
.. epigraph::
Utilisez un *bon* mot de passe pour votre session utilisateur et une
*bonne* phrase de passe pour proteger votre clé privée. Cette phrase de
passe est la partie la plus fragile de tout le système.
-- La page de manuel de GPG.
Une phrase de passe devrait:
- Être suffisamment longue pour être difficile à deviner;
- Ne pas être une citation connue (littérature, livres sacrés etc);
- Difficile à deviner même pour vos proches;
- Facile à se souvenir et à taper;
- être unique et non partagée entre différents sites / applications etc.
Une des techniques consiste à utiliser des mots du dictionnaire, sélectionnés de
manière aléatoire, puis modifiés.
.. figure:: https://imgs.xkcd.com/comics/password_strength.png
:alt: XKCD sur la force des mots de passe.
Micah Lee `travaille également sur un outil
<https://github.com/micahflee/passphrases>`_ qui vise à rendre la mémorisation
des phrases de passe plus aisée, de par leur répétition avec des pauses de plus
en plus longues.
.. figure:: {filename}/static/passphrases.png
:alt: Capture d'écran du logiciel de génération et de mémorisation des
phrases de passe.
Oui, ce n'est pas aussi simple que ce qu'il y parait. Pour ma part, j'ai une
copie en local de mes clés, dans un fichier chiffré avec une autre clé que j'ai
généré pour l'occasion et que je ne partagerait pas. J'ai par ailleurs
`configuré <https://github.com/jamessan/vim-gnupg>`_ mon éditeur de texte pour
pouvoir chiffrer les documents textes par défaut.
J'ai donc regénéré une nouvelle fois mes clés de travail et personnelles, en
utilisant des phrases de passe plus complexes.
Reste encore la question de la sauvegarde de ces clés privées de manière
chiffrée, que je n'ai pas encore résolue. Bref, tout cela me semble bien
compliqué pour réussir à l'expliquer à des novices, qui pour certains ne sont
même pas sur de l'intérêt de la chose.

View file

@ -1,73 +0,0 @@
Les problèmes de PGP
####################
:category: crypto
:date: 2015-05-25
:headline: Quels sont les soucis liés à PGP, que faire ?
.. epigraph::
Flip a bit in the communication between sender and recipient and they will
experience decryption or verification errors. How high are the chances they
will start to exchange the data in the clear rather than trying to hunt down
the man in the middle?
-- http://secushare.org/PGP
Une fois passé l'euphorie du "il faut utiliser PGP pour l'ensemble de nos
communications", j'ai réalisé lors de discussions que PGP avait plusieurs
problèmes, parmi ceux-ci:
- Les *meta données* (y compris le champ "sujet" de la conversation) sont quand
même échangées en clair (il est possible de savoir qu'un message à été échangé
entre telle et telle personne, a telle date);
- PGP se base sur un protocole de communication qui est lui non chiffré, et il
est donc facile de soit se tromper, soit dégrader le mode de conversation vers
une méthode non chiffrée;
- Il est facile de connaître votre réseau social avec PGP, puisque tout le
principe est de signer les clés des personnes dont vous validez l'identité;
- En cas de fuite de votre clé privée, tous les messages que vous avez chiffrés
avec elle sont compromis. On dit que PGP ne fournit pas de *forward secrecy*;
- La découverte de la clé de pairs se passe souvent *en clair*, sans utiliser une
connexion "sécurisée" (HTTPS). Tout le monde peut donc voir ces échanges et
savoir de qui vous cherchez la clé;
- Les discussions de groupes sont très difficiles: il faut chiffrer pour chacun
des destinataires (ou que ceux-ci partagent une paire de clés).
Je suis en train de creuser à propos les alternatives à PGP, par exemple `Pond
<https://pond.imperialviolet.org/>`_, qui lui ne construit pas par dessus un
standard déjà établi, et donc n'hérite pas de ses défauts (mais pas non plus de
son réseau déjà établi).
En attendant, quelques bonnes pratiques sur PGP ;)
Bonnes pratiques
================
Il est en fait assez facile d'utiliser PGP de travers. Riseup à fait `un
excellent guide
<https://help.riseup.net/en/security/message-security/openpgp/best-practices>`_
qui explique comment configurer son installation correctement.
- J'en ai déjà parlé, mais il faut absolument choisir des phrases de passes
suffisamment longues. Pas facile de les retenir, mais indispensable. Vous
pouvez aussi avoir un document chiffré avec une clé que vous ne mettez jamais
en ligne, qui contiens ces phrases de passe, au cas ou vous les oubliez.
- Générez des clés RSA de 4096 bits, en utilisant sha512;
- Il faut utiliser une date d'expiration de nos clés suffisamment proche (2
ans). Il est possible de repousser cette date si nécessaire, par la suite.
Parmi les choses les plus frappantes que j'ai rencontrées:
- Utiliser le *flag* `hidden-recipient` avec PGP pour ne pas dévoiler qui est
le destinataire du message;
- Ne pas envoyer les messages de brouillons sur votre serveur, ils le seraient
en clair !;
- Utilisez HPKS pour communiquer avec les serveurs de clés, sinon tout le
trafic est en clair.
Le `projet Bitmask <https://bitmask.net/>`_ vise lui à rendre les outils de
chiffrement d'échanges de messages et de VPN simples à utiliser, encore quelque
chose à regarder.
Enfin bref, y'a du taf.

View file

@ -1,29 +0,0 @@
Travail et créativité
#####################
:date: 2015-05-21
:headline: Travailler moins pour laisser plus de place à la créativité.
:category: thoughts
.. epigraph::
Low-risk, low-pressure, and love: The 3 rules of side projects.
-- `The science of side projects
<https://open.bufferapp.com/side-projects-creative-hobbies/>`_
Je ne m'étais jamais fais la remarque, mais les projets dont je suis le plus
fier sont effectivement des *side projects*. Des projets que j'ai commencé
parce que j'en avais l'envie et le temps, qui n'étaient bien souvent que des
envies passagères.
Il est arrivé que quelqu'un m'ait demandé de le faire, et que j'y prenne du
plaisir, ou que je le fasse simplement pour moi et que d'autres y trouvent leur
compte, mais il s'agit nécessairement de projets non *commandités* par l'extérieur.
Encore un signal dans la direction du travailler moins, cette fois ci pour
être plus créatif.
.. image:: {filename}/images/soupasoups.jpg
:alt: Soupa'Soups.

View file

@ -1,156 +0,0 @@
Rôles
#####
:category: thoughts
:date: 2015-06-29
:headline: De l'importance des rôles informels et de leur partage au sein d'un
groupe.
.. epigraph::
Un […] dispositifconsiste à tenter de faire bouger les rôles (pré)acquis
ou qui se fixent dans le groupe, les pousser ailleurs que là où ils ont
pris lhabitude de se réfugier suivant leur pente « naturelle ».
Pour ce faire, le groupe prendra du temps pour identifier les types de
positions quadoptent ses protagonistes et les affects qui y sont liés,
imaginer ensuite des questions à résoudre ou des propositions à travailler
qui soient susceptibles denrichir la palette, les couleurs de la fonction
de chacun dans le groupe et les manières qui sont les siennes dintervenir
et de faire évoluer lhistoire.
-- David Vercauteren, `Micropolitiques des groupes
<http://micropolitiques.collectifs.net/Role>`_
Réussir la transformation d'un espace compétitif vers un groupe soudé demande
de réaliser quels sont les points forts de chacun au sein d'un groupe.
Une solution évoquée par `StarHawk <http://www.starhawk.org/about/>`_, reprise
par *David Vercauteren* repose sur l'existence de rôles informels au sein des
groupes et la nécessité de les faire tourner (ainsi que les responsabilités
attachées).
Parmi les rôles principaux, quelques autres citations:
.. note:: l'emphase est de mon fait, et je retravaillé très legèrement certains
passages afin d'avoir une lecture plus fluide. Je vous invite à suivre
les liens pour voir les "questions que chaque rôle fait exister", et
poursuivre la lecture du livre, qui est entièrement disponible en
ligne.
`Les corbeaux <http://micropolitiques.collectifs.net/Role?artpage=2-5#outil_sommaire_0>`_
=========================================================================================
.. epigraph::
Les Corbeaux sont visionnaires […] Ils voient à long terme, et gardent en
ligne de mire les objectifs du groupe. Ils suggèrent de nouvelles directions,
dressent des plans, développent des stratégies et anticipent les problèmes et
les besoins.
Les Corbeaux ont souvent beaucoup dinfluence sur le groupe. Si une ou deux
personnes pensent à des plans au long-terme, les autres acquiesceront,
simplement parce quils nont pas amené dautres propositions. **Le groupe
aurait intérêt à considérer ensemble les questions du Corbeau**
`Les graces <http://micropolitiques.collectifs.net/Role?artpage=2-5#outil_sommaire_1>`_
=======================================================================================
.. epigraph::
Les Grâces sont toujours attentives à lénergie du groupe, prêtes à la
renforcer au moment où elle faiblit, à la diriger et à la canaliser quand
elle est forte.
Elles apportent au groupe […] enthousiasme, énergie, capacité
à sagrandir. **Elles font en sorte que les gens se sentent bien**, génèrent de
lenthousiasme pour le groupe, accueillent les nouveaux venus, amènent de
nouvelles personnes. Elles offrent au groupe linspiration et génèrent de
nouvelles idées.
`Les dragons <http://micropolitiques.collectifs.net/Role?artpage=2-5#outil_sommaire_2>`_
========================================================================================
.. epigraph::
Le dragon permet au groupe de rester connecté à […] laspect pratique et
réaliste des choses. […] Le dragon veille aux ressources du groupe, à ses
frontières et donne voix à ses limites.
Questions que fait exister le dragon:
- Notre manière de travailler est-elle viable ?
- Nos ressources sont-elles renouvelées ?
- Les gens sépuisent-ils ? Pourquoi ?
- Pouvons-nous vraiment nous lancer dans ce projet et le mener à bien
convenablement ?
- De quelles frontières avec lextérieur avons-nous besoin et voulons-nous
?
- Comment établissons-nous ces frontières ? Comment nous protégeons-nous
des intrusions ? Invasions ? Distractions ? De ce qui épuise nos énergies
?
**Les Dragons établissent des frontières qui donnent au groupe un sentiment
de sécurité et des limites qui le rendent viable dans le temps**. Ils peuvent
être perçus comme des rabat-joie, mais ils peuvent gagner lestime de ceux
qui, dans le groupe, se sentent dépassés et ne peuvent partager lénergie
des Corbeaux et des Grâces.
Nourrir les Dragons peut permettre au groupe de se maintenir dans le temps.
Mais une fois encore, si ce rôle ne tourne pas, même les Dragons risquent
de sépuiser.
`Les araignées <http://micropolitiques.collectifs.net/Role?artpage=2-5#outil_sommaire_3>`_
==========================================================================================
.. epigraph::
Le centre dun groupe peut consister en un « cœur spirituel », **un but ou une
vision commune**, ou peut se manifester à travers une personne. Dans les modes
de pensée hiérarchique, le professeur ou le gourou occupe le centre du
réseau. […]
Dans les groupes non-hiérarchiques, certaines personnes peuvent être perçues
comme centrales : en disposant des informations dont les autres ont besoin,
en étant le point de contact pour les autres.
Une Araignée est toutefois plus efficace en ne monopolisant pas la
communication et les informations mais en posant les questions susceptibles
de créer et de renforcer un véritable réseau dinteractions complexes.
`Les serpents <http://micropolitiques.collectifs.net/Role?artpage=2-5#outil_sommaire_4>`_
=========================================================================================
.. epigraph::
Les serpents cultivent une attention particulière à la manière dont les gens
se sentent. […]
Les serpents sont au courant de ce qui se murmure dans les couloirs, des
conflits naissants, et les mettent sur la place publique, là où ils
pourraient aider à une médiation, à une résolution du problème. […]
Les serpents transgressent les lois du Censeur, **parlent des non-dits, mettent
en évidence ce que dautres ne voient pas ou préfèrent garder caché**. […]
Les serpents peuvent diminuer lantipathie dont ils font lobjet sils
prennent la peine de poser des questions au groupe et non dapporter des
analyses.
Ainsi, il est possible de se rendre compte de la complexité et de l'importance
d'une position ou d'une autre, et de les faire évoluer ensemble, en prenant en
compte leur impact positif sur le groupe.
Il est par exemple possible, après avoir expérimenté des rôles, de questionner
leur pertinence et d'établir des pistes d'amélioration en enlevant une part
importante d'affect personnel qui parfois empêche des discussions
constructives.
Je n'ai pour l'instant pas pu expérimenter l'évolution des rôles au sein d'un
groupe donné, mais je peux d'ores et déjà me rendre compte que selon les
groupes et selon les moments je n'ai pas le même rôle (tour à tour dragon,
araignée et grace, parfois corbeau, rarement serpent)
Aussi, il semble que le groupe doive souhaiter l'établissement d'un
environnement *horizontal*, avec une considération partagée de la direction que
le groupe souhaite prendre pour qu'un tel dispositif ait du sens.

View file

@ -1,132 +0,0 @@
Web distribution signing
########################
:category: crypto
:lang: en
:date: 2015-10-12
:headline: Bringing trust back between software authors and user agents.
.. note:: I'm not a crypto expert, nor pretend to be one. These are thoughts
I want to share with the crypto community to actually see if any
solution exists to solve this particular problem.
One `often pointed <http://www.tonyarcieri.com/whats-wrong-with-webcrypto>`_
flaw in web-based cryptographic applications is the fact that there is no way
to trust online software distributions. Put differently, you don't actually
trust the software authors but are rather trusting the software distributors
and certificate authorities (CAs).
I've been talking with a few folks in the past months about that and they
suggested me to publish something to discuss the matter. So here I come!
The problem (Attack vectors)
============================
Let's try to describe a few potential attacks:
*Application Authors* just released a new version of their open source web
crypto messaging application. An *Indie Hoster* installs it on their servers so
a wide audience can actually use it.
Someone alters the files on *Indie Hoster* servers, effectively replacing them with
other *altered files* with less security properties / a backdoor. This someone could either be
an *Evil Attacker* which found its way trough, the *Indie Hoster* or a CDN
which delivers the files,
Trusted *Certificate Authorities* ("governments" or "hacking team") can also
trick the User Agents (i.e. Firefox) into thinking they're talking to *Indie
Hoster* even though they're actually talking to a different server.
**Altered files** are then being served to the User Agents, and *Evil Attacker*
now has a way to actually attack the end users.
Problem Mitigation
==================
Part of the problem is solved by the recently introduced `Sub Resource
Integrity <https://w3c.github.io/webappsec/specs/subresourceintegrity/>`_
(SRI). To quote them: "[it] defines a mechanism by which user agents may verify
that a fetched resource has been delivered without unexpected manipulation.".
SRI is a good start, but isn't enough: it ensures the assets (JavaScript files,
mainly) loaded from a specific HTML page are the ones the author of the HTML
page intends. However, SRI doesn't allow the User Agent to ensure the HTML page
is the one he wants.
In other words, we miss a way to create trust between *Application Authors* and
*User Agents*. The User-Agent currently has to trust the *Certificate
Authorities* and the delivery (*Indie Hoster*).
For desktop software distribution: *Crypto Experts* audit the software, sign it
somehow and then this signature can be checked locally during installation or
runtime. It's not automated, but at least it's possible.
For web applications, we don't have such a mechanism, but it should be
possible. Consider the following:
- *App Authors* publish a new version of their software; They provide a hash of
each of their distributed files (including the HTML files);
- *Crypto Experts* audit these files and sign the hashes somehow;
- *User Agents* can chose to trust some specific *Crypto Experts*;
- When a *User Agent* downloads files, it checks if they're signed by a trusted
party.
Chosing who you trust
=====================
In terms of user experience, handling certificates is hard, and that's where
the community matters. Distributions such as `Tails <https://tails.boom.org>`_
could chose who they trust to verify the files, and issue warnings / refuse to
run the application in case files aren't verified.
But, as highligted earlier, CAs are hard to trust. A new instance of the same
CA system wouldn't make that much differences, expect the fact that
distributions could ship with a set of trusted authorities (for which
revocation would still need to be taken care of).
.. epigraph::
[...] users are vulnerable to MitM attacks by the authority, which can vouch
for, or be coerced to vouch for, false keys. This weakness has been
highlighted by recent CA scandals. Both schemes can also be attacked if the
authority does not verify keys before vouching for them.
-- `SoK : Secure Messaging <http://cacr.uwaterloo.ca/techreports/2015/cacr2015-02.pdf>`_;
It seems that some other systems could allow for something more reliable:
.. epigraph::
Melara et al proposed CONIKS, using a series of chained commitments to Merkle
prefix trees to build a key directory [...] for which individual users can
efficiently verify the consistency of their own entry in the directory
without relying on a third party.
This “self- auditing log” approach makes the system partially have no
auditing required (as general auditing of non-equivocation is still required)
and also enables the system to be privacy preserving as the entries in the
directory need not be made public. This comes at a mild bandwidth cost not
reflected in our table, estimated to be about 10 kilobytes per client per day
for self-auditing.
-- `SoK : Secure Messaging <http://cacr.uwaterloo.ca/techreports/2015/cacr2015-02.pdf>`_;
Now, I honestly have no idea if this thing solves the whole problem, and I'm pretty sure
this design has many security problems attached to it.
However, that's a problem I would really like to see solved one day, so here
the start of the discussion, don't hesitate to `get in touch
</pages/about.html>`_!
Addendum
========
It seems possible to increase the level a user has in a Web Application by
adding indicators in the User-Agent. For instance, when using an application
that's actually signed by someone considered trustful by the User-Agent (or the
distributor of the User-Agent), a little green icon could be presented to the
User, so they know that they can be confident about this.
A bit like User-Agents do for SSL, but for the actual signature of the files
being viewed.

View file

@ -1,147 +0,0 @@
Ateliers d'autodéfense numérique
################################
:category: crypto
:date: 2016-01-14
:headline: J'ai récemment animé des ateliers d'autodéfense numérique. Voici
quelques retours et pistes d'améliorations.
Il y a huit mois, je me rendais compte de l'importance du choix des outils pour
faire face à la surveillance généralisée, et notamment en rapport au
chiffrement des données. Une de mes envies de l'époque était l'animation
d'ateliers.
.. epigraph::
Je compte donc:
- Organiser des ateliers de sensibilisation aux outils de communication,
envers mes proches;
- Utiliser la communication chiffrée le plus souvent possible, au moins
pour rendre le déchiffrement des messages plus longue, "noyer le
poisson".
-- `Chiffrement <http://blog.notmyidea.org/chiffrement.html>`_
J'ai mis un peu de temps à mettre le pied à l'étrier, mais je ressors
finalement du premier atelier que j'ai co-animé avec geb, auprès d'un public de
journalistes.
Pour cette première édition l'idée était à la fois d'aller à la rencontre d'un
public que je connais mal, de leur donner des outils pour solutionner les
problèmes auxquels ils font parfois face, et de me faire une idée de ce que
pouvait être un atelier sur l'autodéfense numérique.
L'objectif pour ce premier atelier était de:
1. Échanger autour des besoins et **faire ressortir des histoires** ou le manque
d'outillage / connaissances à posé problème, dans des situations concrètes;
2. Se rendre compte des "conduites à risque", **faire peur** aux personnes formées
pour qu'elles se rendent compte de l'état actuel des choses;
3. **Proposer des solutions concrètes** aux problèmes soulevés, ainsi que le
minimum de connaissance théorique pour les appréhender.
1. Faire ressortir les problèmes
================================
Afin de faire ressortir les problèmes, nous avons choisi de constituer des
petits groupes de discussion, afin de faire des "Groupes d'Interview Mutuels",
ou "GIM":
.. epigraph::
lanimateur invite les participants à se regrouper par trois, avec des
personnes quon connaît moins puis invite chacun à livrer une expérience vécue
en lien avec le thème de la réunion et les deux autres à poser des questions
leur permettant de bien saisir ce qui a été vécu.
-- «`Pour s'écouter <http://www.scoplepave.org/pour-s-ecouter>`_», SCOP Le Pavé.
De ces *GIMs* nous avons pu ressortir quelques histoires, gravitant autour de:
- **La protection des sources (d'information)**: Comment faire pour aider
quelqu'un à faire "fuiter" des données depuis l'intérieur d'une entreprise ?
- **Le chiffrement de ses données**: Comment éviter de faire "fuiter" des données
importantes lors d'une perquisition de matériel ?
2. Faire peur
=============
Un des premiers objectifs est de faire peur, afin que tout le monde se rende
compte à quel point il est facile d'accéder à certaines données. `Grégoire
<http://blog.barbayellow.com/>`_ m'avait conseillé quelques petites accroches
qui ont ma foi bien marché:
J'ai demandé aux présent.e.s de:
- donner leur mot de passe à voix haute devant les autres: a priori personne ne
le fera;
- venir se connecter à leur compte email depuis mon ordinateur. J'ai piégé une
personne, qui est venu pour taper son mot de passe.
Cela à été un bon moyen de parler de l'importance des traces que l'on peut
laisser sur un ordinateur, et de la confiance qu'il faut avoir dans le matériel
que l'on utilise, à fortiori si ce ne sont pas les vôtres.
Pour continuer à leur faire peur, après une brève explication de ce qu'est SSL
nous avons montré comment il était facile de scruter le réseau à la recherche
de mots de passe en clair.
3. Proposer des solutions concrêtes
===================================
Une fois que tout le monde avait pleinement pris sonscience des problématiques
et n'osait plus utiliser son ordinateur ou son téléphone, on à commencé
à parler de quelques solutions.
Plusieurs approches étaient possibles ici, nous avons choisi de présenter
quelques outils qui nous semblaient répondre aux attentes:
- On a expliqué ce qu'était `Tails <https://tails.boum.org>`_, et comment
l'utiliser et le dupliquer.
- On a pu faire un tour des outils existants sur Tails, notamment autour de
l'*anonymisation* de fichiers et la suppression effective de contenus.
- Certaines personnes ont pu créer une clé tails avec la persistance de
configurée.
- Nous nous sommes connectés au réseau `Tor <https://www.torproject.org>`_ et testé
que nos adresses IP changeaient bien à la demande.
- Nous avons utilisé `CryptoCat <https://crypto.cat>`_ par dessus Tor, afin de
voir comment avoir une conversation confidentielle dans laquelle il est
possible d'échanger des fichiers.
Retours
=======
D'une manière générale, pour une formation de trois heures et demi, je suis
assez content de l'exercice, et de l'ensemble des sujets que nous avons pu
couvrir. Il y a beaucoup de place pour l'amélioration, notamment en amont (j'avais
par exemple oublié d'amener avec moi suffisamment de clés USB pour utiliser
Tails).
La plupart des retours qu'on a pu avoir jusqu'à maintenant sont positifs, et il
y a l'envie d'aller plus loin sur l'ensemble de ces sujets.
La suite
========
Il y a beaucoup de sujets que nous n'avons pas abordés, ou uniquement survolés,
à cause du manque de temps disponible. Idéalement, il faudrait au moins une
journée entière pour couvrir quelques sujets plus en détail (on peut imaginer
avoir une partie théorique le matin et une partie pratique l'après-midi par
exemple).
J'ai choisi volontairement de ne pas aborder le chiffrement des messages via
PGP parce que `je pense que la protection que ce média propose n'est pas
suffisante <{filename}2015.05.pgp-problemes.rst>`_, mais je suis en train de
revenir sur ma décision: il pourrait être utile de présenter l'outil, à minima,
en insistant sur certaines de ses faiblesses.
Un compte twitter à été créé recemment autour des crypto-party à Rennes, si
vous êtes interessés, `allez jeter un coup d'œil <https://twitter.com/CryptoPartyRNS>`_!
Je n'ai pas trouvé de ressources disponibles par rapport à des plans de
formation sur le sujet, j'ai donc décidé de publier les nôtres, afin de
co-construire avec d'autres des plans de formation.
Ils sont pour l'instant disponibles `sur Read The Docs
<http://autodefense-numerique.readthedocs.org/en/latest/>`_. Tous les retours
sont évidemment les bienvenus !

View file

@ -1,130 +0,0 @@
Let's Encrypt + HAProxy
#######################
:category: crypto
:date: 2016-02-11
:headline: Comment j'ai mis en place des certificats SSL avec Let's Encrypt
derrière haproxy.
.. epigraph::
Its time for the Web to take a big step forward in terms of security and
privacy. We want to see HTTPS become the default. Lets Encrypt was built
to enable that by making it as easy as possible to get and manage
certificates.
-- `Let's Encrypt <https://letsencrypt.org/>`_
Depuis début Décembre, la nouvelle *autorité de certification* Let's Encrypt
est passée en version *Beta*. Les certificats SSL sont un moyen de 1. chiffrer la
communication entre votre navigateur et le serveur et 2. un moyen d'être sur
que le site Web auquel vous accédez est celui auquel vous pensez vous connecter
(pour éviter des `attaques de l'homme du milieu
<https://fr.wikipedia.org/wiki/Attaque_de_l'homme_du_milieu>`_).
Jusqu'à maintenant, il était nécessaire de payer une entreprise pour faire en
sorte d'avoir des certificats qui évitent d'avoir ce genre d'erreurs dans vos
navigateurs:
.. image:: {filename}/static/unsecure-connection.png
:alt: Message de firefox lorsque une connexion n'est pas sécurisée.
Maintenant, grâce à Let's Encrypt il est possible d'avoir des certificats SSL
**gratuits**, ce qui représente un grand pas en avant pour la sécurité de nos
communications.
Je viens de mettre en place un procédé (assez simple) qui permet de configurer
votre serveur pour générer des certificats SSL valides avec Let's Encrypt et
le répartiteur de charge `HAProxy <http://www.haproxy.org/>`_.
Je me suis basé pour cet article sur d'`autres
<https://blog.infomee.fr/p/letsencrypt-haproxy>`_ `articles
<http://blog.victor-hery.com/article22/utiliser-let-s-encrypt-avec-haproxy>`_, dont je
vous recommande la lecture pour un complément d'information.
Validation des domaines par Let's Encrypt
=========================================
Je vous passe les détails d'installation du client de Let's Encrypt, qui sont
`très bien expliqués sur leur documentation
<https://github.com/letsencrypt/letsencrypt#installation>`_.
Une fois installé, vous allez taper une commande qui va ressembler à::
letsencrypt-auto certonly --renew-by-default
--webroot -w /home/www/letsencrypt-requests/ \
-d hurl.kinto-storage.org \
-d forums.kinto-storage.org
Le *webroot* est l'endroit ou les preuves de détention du domaine vont être
déposées.
Lorsque les serveurs de Let's Encrypt vont vouloir vérifier que vous êtes bien
à l'origine des demandes de certificats, ils vont envoyer une requête HTTP sur
``http://domaine.org/.well-known/acme-challenge``, ou il voudra trouver des
informations qu'il aura généré via la commande ``letsencrypt-auto``.
J'ai choisi de faire une règle dans haproxy pour diriger toutes les requêtes
avec le chemin ``.well-known/acme-challenge`` vers un *backend* nginx qui sert
des fichiers statiques (ceux contenus dans
``/home/www/letsencrypt-requests/``).
Voici la section de la configuration de HAProxy (et `la configuration
complete
<https://github.com/almet/infra/blob/master/haproxy/haproxy.cfg#L63-L72>`_
si ça peut être utile)::
frontend http
bind 0.0.0.0:80
mode http
default_backend nginx_server
acl letsencrypt_check path_beg /.well-known/acme-challenge
use_backend letsencrypt_backend if letsencrypt_check
redirect scheme https code 301 if !{ ssl_fc } !letsencrypt_check
backend letsencrypt_backend
http-request set-header Host letsencrypt.requests
dispatch 127.0.0.1:8000
Et celle de NGINX::
server {
listen 8000;
server_name letsencrypt.requests;
root /home/www/letsencrypt-requests;
}
Installation des certificats dans HAProxy
=========================================
Vos certificats SSL devraient être générés dans ``/etc/letsencrypt/live``, mais
ils ne sont pas au format attendu par haproxy. Rien de grave, la commande
suivant convertit l'ensemble des certificats en une version compatible avec
HAProxy::
cat /etc/letsencrypt/live/domaine.org/privkey.pem /etc/letsencrypt/live/domaine.org/fullchain.pem > /etc/ssl/letsencrypt/domaine.org.pem
Et ensuite dans la configuration de haproxy, pour le (nouveau) *frontend* https::
bind 0.0.0.0:443 ssl no-sslv3 crt /etc/ssl/letsencrypt
Faites bien attention à avoir un *frontend* `https` pour tous vos sites en HTTPS.
`Pour moi cela ressemble à ça
<https://github.com/almet/infra/blob/master/haproxy/haproxy.cfg#L38-L60>`_.
Une fois tout ceci fait, redémarrez votre service haproxy et zou !
Automatisation
==============
Pour automatiser un peu tout ça, j'ai choisi de faire ça comme suit:
* Un fichier domaine dans ``letsencrypt/domains/domain.org`` qui contient le script ``letsencrypt``.
* Un fichier d'installation de certificats dans
``letsencrypt/install-certs.sh`` qui s'occupe d'installer les certificats
déjà générés.
Et voila ! `Le tout est dans un dépot github
<https://github.com/almet/infra/>`_, si jamais ça peut vous servir, tant mieux !

View file

@ -1,144 +0,0 @@
Title: Retours sur un atelier ZeroNet
Date: 2016-03-17
Headline: Comment contourner la censure grâce à un Web pair-à-pair ?
Category: crypto
Mardi dernier se tenait [une *cryptoparty*](http://biblio.insa-rennes.fr/crypto)
dans les locaux de l'INSA de Rennes.
L'évènement s'étant rempli au delà de toutes les espérances, on m'a proposé de
venir y tenir un atelier, que j'ai proposé sur [ZeroNet](https://zeronet.io), un
petit projet fort sympathique qui pourrait devenir une nouvelle manière de
distribuer le Web, permettant notamment d'éviter la censure.
Avant toute autre chose, merci énormément à l'équipe de la bibliothèque de
l'INSA pour l'organisation de cet évènement qui à une réelle portée politique.
## Un peu d'histoire
Il me semble que Tim Bernes Lee (l'inventeur du Web) avait prévu le Web comme un
protocole décentralisé. Chacun hébergerait ses données et les servirait aux
autres, qui pourraient alors y accéder.
Avec ce fonctionnement, impossible alors d'accéder à des sites si leur auteur
n'est pas en ligne. Qu'à cela ne tienne, on s'est mis à avoir des machines qui
restent connectées au réseau 24 heures par jour. Et puis une machine ne
suffisant plus, on a eu des fermes de machines dans des *data centers* etc afin
de supporter les milliers d'utilisateurs des sites.
## Un Web décentralisé
ZeroNet permet (entre autres) de répondre à ce problème en proposant une manière
alternative de **distribuer le Web**, en pair à pair. Lors d'une visite d'un
site:
1. Vous contactez un *tracker* BitTorrent pour connaitre la liste des autres
visiteurs du site (les *pairs*).
2. Vous demandez aux *pairs* de vous donner les fichiers du site.
3. Vous validez que les fichiers servis sont bien les bons (en vérifiant la
signature attachée).
N'importe quel visiteur devient alors un *pair*, qui sert le site aux autres
visiteurs.
Parmi les nombreux avantages de cette approche, je note particulièrement que:
- Il est très difficile de censurer un site — Il est sur l'ensemble des machines
des visiteurs.
- Les attaques par *fingerprinting* sont impossibles: le navigateur Web se
connecte à un serveur *proxy* local.
- Vous détenez directement vos données et (par design) ne les donnez pas à des
silos (Facebook, Google, etc.)
Si vous êtes interessés par une démonstration rapide, j'ai enregistré une vidéo
de 10 minutes où je parle en anglais avec une voix très grave.
<video controls="" src="http://alexis.notmyidea.org/zeronet.webm" width=800></video>
## Atelier
Pour l'atelier, j'ai choisi de faire une présentation rapide du projet ([j'ai
traduit les slides]({filename}/static/zeronet-presentation-fr.pdf) anglais
pour l'occasion — [accès aux sources](https://docs.google.com/presentation/d/158C_-V1ueNaaKHMBMBgGOVhunb9xrXzB3hC_g1N53c0/edit?usp=sharing))
avant d'installer ZeroNet sur les machines et de l'utiliser pour publier un
site.
### Partager sur le réseau local
Nous avons eu des soucis à cause du réseau (un peu congestionné) sur lequel
les ports utilisés pour la discussion entre *pairs* étaient fermés. Il est bien
sur possible de faire tourner le tout de manière indépendante du reste du réseau,
mais je n'avais pas prévu le coup.
Voici donc comment faire pour contourner le souci:
1. Installer et lancer un *tracker* BitTorrent (De manière surprenante,
[rien n'est packagé pour debian pour l'instant](https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=685575))
J'ai choisi d'installer [OpenTracker](http://erdgeist.org/arts/software/opentracker/#build-instructions)
2. Ensuite lancer ZeroNet avec des options spécifiques.
```bash
$ python zeronet.py --trackers udp://localhost:6969 --ip_external 192.168.43.207
$ python zeronet.py --trackers udp://192.168.43.207:6969 --ip_external 192.168.43.172
```
Il est nécessaire de spécifier l'adresse IP externe que chaque nœud expose pour
éviter qu'elle n'essaye d'aller la trouver par elle même: nous voulons l'adresse
du réseau local, et non pas l'adresse internet.
La prochaine fois je tenterais de venir avec un HotSpot Wifi et un tracker
BitTorrent dans la poche!
## Questions / Réponses
Il y avait quelques questions intéressantes auxquelles je n'ai pas toujours su
répondre sur le moment. Après quelques recherches, je rajoute des détails ici.
### Torrent + Tor = brèche de sécu ?
Il me semblait avoir entendu parler de problèmes de *dé-anonymisation*
[lors de l'utilisation de BitTorrent par dessus Tor](https://hal.inria.fr/file/index/docid/471556/filename/TorBT.pdf).
> Dans certains cas, certains clients torrents (uTorrent, BitSpirit, etc)
> écrivent directement votre adresse IP dans l'information qui est envoyée
> au tracker et/ou aux autres pairs.
> — https://blog.torproject.org/blog/bittorrent-over-tor-isnt-good-idea
[Ce n'est pas le cas de ZeroNet](https://github.com/HelloZeroNet/ZeroNet/issues/274), ce qui évacue le souci.
### ZeroMail, c'est lent non ?
Une des applications de démo, *ZeroMail*, propose un mécanisme qui permet de
s'envoyer des messages chiffrés sur un réseau pair à pair. L'approche choisie
est de chiffrer les messages avec la clé du destinataire et de le mettre dans
un *pot commun*. Tout le monde essaye de déchiffrer tous les messages, mais ne
peut déchiffrer que les siens.
Cela permet de ne **pas** fuiter de méta-données, [à l'inverse de PGP]({filename}../crypto/2015.05.pgp-problemes.rst).
Je n'ai en fait pas de réponse claire à donner à cette question: l'auteur de
ZeroNet me disait que 10MB (la limite de taille d'un site, par défaut)
correspondait à beaucoup de place pour stocker des messages, et qu'il était
possible de supprimer les anciens messages une fois qu'ils sont lus par exemple.
Une autre solution à laquelle je pensait était de créer un *ZeroSite* pour
chaque récipient, mais on connait à ce moment là le nombre de messages qu'un
utilisateur peut recevoir.
Je vois plusieurs problèmes avec le design actuel de ZeroMail (il me semble
assez facile d'y faire un déni de service par exemple). A creuser.
### Comment héberger des très gros sites ?
Par exemple, comment faire pour héberger Wikipedia ?
Il semble que la meilleure manière de faire serait de séparer Wikipedia en
un tas de petites ressources (par catégorie par ex.). Les gros médias pourraient
être considérés optionnels (et donc téléchargés uniquement à la demande)
### Est-ce qu'on à vraiment besoin d'un tracker ?
Le support d'une DHT [est souhaité](https://github.com/HelloZeroNet/ZeroNet/issues/57),
mais pour l'instant pas encore implémenté. L'utilisation de la DHT BitTorrent
n'est pas une option puisque [Tor ne supporte pas UDP](https://github.com/HelloZeroNet/ZeroNet/issues/57).

View file

@ -1,60 +0,0 @@
Focusing on what matters
########################
:headline: How to avoid the information overload?
:date: 2016-03-17
:tags: focus, time-management
:category: thoughts
:image: images/focus.jpg
:image_link: https://www.flickr.com/photos/hansel5569/9397600663/in/photolist-fjragD-9EXcd5-oe2p14-23iTigF-7KBLmy-asVELm-V2rrkG-nDksc7-egrsJP-kbjM1t-iukTkY-dGKeMh-57E6to-6gH4sT-4ryLBG-78d9ro-7qr1BH-eLPdyP-NPN5q-4MPGmc-2CC4h6-97XaBc-aWRhkz-fmVQnq-bS2XY6-bUvhrL-Veeu3u-6p8SBC-c8Ppwm-57d3ZA-3fK6eh-mLrXp8-frHAzg-e8Tu86-6UH6FK-aUK8Zn-sqN8q-98bEdm-jbdFEj-TLTpDx-4Nxj1-9YfCgz-dhR16n-e2SELM-9JkbuY-WVomjJ-VSuCfC-iiapMh-gAjfm9-QVxcU2
:image_author: 55Laney69
:image_license: CC BY-NC 2.0
I do have a problem with information.
You know. I **have** to check my emails, irc, twitter, my feed reader etc.
I need to.
And this thing makes me feel uncomfortable at the end of the day, because I
feel that I missed something. That I missed some good time, away from news and
agitation.
Working remotely is sometimes hard. Hard because you need to at the same time
be in the discussions channels and work on the interesting projects. A real
myth.
In practice, I'm really bad at multi-tasking. I tried a few times the *Pomodoro*
technique, which forces me to focus on a task for 25mn, but this split of my day
into slices of 25mn breaks my natural flow.
So, what do I need? I tried to change my tools, it helped a bit. Still, I'm not
focused like I would like to be.
Maybe that's just me who needs some more persuasion over myself, but the best
way I found to work is to unplug the cable. Literally. At work, at some point I
was using a RJ45 cable to connect to the Internet. When I wanted to work on
something, I could just unplug this cable.
And that's amazing how you find yourself in the process to "check"
something on the web. Mails, irc… well, you got the idea. You're litterally,
without even noticing, switching to your browser an opening a new tab…
Of course, that Web isn't filled only with lolcats and twitter messages
(even if I would **love** to see a pie chart with the repartition of lolcats
VS the rest of the web's content), so sometimes you need some precious bit of
information that's there. Fair enough. plug the cable, do what you **need** to
do, and unplug. Alexis, unplug!
It also helps to have some fair bit of documentation available directly on my
machine (I used to have the python docs, I should get it back!)
I'm feeling adventurous, so I'll try something new starting tomorrow, and I'll
report back in here my findings. Here's the challenge:
* **Check emails only once a day**. Do **not** do it in the morning, before
working, to keep my mind clear. I would say at 2pm (after lunch).
(This doesn't mean I will not send mails tho)
* Stay away from the Internet during the morning. I'll not connect if I don't
need to.
Let's see how it goes :)

View file

@ -1,60 +0,0 @@
L'horizon
#########
:date: 2016-03-02
:headline: Temps de changer d'horizon. Mon départ de Mozilla et le début d'une
nouvelle histoire.
:category: thoughts
:image: images/horizon.jpg
.. epigraph::
L'Utopie, c'est l'horizon. C'est ce qui permet d'avoir une direction, de
mettre un pied devant l'autre, de savoir vers où marcher.
Il y a presque 4 ans et demi, je commençais à travailler, en décembre, pour
Mozilla. Je me rappelle bien de ces premiers instants un peu magiques, qui ont
eu lieu juste avant une descente de cave en Bourgogne avec Tarek pour
y déguster quelques saveurs de vins différentes.
Quatre ans plus tard, je me retrouve à coder sur Daybed, mon petit projet
perso, devenu `Kinto <http://kinto.readthedocs.org/>`_ avec une équipe de
personnes plus talentueuses et sympathiques les unes que les autres (Niko,
Rémy, Mat, si vous me lisez…).
Mozilla a bien évolué en quelques années: les petits bureaux ou j'avais atterri
se sont transformés en palace où il est possible d'accueillir des membres de la
communauté du logiciel libre de manière quotidienne.
De 14 personnes dans les bureaux Parisiens, nous sommes passés à une 40aine (et
de ~500 salariés à 1100 dans le monde).
Grandir autant en si peu de temps est un challenge difficile à tenir, qui
nécessite des réorganisations et bien souvent dans une structure de cette
taille, de la hiérarchisation. En 4 ans j'ai eu au moins 5 changements de
supérieurs, pour finalement arriver à une situation plutôt convenable (mais
quand même !)
J'ai choisi de rejoindre Mozilla parce que j'ai besoin de causes à défendre,
qui me saisissent et qui me guident. Aujourd'hui, une des visions qui m'anime,
c'est celle que d'autres ont déjà ouverte: celle de données et de vie privée
qui sont rendues à leurs utilisateurs.
Et je veux faire en sorte de réaliser ces «rêves d'un monde meilleur», ce qui
veut dire pour moi qu'il est temps de partir vers des horizons plus propices
à cette vision.
Lesquels ? Cela reste à construire (mais je vous le dis, y'a du Kinto dedans !)
La suite ?
==========
Sans m'étaler, je veux prendre du temps pour quelques projets autour du
stockage de données (via Kinto), de l'auto défense numérique (via des
formations) et de la fabrication de bière artisanale (parce que bon, on se
refait pas !)
Évidemment, plein d'envies diverses et variées, envie de me balader un peu et
d'expérimenter des choses collectivement...
On se recroisera surement :)

View file

@ -1,210 +0,0 @@
Title: Avez vous confiance en SSL?
Headline: Tour d'horizon du fonctionnement de SSL et des solutions pour le sécuriser.
Date: 2016-03-25
Category: crypto
Image: images/illusion.jpg
Image_link: https://www.flickr.com/photos/tinou/133982614/in/photolist-cQGn5-9AtoAP-dpiR2X-baBc4e-5ZvGJj-8KrKoG-gg2XM4-9KgHee-6iB7C-4zUNee-9hj2zF-43REk-aoanQb-947pCM-aj1P6z-9tE3g-pq8kRk-qp6hK1-hp13Uh-7ywK7o-4F41Pw-72piQE-22a8kTc-ECJ2r6-6ufU4Y-7WLPTu-5bLdgB-ha8ByJ-jqvD3-LktPD-izBtN4-aa7ABY-pz4aLg-49jEZi-YGoRJ-aCuCH2-4muqSR-7ey33A-6nUDPT-ajeJbN-a89tyX-s3pjm1-9imyxV-WswqNm-aDHw9-cN7MWS-abdTEE-a89tAT-aeVpTf-oAuYHd
Image_author: Tinou Bao
Image_license: CC BY 2.0
Dans le cadre [des ateliers d'autodéfense numérique](http://autodefense-numerique.readthedocs.org/en/latest/),
j'ai passé un peu de temps à creuser sur l'utilisation de SSL puisque
contrairement à ce que la plupart des personnes ont encore tendance à croire,
le petit cadenas (qui prouve qu'une connexion SSL est en cours) n'est
**absolument** pas suffisant.
Allez hop, c'est parti pour:
- un tour d'horizon du fonctionnement de SSl
- quelques moyens contourner cette "protection" en faisant une attaque en pratique
- un tour des solutions existantes actuellement et de pourquoi je ne les trouve
pas vraiment satisfaisantes.
## Comment fonctionne SSL?
Pour expliquer les problèmes de SSL, j'ai d'abord besoin d'expliquer comment
tout ça fonctionne.
SSL repose sur l'utilisation de certificats, qui sont générés par des autorités
de certification (*Certificate Authority* que je nomme *CA* dans la suite de
l'article).
Les certificats SSL permettent deux choses:
- De garantir que les communications entre les navigateurs (vous) et les sites
Web ne sont connues que du détenteur du certificat du site et de vous même.
- De garantir que le site sur lequel vous vous connectez est bien celui que
vous imaginez.
Le navigateur, lors d'une visite d'un site, va télécharger le certificat
associé puis vérifier que le certificat en question a bien été généré par un
des *CA* en qui il a confiance.
Imaginons maintenant qu'une des *CA* essaye de savoir ce qui s'échange entre
mon navigateur et le site de ma banque (protégé par SSL). Comment cela se
passerait il ?
N'importe quel *CA* peut donc générer des certificats pour n'importe quel site,
et le navigateur vérifierait, lui, que le certificat a bien été généré par une
*CA*.
Tout cela ne poserait pas de soucis si les *CA* étaient gérés de manière fiable,
mais il s'agit d'un travail compliqué, et certains *CA* ont par le passé montré
des faiblesses.
Par exemple, [DigiNotar](https://en.wikipedia.org/wiki/DigiNotar) (un *CA* des Pays-Bas)
a été compromise et les attaquant.e.s ont pu générer des certificats SSL
frauduleux, ce qui leur a permis d'attaquer des sites tels que Facebook ou GMail.
Vous pouvez retrouver une liste des risques et menaces autour des *CA* [sur le
wiki de CACert](http://wiki.cacert.org/Risk/History).
## Attaque de l'homme du milieu avec SSL
A force de dire que c'était très facile à faire, j'ai eu envie d'essayer
d'espionner des connections protégées par SSL, et effectivement c'est
carrément flippant tellement c'est simple.
En l'espace de quelques minutes, il est possible de faire une *attaque de
l'homme du milieu* en utilisant par exemple un outil nommé [mitm-proxy](http://docs.mitmproxy.org/en/stable).
Pour déchiffrer l'ensemble du trafic SSL, j'ai simplement eu à lancer quelques
commandes et avoir un *CA* dans lequel le navigateur de la victime a confiance.
Je l'ai ajouté dans le navigateur cible pour simuler que je l'avais déjà
(c'est le cas si un des 1200 CA se fait pirater, ce qui me semble une surface
d'attaque assez large).
Je les colle ici si ça vous intéresse:
```bash
$ sudo aptitude install mitmproxy
$ mitm-proxy -T --host
```
Il faut faire croire à votre victime que vous êtes la passerelle vers
l'extérieur et à la passerelle que vous êtes la victime:
```bash
arpspoof -i wlan0 -t victime gateway
arpspoof -i wlan0 -t gateway victime
```
Puis dire à notre fausse passerelle de rediriger le trafic des ports 80 et 443
vers notre proxy:
```bash
sudo sysctl -w net.ipv4.ip_forward=1
sudo iptables -t nat -A PREROUTING -i wlan0 -p tcp --dport 443 -j REDIRECT --to-port 4443
sudo iptables -t nat -A PREROUTING -i wlan0 -p tcp --dport 80 -j REDIRECT --to-port 4443
```
Et paf, **on voit tout ce qui passe entre la machine et le serveur SSL**. On peut
d'ailleurs même imaginer faire tourner ces quelques commandes sur un
raspberry pi, pour aller encore plus vite…
### Key-pinning dans les navigateurs
Actuellement, n'importe quel *CA* peut générer des certificats pour
n'importe quel site, et c'est en grande partie ce qui pose souci. Une des
manières de faire évoluer la situation est d'épingler les certificats de
certains sites directement dans les navigateurs.
Cette approche a le mérite de fonctionner très bien [pour un petit nombre de
sites critiques (Google, Facebook, etc)](https://dxr.mozilla.org/mozilla-central/source/security/manager/ssl/StaticHPKPins.h?from=StaticHPKPins.h).
### HTTP Public Key Pinning (HPKP)
[*HTTP Public Key Pinning*](https://developer.mozilla.org/en/docs/Web/Security/Public_Key_Pinning)
est également une solution de *pinning* qui permet d'établir une confiance lors
de la première connexion avec le site. C'est ce qu'on appelle du *Trust on First
Use* ou *TOFU*.
Le navigateur va alors mettre ces informations dans un cache et vérifiera que
les certificats correspondent bien lors des prochaines visites.
*HPKP* est disponible dans Firefox depuis Janvier 2015 et dans Chrome
depuis Octobre 2015.
### Certificate transparency: des journaux auditables
Une autre approche est celle proposée par *certificate transparency*:
> Certificate Transparency aims to remedy these certificate-based threats by
> making the issuance and existence of SSL certificates open to scrutiny by
> domain owners, CAs, and domain users.
>
> -- [Certificate Transparency](https://www.certificate-transparency.org/what-is-ct)
Autrement dit, avec ce système les *CA* doivent rendre public le fait qu'ils
aient signé de nouveaux certificats intermédiaires. La signature est ajoutée à
un journal sur lequel il n'est possible que d'écrire.
Les navigateurs vont alors vérifier que les certificats utilisés sont bien des
certificats qui ont été ajoutés au journal.
Ici, toute l'intelligence est dans la vérification de ces journaux, qui
permettent donc de valider/invalider des certificats racines ou intermédiaires.
Il me semble donc qu'il serait possible d'ajouter un certificat frauduleux le
temps d'une attaque (et celui ci serait détecté et supprimé ensuite).
*Certificate-Transparency* n'est donc pas une solution contre une écoute
globale mise en place par les gouvernements par exemple.
Si vous lisez bien l'anglais, je vous invite à aller lire
[cette description du problème et de la solution](http://security.stackexchange.com/a/52838)
que je trouve très bien écrite.
### DANE + DNSSEC
> The DANE working group has developed a framework for securely
retrieving keying information from the DNS [RFC6698]. This
framework allows secure storing and looking up server public key
information in the DNS. This provides a binding between a domain
name providing a particular service and the key that can be used
to establish encrypted connection to that service.
>
> -- [Dane WG](https://datatracker.ietf.org/wg/dane/charter/)
Une autre solution est appelée "DANE" et repose par dessus le protocole
*DNSSEC*.
Je connais assez mal *DNSSEC* donc j'ai passé un peu de temps à lire des
documents. L'impression finale que ça me laisse est que le problème est
exactement le même que pour SSL: un certain nombre de personnes détiennent les
clés et toute la sécurité repose sur cette confiance. Or il est possible que
ces clés soient détenues par des personnes non dignes de confiance.
> Secure DNS (DNSSEC) uses cryptographic digital signatures signed with a
> trusted public key certificate to determine the authenticity of data.
> -- https://en.wikipedia.org/wiki/DNS_spoofing
Et aussi:
> It is widely believed[1] that securing the DNS is critically important for
securing the Internet as a whole, but deployment of DNSSEC specifically has
been hampered (As of 22 January 2010) by several difficulties:
>
> - The need to design a backward-compatible standard that can scale to the
> size of the Internet
> - Prevention of "zone enumeration" (see below) where desired
> - Deployment of DNSSEC implementations across a wide variety of DNS servers
> and resolvers (clients)
> - Disagreement among implementers over who should own the top-level domain
> root keys Overcoming the perceived complexity of DNSSEC and DNSSEC
> deployment
## Solutions basées sur la blockchain
Une dernière piste semble être l'utilisation de la *blockchain* pour distribuer
des clés par site.
La solution *DNSChain* me paraissait tout d'abord un bon point de départ mais
la lecture de [quelques critiques](https://www.indolering.com/okturtles-dnschain-unblock-us)
et interventions du développeur du projet m'ont fait changer d'avis.
Reste encore la piste de *Namecoin Control* que je n'ai pas encore creusée.
Peut-être pour un prochain billet. Toute piste de réflexion est bien sur la
bienvenue sur ces sujets!

View file

@ -1,44 +0,0 @@
Title: Cloisonnement des activités ?
Headline: En revenant de SudWeb
Date: 2016-05-29
Category: thoughts
Je vous écris depuis un train, en rentrant de Bordeaux où j'ai passé quelques
jours à l'occasion de [SudWeb](http://sudweb.fr/). Si vous ne connaissez pas
cette conférence, il s'agit d'un moment avec des gens chouettes qui se posent
des questions sur leur metier, comment le vivre et comment continuer à en faire
un plaisir. Oh, et des fois on parle un peu de technique aussi.
# Alors, brasserie ou code ?
Ces quelques jours ont été fort inspirants. Alors que je suis en train de
changer de métier (vers celui de brasseur) c'était un moyen de me rendre compte
que bien que je ne souhaite plus faire du Web mon métier *la, tout de suite,
maintenant*, je reste un passionné par la chose.
En partant de Rennes, je ne savais pas trop quoi penser de cette situation.
Prendre un week-end pour échanger avec les gens sur quelque chose dont je
m'éloigne ? C'est pas une perte de temps ?
Si je passe du temps à écrire des bouts de code, des logiciels, à reflechir
à comment solutionner certains problemes, ce n'est pas parce que je suis payé
pour le faire, mais bel et bien parce que je me sens bien lorsque je le fais,
parce que j'y trouve un équilibre et une utilité.
Alors que je ne trouvais plus cet équilibre dans mon travail, j'ai choisi d'en
changer, mais il n'empèche que je continue à avoir des rèves d'un
monde meilleur, dans lequel l'informatique a sa place. Juste à voir les
discussions (ux, sécurité informatique, décentralisation, architecture
logicielle) que j'ai pu avoir ce weekend, il n'y a pas l'ombre d'un doute !
Jusqu'ici je me suis dit que je devais choisir. J'ai pensé naivement
que je ne pouvais pas être *et* un brasseur *et* un developpeur, mais la
réalité c'est que c'est exactement ce que je suis: les deux.
Je ne suis pas pour autant dupe sur le temps necessaire à lancer une activité
brassicole, il va falloir fournir de l'énergie et avancer sur le projet, mais
il n'empèche que même si je décide de faire de la bière mon metier, mes
passions pour le reste sont bien vivantes.
Bref, merci sudweb pour m'avoir accompagné dans ces reflexions, à l'année
prochaine, je ramène des futs ?

View file

@ -1,44 +0,0 @@
Title: Brasserie du Vieux Singe — Installation en cours.
Headline: Retours sur ces quelques mois consacrés à la création de la brasserie du Vieux Singe.
Date: 2017-06-26
Category: thoughts
Image: images/vieuxsinge.jpg
Ça fait maintenant quelques mois que j'ai décidé de [changer de métier](https://www.vieuxsinge.com). Choix à la fois difficile et excitant. Une rupture qui laisse place à quelques étoiles dans les yeux. Enfin, je retrouve l'envie de créer, et je renoue avec mes rêves, ceux-la mêmes que je croyaient trop fous pour être à portée de main.
La chose la plus frappante, c'est la vitesse à laquelle passent les journées: j'ai *vraiment* l'impression d'avoir quitté Mozilla hier. Si les collègues me
manquent, je ne ferais machine arrière pour rien au monde: je trouve finalement ce sens qui me manquait cruellement.
Après quelques hésitations au départ, j'ai décidé de mettre de côté mes activités liées à l'informatique: difficile à assumer quand on croise les copin.e.s avec qui on avait l'habitude de discuter énormement de ces sujets, mais ça permet de laisser plus de place pour l'humain. Plus de place pour les «Au fait, comment ça va toi ?» quand j'ai l'occasion de les recroiser, ce qui n'est pas plus désagréable :)
Les journées sont donc organisées autour de la brasserie: beaucoup plus de planification que ce que j'imaginais au départ. Peut-être que c'est aussi du au fait que nous soyons tous les deux des ex-informaticiens un peu perfectionnistes sur les bords. On se voit très souvent pour avancer sur des sujets de fond tout comme sur du pratico-pratique. Pour vous donner un ordre d'idée des questionnements: Quelle taille d'entreprise ? Quelles valeurs communes ? Quelles bières ? Quelle image donner ? Quelle place donner au confort ? Comment éviter la compétitivité ? Comment réussir à impacter les producteurs (houblon / malt) de manière positive ? Quels salaires se donner ?
Un peu de production quand même (pour les amis) mais on se garde la grosse partie pour le lancement.
## Apprentissage
Je profite de ces quelques mois pour apprendre: autour de la fabrication et de la dégustation de bière bien sûr (encore un milieu en constante évolution !), mais pas que. J'ai maintenant quelques bases de gestion d'entreprise, en comptabilité, en biologie et en chimie. J'ai bien dit quelques *bases*, mais qu'est-ce que c'est agréable !
C'est assez agréable de se remettre dans une posture d'apprenant, et d'avoir le temps pour cet apprentissage.
## Questionner la posture de «Chef d'entreprise» et son rapport au temps
Décider de créer sa boîte, c'est aussi se poser la question de comment organiser son temps: combien de temps travailler ? Quel temps donner aux loisirs ?
Je trouve rassurant de voir ces interrogations abordées avant-même le démarrage de l'entreprise. La plupart des personnes qui nous suivent et nous guident partent du postulat qu'il faudra bosser énormement, là ou nous essayons de trouver un modèle qui soit viable dans le temps, notre souhait est de bosser à 80% (4 jours par semaine).
Certes, il faut travailler pour que ça tourne, mais il faut aussi s'accorder des temps de respiration pour être d'autant plus efficace quand on bosse. C'est d'autant plus intéressant de prévoir ces aspects lors de la phase de *design* de l'activité: on organise le temps autrement ! Ceux qui me lisent de temps à autre savent que c'est une constante de mes réflexions, on verra si ça fonctionne dans les faits.
## Les projets collectifs
Un autre point important est la place que le *collectif* prends dans cette nouvelle expérience. Au départ, quand j'imaginais le projet sur le court-terme, je mettais la composante collective au second plan dans l'immédiat (au delà des intéractions avec Fred, mon associé). L'occasion de travailler à la construction d'un espace collectif s'est présentée, et on y travaille actuellement.
C'est à la fois riche (en partage de points de vue, en entre-aide) et à la fois difficile (beaucoup d'heures de réunions, il faut apprendre à communiquer de manière efficace, il faut parfois faire face à des conflits). Dans l'ensemble, je ne regrette pas ce choix même si il est important de ne pas perdre de vue les objectifs de la brasserie dans l'histoire.
Et puis la collaboration ne s'arrête pas qu'au collectif d'activité: le milieu brassicole est en mutation, et les valeurs de partage font bel et bien partie du lot de changements. Les rencontre avec les brasseurs du coin de Rennes le montrent bien: l'esprit est plus à l'entraide qu'à la concurrence, au vu de la demande qui est toujours croissante. Tant mieux, on a autre chose à faire qu'à se tirer dans les pâtes ;)
## Besoin de concret
Après cette phase assez énorme de réfléxion, de questionnement, de tricotage, de détricotage, de retricotage, j'ai bien envie de passer à l'action; et ça tombe bien, c'est ce qui est à l'horizon. L'idée est d'ouvrir la brasserie à la fin de cette année pour commencer la commercialisation en Janvier 2018. Ça fait un peu peur de voir l'échéance arriver, mais c'est aussi excitant que vertigineux…
Faire ensemble. Imaginer les choses en petit un peu partout. Collaborer plutôt que se tirer dans les pattes. Renverser la vapeur. Trouver des alliés. Faire levier. Inscrire ses projets dans le temps. C'est peut-être un peu ça, grandir ?

View file

@ -1,75 +0,0 @@
Title: L'arrivée du trouble (ou comment faire des NEIPA ?)
Headline: Traduction d'un article sur les New England IPA du magazine Américan « Brew Your Own »
Date: 2017-10-17
Category: biere
Image: images/haze.jpg
**Ceci est une traduction d'un article paru dans le magazine « Brew Your Own » en Octobre 2016, écrit par Dave Green**
C'est la saison des élections aux états unis et la bataille entre les partis politiques semble être plus controversée que d'habitude. Coincidemment, les buveurs de bières « Craft» US semblent avoir leur propre bataille qui divise au moins autant: une IPA peut elle être aussi trouble qu'une hefeweizen ? En provenance du coin Nord Est des  États-Unis, l'IPA trouble est en passe de devenir culte depuis quelques années. Mais la mode ne vient pas sans contrecoup. En fait, tout le monde y va de son opinion chez les brasseurs artisanaux. Pour ceux qui apprécient ce type d'IPA, l'apparence trouble signifie que les gorgées qui suivent seront extrèmenent riches en huiles de houblons; pour les autres, l'apparence est un affront à des principes ancestraux. Que vous les appeliez des rince-bouches, des soupes boueuses, brillantes ou horribles, ne vous faites pas de fausse idée: ces ales troubles sont là pour rester.
Pour commencer cette histoire, revenons un peu au début des années 1990. La scène brassicole artisanale était en train de vivre son premier boom et les nouvelles brasseries faisaient leur apparition dans tous les coins des États-Unis. Menée par Sierra Nevada Brewing Company, les American Pale Ale et les American IPA étaient en train démerger en tant que styles populaires parmi les amateurs de bière, pour leurs caractéristiques riches en houblon.
Le niveau d'amertume était un trait notoire, et avoir la bonne morsure d'amertume était essentiel pour une IPA. L'innovation a ensuite commencée à arriver sur la cote Ouest des États Unis à la fin des années 1990, et au début des années 2000, quand quelques doubles ou impériales IPA telles que Pliny the Elder de Russian River et Ruination IPA de Stone Brewing ont commencées à sortir des fermenteurs. Alors que celles ci contenaient énormement de « morsure du houblon», ce qui séparaient ces bières de beaucoup d'autres versions du style était le fait que le nez et la saveur du houblon semblaient éclater de la bière.
Du point de vue du brasseur, les huiles essentielles de ces houblons étaient bien plus présents que les acides alpha. En utilisant un profil de malt neutre et une souche de levure neutre, ces bières laissaient la part belle aux houblons. Ces brasseurs utilisaient aussi des houblons souvent critiqués, forts en acides alpha, tels que Columbus, Centennial, Simcoe et Chinook à la fin de l'ébullition ou en houblonnage à cru... et en grosses quantitées. Cela peut sembler comme une pratique courante pour une IPA actuellement, mais il y a à peine 15 ans, la plupart de la littérature évitaient d'utiliser ces variétés de houblon pour une utilisation autre que de l'amérisant. Lévolution d'une nouvelle American IPA était en train de prendre forme, sur la cote Ouest des étants unis, un style que les buveurs de bière ont nommé la « West Coast IPA».
# La phase de démarrage
De retour sur la cote Est des États-Unis, dans un petit brewpub de Burlington à Vermont, deux brasseurs commencent innocemment à développer un type d'American IPA avec des objectifs similaires que les brasseurs de la côte Ouest, mais en utilisant une stratégie différente. Crée en 1988 par Greg Noonan et Steve Polewacyk, le « Vermont Pub & Brewery » deviendra le berceau d'une nouvelle révolution autour des IPA.
Souvent citée comme étant les premiers brasseurs des Black IPA modernes ainsi que des New England IPA, offrant une variété de bières qui était extrèmement rare à cette époque, le « Vermont Pub & Brewery » a des racines provenant de la connaissance du brassage et de la chimie de Greg Noonan, ainsi que son flair pour la créativité.
Se reposant sur la révolution de la bière mondiale (menée par Michael Jackson), Greg Noonan à exploré des styles de bières qui étaient en dehors des sentiers battus, même pour les brasseurs qui étaient déjà en avance sur leur temps.
Arrive John Kimmich, qui, en 1994 à déménagé dans le Vermont avec l'objectif de brasser sous la tutelle de Greg Noonan. John à travaillé un temps à Pittsburg (en Pennsylvanie) dans un *home brewshop* nommé Country Wines. Il a travaillé avec Alexis Hartung et sa grande bibliothèque sur le brassage maison et a eu son premier éclair de génie brassicole en lisant le livre de Greg Noonan « New Brewing Lager Beer ». Un an plus tard, il commence à travailler au « Vermont Pub & Brewery ». En quelques mois, Greg commence à avoir confiance dans les capacités de son nouveau protégé. Avec chaque bière que John travaillait, le mentor était impressionné. Après douze mois, Greg donne la liberté à John dexpérimenter seul sur les recettes.
En 1997, John part du « Vermont Pub & Brewery » et cofonde avec sa femme Jen un brewpub en 2003, le « Alchemist Pub & Brewery », situé 30mn à l'est de Burlington à Waterbury dans le Vermont. A cette époque, Waterbury était un petit village dormant du New England, n'attirant pas grand monde autre que quelques touristes. Il était par contre assez bien situé, à un croisement des chemins, juste à la sortie d'une autoroute majeure, Waterbury est facilement accessible par à la fois les voyageurs en route pour les endroits touristiques et pour les locaux en allant / revenant du travail ou pour leurs excursions shopping. Grâce à ces quelques éléments, Waterbury s'est donc révélé êre un excellent spot pour Jen et John.
Une caractéristique unique des bières houblonnées de Kimmich était que lorsque servies fraîches et non filtrées, elles étaient souvent assez troubles. Il trouvait que filtrer ses bières pouvait introduire de l'oxygène non souhaité, enlevant de la bière beaucoup d'aspects intéressants. Il utilisait une souche nommée Conan (VPB1188), une levure que son mentor a développé et que maintenant beaucoup connaissent. Avec les dérivés Anglais, la souche de levure Conan, les bonnes connaissances en brassage de John, ainsi que son habitude à expérimenter avec les houblons, on se retrouve avec une combinaison gagnante pour une révolution du brassage sur la côte est.
# La phase de croissance
En 2007, alors que j'allais au festival des brasseurs du Vermont, la queue pour accéder au stand de The Alchemist était d'au moins 20 minutes pour un verre. Certaines personnes remplissaient leurs verres et retournaient faire la queue pour avoir la chance de goûter une autre de ces bières tant acclamées, en particulier pour Heady Topper. Pour la première fois brassée en 2003, Heady Toper retenait alors l'attention, alors qu'elle n'était réellement qu'une parmi les nombreuses IPA acclamées de chez The Alchemist. Des histoires circulaient comme quoi certaines personnes amenaient leurs pintes aux toilettes pour remplir des bouteilles, les capsuler et les ramener chez eux, puisque le bar ne proposait pas de remplir de Growlers à l'époque, ni ne vendait de bouteilles. Je pensais alors que l'engouement pour ces IPAs avait atteint une sorte de paroxysme. Je n'avais pas encore compris que le feu était seulement en train de se construire.
J'ai récemment demandé à Shaun Hill, de la brasserie « Hill Farmsted » à Greensborrow Bend dans le Vermont, classée « meilleure brasserie du monde » 3 des 4 dernières années sur RateBeer.com, quel était sa relation avec John Kimmich à l'époque. Shaun brassait à l'époque 30mn plus loin, à Stowe, dans un brewpub appelé « The Shed».
« En 2005, je ne tarissais pas d'éolges pour les bières de John me faisait le plaisir de critiquer mes bières » me dit Hill, « Cette relation à évoluée avec le temps, plus specialement lorsque j'ai déménagé au Danemark et que cette conversation est devenue une conversation entre pairs, poussant l'autre dans de nouvelles directions.». Avec le decès de Greg Noonan en 2009, l'ancien protégé est devenu le nouveau mentor. Lors d'un échange avec Joel Mahaffey de Foundation brewing Co, à Portland à propos des IPAs influentes pour cette nouvelle révolution, il dit de The Alchemist « Quiconque réponds à cette question et oublie Heady Topper, ils sont à coté de la plaque. Il s'agit de la première IPA trouble, et à laissée une marque sur la communauté brassicole.»
Ce qui à emergé dans le coin nord-est des états unis est une explosion de nouvelles brasseries produisant des Pale Ale, des IPA et des double IPA basées sur la non filtration, l'explosion de saveurs, et un corps doux, un style que Greg Noonan et John Kimmich ont découvert, et qu'ensuite Shaun Hill à continué à affiner. John et Shaun ont séparemment pointé du doigt le fait qu'ils brassaient juste des bières à leur convenance, et qu'ils appréciaient le produit fini. Le terme « Juicy IPA » s'est retrouvé être un nom pour ces bières, et la texture est souvent aussi importante que le nez et le gout de houblons. Et comme les IPA de la côte Ouest se sont répendues en 2008, les bières troubles, non filtrées, les New England IPA se répendent en 2016.
# C'est parti !
Il est maintenant temps de passer à la brasserie et de regarder comment faire pour brasser une IPA, New England style. Shaun Hill dit « soyez vous mêmeet faites une bière qui goute, sent et ressemble à ce que vous voulez qu'elle soit », JC Tetreault de Trillum à Boston dans le Massachussetts ajoute « la réponse courte… tout est important ! Vous devez vous concentrer sur chaque aspect pour arriver à la bière que vous souhaitez. » L'objectif est d'arriver à une bière douce, un peu ronde, presque tropicale, à la texture ressemblant presque à un jus de fruit, laissant une morsure subtile sur la langue en fin de bouche graçe au houblon.
## Les malts
Tout comme les IPAs de la cote Ouest, les NEIPA sont relativement simples en malts. Le style évite les malts qui ajoutent des saveurs de pain et de crackers. Les malts cristals et autres malts au dessus de 20°L (ndt: 52 EBC) sont d'une manière générale évités. Ces bières peuvent bénéficier de certains ajouts de malts cristal clairs, mais gardez les à lœil. Des flocons d'avoine, d'orge, de blé et autres peuvent être ajoutés pour contribuer au corps, mais ne pensez pas qu'ils soient une necessité. J'ai pu jouer avec des pourcentages de 15% de flocons dans mes recettes, et les résultats étaient presque excessifs. JC Tetreault dit que « à propos des ajouts de céréales non maltés et de flocons… nous ne les utilisons pas dans toutes nos bières basées sur le houblon. En fait, une proportion plutôt petite de nos bières basées sur le houblon en font usage». Les ajouts de sucre tels que les dextrose, saccharose et sucres crus augmentent la densité du moût pour s'assurer de la sécheresse dans les versions plus alcoolisées. Si vous choisissez d'ajouter du sucre cru, encore une fois, faites en sorte que l'ajout soit modeste; j'ai trouvé que certaines saveurs de mélasses avaient tendance à arriver à partir de 10% du total du grain. L'objectif est de garder les houblons comme caractéristique principale de la bière, tout en ayant une base de malt douce mais présente.
## Les levures
Et c'est ici que les NEIPA dérivent des IPA de la cote Ouest. L'ajout des levures ainsi que le traitement à partir de la fermentation semble être la plus grosse différence entre les deux styles. D'abord, regardons comment ces bières sont fermentées. La plupart des NEIPA ne sont pas clarifiées dans le fermenteur avec des agents clarifiant tels que de la gélatine, du Biofine® ou du Polyclar™, et elles ne sont pas filtrées ou centrifugées plus tard pour clarifier la bière. La pensée derrière ce process est qu'enlever les levures de la bière à également pour effet d'enlever les huiles essentielles ainsi que d'autres nuances subtiles qui permettent à la bière d'avoir son caractère propre. Cela permet de garder un niveau d'huiles assez elevé dans le produit fini. Deuxièmement, les brasseurs de New England fermentent en utilisant une souche de levure d'origine anglaise. Ashton Lewis, l'éditeur technique de Brew Your Own précise « D'après des études ADN, la levure California Ale (White Labs WLP001, Wyeast 1056 et les autres souches de Chico) viendraient plutôt de Cologne, en Allemagne ». Ces souches américaines ont été choisies pour leur capacité à produire des bières claires, transparentes et amères sans ajouter de caractère. Les souches de levure utilisées par les brasseurs de New England IPA sont utilisées pour ajouter des esters, qui aident à produire le profil juteux de ces bières. Les IPAs brassées avec ces souches ne semblent pas être aussi transparentes que les souches Americaines lorsqu'elles sont exposées à des niveaux d'huiles elevés. Ceci vient en désaccord avec la plupart de la littérature sur les souches Anglaises. Si vous lisez la description de la plupart des souches de levures utilisées pour produire ces IPA troubles, la plupart sont considéeées « hautement floculantes », alors que la souche Chico, souvent utilisée pour les IPA de la cote Ouest annonce plutôt une floculation moyenne à faible. Pourquoi alors ces bières ne se clarifient pas lorsqu'elles sont sujettes à des hautes doses de houblon en fin d'ébullition ou en houblonnage à cru ? Cela reste encore une zone floue, j'ai donc demandé à quelques personnes dans l'industrie à propos de ce flou. Certains brasseurs pointent du doigt le fait que ces souches de levures floculent trop rapidement. Cela ne laisse pas le temps aux polyphénols de s'attacher aux levures, laissant ces composés ainsi que d'autres composés dérivés du houblon dans la solution plutôt que des les en enlever. Ashton Lewis nous rappelle aussi que le trouble trouvé dans les hefeweizen est principalement causé par les interactions entre les protéines et les polyphénols, et non pas par les levures.
Donc, quelles sont les souches de levure que vous devriez utiliser ? Le choix est en fait assez large, pour ceux qui souhaitent brasser ces types de American IPA, referez vous donc aux suggestions données dans les recettes jointes pour quelques idées.
## L'eau
L'eau joue un rôle prépondérant dans le développement des New England IPA. Concentrez vous sur les niveaux de dureté de votre eau. Si vous avez une eau assez douce, alors vous avez un bon point de départ. Si vous avez une eau plutôt dure, obtenez un relevé d'eau (ndt: allez faire un tour sur le site « Eau du bassin Rennais » !). Si vous n'avez pas ces relevés d'eau, vous pouvez aussi faire analyser votre eau par des laboratoires, ou vous pouvez le faire vous même grâce à des kits de test de l'eau. Peu importe ce que vous choisissez, utiliser de l'eau distillée ou osmosée peut vous fournir une bonne base pour construire le profil d'eau que vous souhaitez obtenir. Essayez de garder votre niveau de bicarbonate en dessous de 50 PPM pour votre eau dempâtage et votre eau de rinçage.
La prochaine chose sur laquelle se concentrer est vos sulfates et vos chlorures. Ceci est parfois controversé, mais encore une fois peut potentiellement être un facteur différenciant entre les IPA de la côte Est et les IPA de la côte Ouest. Quand j'ai commencé à jouer avec la composition de mon eau, j'ai traité l'eau de mes IPA pour atteindre un rapport 2:1 de sulfates / chlorures, ce qui s'est traduit par 100:50 PPM. J'ai produit plusieurs bières qui pouvaient rivaliser (selon moi) avec certaines que mes idoles produisaient. Mais, dans l'esprit du brassage amateur, j'ai continué à expérimenter. J'ai changé l'équilibre de sulfate / chlorures à 200:50PPM sans que je perçoive un changement. J'ai ensuite essayé 100:100 et trouvé que ça me plaisait un peu plus. Mes trouvailles ne sont pas la seule preuve anecdotique que booster le niveau de chlorures peut bénéficier à ce style de bières. Si vous cherchez à ajuster vos sulfates et for chlorures pour votre eau d'empâtage et de rincage, je vous encourage à jeter un oeil à l'article de Scott Janish du 7 Mars 2016 intitulé « Mouthfeel softness ». Scott y parle des effets négatifs d'un taux de sulfates elevé et des aspects positifs d'un niveau de chlorures elevé.
## Les houblons
Généralement, l'amertume des houblons dans ce type d'IPA joue un rôle support, qui vient équilibrer le corps et la douceur des malts. Premièrement, gardez l'ajout de houblons amérisants modéré à faible. Vous pouvez expérimenter avec l'ajout de houblons amérisants mais je n'ai jamais eu l'occasion de trouver qu'une utilisation importante de houblons amérisants menait à une meilleure New-England IPA. Utilisez des houblons hauts en alpha tels que Magnum, Warrior™ ou Bravo si vous choisissez d'utiliser des houblons en cône ou en pellets, et je recommande de garder les ajouts d'amérisants assez faibles. D'habitude, j'essaye houblonner pour un rapport de 1:3 BU:GU (amertume sur densité). Cela signifie que quand je vise une densité cible de 1.066, l'ajout de houblons à 60mn est de 22 IBUs. Cela est fait pour éviter d'ajouter une dureté qui peut provenir d'une ébullition d'une quantité plus elevée de houblons. L'autre option est d'utiliser des extraits de houblon, qui peuvent contribuer les acides alpha nécessaires pour obtenir la bonne amertume, sans ajouter de polyphénols, que certains brasseurs pensent être à l'origine d'une certaine dureté.
Les ajouts de houblons en fin d'ébullition jouent un rôle beaucoup plus important pour la production de New-England IPA. Des apports copieux à la fin de l'ébullition ou au *flame-out* sont utiles pour tout type d'IPA hautement aromatique. Cela ajoutera des IBUs pour compléter votre apport en houblons amérisants et commencera à créer votre profil d'huiles. Je trouve que des variétés plus mordantes / piquantes comme le Simcoe®, Columbus, Chinook et Apollo fonctionnent bien à cette étape. Chaque brasseur semble trouver sa technique ici, qu'il s'agisse de faire plusieurs ajouts à 20mn ou moins puis de baisser à une température précise pour faire un *hop stand*, ou bien de simplement ajouter tous les houblons au *flame-out* et de les laisser durant 20 minutes ou plus. Il ne semble pas qu'il y ait de mauvaise manière de faire, juste plusieurs manières d'extraire les huiles essentielles des houblons à une température pas trop haute.
Le houblonnage à cru est votre prochain objectif. J'aimerais me concentrer sur les techniques plutôt que sur les quantités ou variétés puisque la technique semble être le plus important ici. Ceci dit, une chose est sure, ne soyez pas trop timide avec les ajouts durant le houblonnage à cru. 7.5g/L est certainement un bon point de départ. Vous pouvez ajuster en fonction de vos résultats. Les brasseurs Scott Janish et Michael Tonsmeir ajoutent que mettre ces bières en fûts à quelques avantages. Houblonner dans le fût, purger au CO2 et le fait de ne pas avoir de période prolongée de carbonatation sont déjà deux des avantages des fûts sur les bouteilles.
Alors, quand est le meilleur moment pour faire son houblonnage à cru ? Biern que ce ne soit pas une necessité, le fait de faire son houblonnage à cru en deux fois semble être un bon choix pour ce genre d'IPA. Prenez ce que vous pensiez ajouter lors du houblonnage à cru et séparez le en deux. Le premier ajout se fera durant la phase active de fermentation alors que le second se fera quand la fermentation se sera calmée et que les levures auront flocculées. Le premier ajout peut se faire à différents stades de la fermentation primaire; certains brasseurs les ajoutent au même moment qu'ils ensemencent, certains autres lorsque le krausen est haut, alors que la plupart l'ajoutent vers la fin de la fermentation. Je préfère faire le premier ajout une fois que le krausen est redescendu. Les hétérosides et les bio-transformations sont des éléments importants dans cette discussion à propos de comment la levure intéragit avec les huiles des houblons et les autres dérivés du houblon. Je trouve que les houblons ajoutés à la fin de l'ébullition vont apporter des caractéristiques similaires que les huiles de houblons ajoutés durant le ébut de la fermentation. Pour ce qui est du second ajout, l'objectif est d'attendre que la fermentation se soit calmée. Le timing n'est pas vraiment un facteur important ici, mais l'introduction d'oxygène est un point crutial. Prenez bien soin d'introduire le moins possible d'oxygène dans la bière à ce moment çi.
Dernièrement, quelque chose qui est nouveau pour moi: le houblonnage à cru sous pression. Cela vous demandera de l'équipement supplémentaire, principalement quelque chose apellée une « Spunding Valve». Il s'agit d'une valve qui permet de garder une certaine pression dans le fermenteur. Si la pression dépasse la valeur cible, alors la valve s'ouvre pour faire redescendre le fermenteur à la valeur souhaité. Mais, en quoi cela pourrait-être interéssant pour nous ? Parce que nous cherchons à garder un maximum de houblons aromatiques, en évitant d'en perdre. Les brasseurs amateurs ainsi que les brasseurs pros se sont penchés sur la question des spuinding valve de plus en plus dernièrement pour la fermentation primaire et pour le houblonnage à cru.
La révolution de la côte Est bat son plein et si vous ne pouvez pas venir sur place pour goûter un extrait, vous pouvez maintenant au moins commencer à brasser des bières avec un caractère similaire. Et si vous n'êtes pas un fan de ce type de bière, faites bien attention à laisser ceux qui apprécient déguster en paix.
Remerciements spéciaux à tous les brasseurs qui ont contribué à la production de cet article: John Kimmich de The Alchemist, Shaun Hill de Hill Farmstead, Joel Mahaffrey de Foundation Brewing, Matt Nadeau de Rock Art Brewery et JC Tetrealt de Trillium. Allez leur rendre visite !

View file

@ -1,24 +0,0 @@
Title: Un club des brasseurs amateurs Rennais
Headline: Si vous êtes dans le coin de Rennes et que vous voulez échanger sur la fabrication de bière, ne cherchez plus ;)
Date: 2017-11-06
Category: biere
Image: /images/refroidissement.jpg
En Mars dernier, suite à quelques discussions entre brasseurs amateurs, on à décidé de monter [une liste de diffusion](https://framalistes.org/sympa/subscribe/brassam-rennes) pour faciliter les échanges autour du brassage amateur sur Rennes et ses alentours.
Un peu plus tard, [un groupe Facebook](https://www.facebook.com/groups/899071153568179/) est venu s'ajouter, et c'est vrai qu'on sent une dynamique naissante autour de la brasserie artisanale dans le coin.
En six mois, on est maintenant une grosse trentaine de personnes à être inscrits sur les listes et à se retrouver de temps à autres.
On en profite pour s'échanger des bons plans, déguster nos créations, (essayer de) faire des commandes groupées de malt, et pour se rencontrer pour papoter entre passionnés.
On a pas mal d'idées de trucs sympa a faire, entre autres:
- brasser une fois en gros puis se séparer le batch en plein de petits fermenteurs pour essayer différentes levures, différents houblons en *dry hop*, etc.
- A la dernière rencontre, on s'est mis d'accord sur un style de bière pour se lancer un petit défi: tous brasser [une NEIPA](https://blog.notmyidea.org/larrivee-du-trouble-ou-comment-faire-des-neipa.html) pour ensuite comparer nos résultats.
Bref, c'est plutôt chouette ! Je me suis rendu compte qu'on avait quasiment aucune existence en dehors des réseaux sociaux, alors je me permet de publier ce petit bout d'article avec quelques liens…
Si tu es dans le coin et que tu souhaite nous rencontrer, n'hésite pas à rejoindre [notre groupe de discussion Facebook](https://www.facebook.com/groups/899071153568179/) et notre [liste de diffusion mail](https://framalistes.org/sympa/subscribe/brassam-rennes).
A bientôt ;)

View file

@ -1,16 +0,0 @@
Title: Faire moins
Headline: Et retrouver le contrôle de son engagement.
Date: 2018-02-19
Category: thoughts
Image: images/less-is-more.jpg
Image_link: https://www.flickr.com/photos/volzotan/6244232853/in/photolist-avMjT8-5nF6yH-7U9YpL-bLgZ9B-82GPf7-5BjH6W-97LuaK-213Ewhx-hvYrDK-ePi3kf-HdQSPA-vExEiW-6C7S53-4szc8G-e73NyS-c6qJPy-7yjWwX-dG81oE-Xbq8Es-Esydwr-o15XLU-TX22cF-rskoYz-9SHKXe-9p6Mtq-q6u4ng-ePi1qC-7yR2Yy-5hygTA-7Joz7L-G5vNhE-5i8ZAA-DoGdNN-6uosZk-5i8ZvA-4vnyHE-ePhNoE-5xP7Hs-8x97Ai-ngEMxj-9W9Yzp-cPRGaq-nX3na9-9oxLDK-riVzGs-21sCdsN-9jX3Pw-eP6HXK-YuSUE3-qsPGw1
Image_author: Christopher
Image_license: CC BY NC 2.0
L'an dernier, j'ai décidé de faire moins de choses, ou plus exactement d'arrêter de faire de nouvelles choses. Choix assez difficile: j'aime découvrir de nouvelles pratiques, échanger sur des sujets que je connais pas, et surtout je crois que découvrir de nouvelles pratiques (sans nécessairement creuser un sujet en particulier) est l'occasion de contribuer à éviter notre société d'experts.
Le hic, c'est que trop, c'est trop. J'ai donc décidé d'arrêter, tout simplement, de faire de nouvelles choses, et puis avec le temps j'ai même arreté de faire des choses que j'avais commencé à faire (par exemple de l'escalade), me libérant du temps.
Enfin ! Je retrouve ce précieux temps. Je retrouve ces moments d'ennui. Oui, je comprends bien que ça puisse parraître fou de voir quelqu'un se réjouir de son ennui… Cet ennui me permet de creuser de nouvelles idées, de reprendre ce bouquin qu'on avait laissé tomber sans trop de raison.
Et surtout, c'est se retrouver à contrôler son engagement.

View file

@ -1,24 +0,0 @@
Title: Webnotes
Headline: Un outil pour prendre et partager des notes lors de ma navigation.
Date: 2018-02-25
Category: tech
Image: images/carnet.jpg
Image_link: https://www.flickr.com/photos/kirstypang/6851699738/in/photolist-brsKC7-7LnXvX-e79Bq8-qKS3ej-8Lj7ut-dMuxLS-5aHJVB-GwH5K-7PhhwK-8c9W1-cXfsFL-9GXLpk-4dBhsS-bEFBmP-4JasvT-bBu2Yc-dE44mZ-6D7sS-aqPuKK-5MLrus-9jp2qo-8MrJJQ-6fqY4D-dSfKUy-sdUQ7-D2VEi-92DZwE-RviwMW-cihYoU-ETgzj-bvgV4s-983Dey-3YxcGS-33FTXA-GK7VM-4S9k39-5SnpHX-8aZaYu-kkcpE-5K216U-k4YtK-9qAJtM-7KwiFQ-7NjTZM-bjq9r-4ZNMyF-iqjqU-AUgtv-QPDyb-55NH6w
Image_author: Kirsty Pang
Image_license: CC BY NC ND 2.0
Quand je navigue en ligne, j'aime bien prendre des notes sur ce que je lis. C'est utile pour les retrouver plus tard. Il existe quelques outils pour ce genre de cas, mais j'ai vraiment eu du mal à trouver un outil qui faisais ce que je voulais, de la manière que je voulais, c'est à dire:
- enregistrer une sélection de texte ainsi que son contexte: heure, site web.
- fonctionner sur Firefox;
- stocker mes notes à un endroit que je contrôle (ce sont mes données, après tout !)
- rester en dehors de mon chemin: je suis en train de lire, pas en train d'organiser mes notes.
- automatiquement partager les notes sur une page web.
J'ai donc pris un peu de temps pour fabriquer mon outil de prises de notes, que j'ai baptisé « Webnotes ». C'est [une extension Firefox](https://addons.mozilla.org/en-US/firefox/addon/wwebnotes/), qui se configure assez simplement, et qui stocke les données dans une instance de [Kinto](http://kinto-storage.org/).
<img src="https://github.com/almet/webnotes/blob/master/webnotes.gif?raw=true" />
C'est aussi simple que sélectionner du texte, faire « clic droit » puis « save as webnote », entrer un tag et le tour est joué !
Mes notes sont disponibles [sur notes.notmyidea.org](https://notes.notmyidea.org), et voici [le lien vers les sources](https://github.com/almet/webnotes), si ça vous intéresse de regarder comment ça fonctionne !

View file

@ -1,90 +0,0 @@
Title: Groupement d'achats & partage d'expérience
Headline: Quelques retours sur la création et l'organisation d'un groupement d'achat.
Date: 2018-03-03
Category: life
Image: /images/abeilles.jpg
Image_link: https://www.flickr.com/photos/rudolph-84120/20281784035/in/photolist-gMxaj5-cfMuLh-SZoJFw-d8bb9f-mi22A-q9fpSJ-7zz7Tz-6pKvHi-cfMvdJ-5PWHKL-fi8LS2-9EQR56-d8b37S-9ETPCw-6M8UgQ-FCyyQx-p81gJT-6hPqMv-ei3tHg-9EQXwc-ei9bTS-c79Aku-9ETNG7-9XryY3-TUk3nj-d8b5W7-6pQXZ5-adz3pM-PHqQrG-wgg7UB-7xp16n-9EQSqV-kRqWc7-9EQVjX-fSqpzE-9ETT6d-d8bd5A-4XKtNM-7xsF3y-4YfDL9-9ETRcj-pMqGqC-7xsRy9-8uj9Ui-7PbSBQ-vC3Hta-JGRKVJ-wUerMD-9EQWER-7P1irQ
Image_author: Rudolph Fehr
Image_license: CC BY NC 2.0
Il y a quelques années, on s'est motivé entre copains copines pour créer un groupement d'achat.
L'idée est simple:
- commander en gros, pour faire baisser les prix
- se passer d'intermédiaires et favoriser les circuits courts
- aller à la rencontre des producteurs locaux et échanger
Notre groupement dessert actuellement 18 foyers et une 60aine de personnes.
Au fur et à mesure de la vie du groupement, on a développé quelques outils pour se simplifier la vie. Voici un retour d'expérience et quelques astuces / outils, au cas où l'envie vous prenne à vous aussi :)
# Organisation
On organise environs trois ou quatre distributions par an. Le *modus operandi* est le suivant:
- chaque product·eur·rice à un·e référent·e, qui s'occupe de faire le lien;
- une personne est désignée pour coordonner la distribution;
- 4 semaines avant la distribution, les référent·e·s mettent à jour les prix / produits dans le tableau de commandes;·e·
- 3 semaines avant la distribution, les commandes sont ouvertes;
- 2 semaines avant la distribution, les commandes sont closes;
- Les référent·e·s ont ensuite deux semaines pour récupérer les commandes pour la distribution
# Quels produits ?
On essaye d'avoir uniquement des produits qui se conservent (on a également quelques autres produits plus frais, mais avec d'autres modalités).
Entre autres: bières, légumes secs, conserves, jus, miel, pâtes, semoule, café, vinaigres, pommes de terre, oignons, huiles, farines.
On essaye de faire du local puis du bio au plus proche plutôt que de trouver nécessairement les prix les plus bas. C'est une discussion qui revient assez
souvent, et donc un point à évoquer lors de la création pour avoir une posture
claire sur le sujet (tout le monde n'est pas animé par la même éthique !).
# Paiements
Pour les paiements, on utilise autant que possible des chèques. Chaque référent·e paye la·le product·rice·eur en son nom, et lui demande d'attendre la date de la distribution pour l'encaissement. La plupart des producteurs acceptent d'être payés sous quinzaine.
Le jour de la distribution, tout le monde apporte son chéquier. Nous avons mis
en place une moulinette qui s'occupe de faire la répartition des chèques automatiquement, chaque membre se retrouve à faire en moyenne un ou deux chèques.
Chaque référent·e est ainsi remboursé·e de la somme avancée, et chaque
membre du groupement d'achat paye ce qu'il doit payer. Nous n'avons
volontairement pas de structure juridique et pas de compte en banque. Les
paiements s'effectuent directement entre nous.
# Transports
Chaque référent·e commande les produits, puis ensuite s'occupe de les rapatrier. À Rennes, on a la chance d'avoir pas mal de producteurs aux alentours, donc c'est assez simple.
Le mieux est de ramener les produits juste un peu avant la distribution au lieu de distribution, ça permet d'éviter de les stocker trop longtemps, et d'éviter aux producteurs d'attendre trop longtemps avant d'encaisser les chèques.
Pour les grosses commandes, les voitures se remplissent bien, mais ma petite Clio suffit, que ce soit dit !
# La distribution
Un peu en amont de la distribution, il faut organiser l'espace. Des tas par membre sont constitués pour faciliter les choses le jour de la distribution.
Le jour même, on se retrouve, on charge ses marchandises, on échange quelques chèques et on papote ! On en profite pour:
- discuter de la date de la prochaine distribution;
- trouver une nouvelle personne pour la coordonner;
- discuter de nouveaux produits;
- refaire le monde;
- changer de référents pour les producteurs.
Et c'est reparti pour un tour ;)
# Nos outils
On utilise un tableur en ligne pour partager les prix et prendre les commandes. On a essayé d'utiliser *ethercalc* au début mais ça ne fonctionnait pas pour nous à l'époque (trop de petits bugs). On a donc préféré utiliser Google docs (ouch).
Il est d'ailleurs possible d'y intégrer de nouvelles fonctionnalités assez facilement, du coup Fred et Rémy ont planché sur un moyen d'automatiser la répartition des chèques (qu'on faisait dans un premier temps à la main - assez péniblement).
Le système n'est pas parfait mais fonctionne quand même assez bien !
Quelques ressources, donc:
- [le code pour faire la répartition des chèques](https://gist.github.com/almet/8c77fafc9e487c02ded852ec4a91ae16)
- [une version « à remplir » de notre tableau de commandes](https://docs.google.com/spreadsheets/d/1bnPRSvf2Q2RDxKerWnEqUyJjuCFePnVMq6pWo8LeA_k/edit?usp=sharing) (le mieux est d'en faire une copie !).
Bon groupement d'achat ;)

View file

@ -1,56 +0,0 @@
Title: De Mozilla à la Brasserie du Vieux Singe
Headline: Comment un passionné de Logiciels libres choisit de créer une petite brasserie artisanale.
Date: 2018-05-27
Category: life
Image:
Image_link:
Image_author:
Image_license:
*Ce weekend avait lieu [SudWeb](https://sudweb.fr/2018/) « la conférence Web surtout humaine », ou on m'a proposé de venir parler de ma reconversion professionnelle, ou comment un passionné de Logiciels Libres choisit de créer une petite brasserie artisanale.*
*Certaines parties de ce que je voulais transmettre sont passées à la trappe, alors que d'autres ont pris plus de place que prévu. J'avais donc envie de reprendre mes notes pour les transformer en billet de blog, question d'élaborer sur le sujet.*
---
J'ai toujours été motivé par mes passions. Quand j'ai commencé à travailler professionnellement, je me suis rendu compte que même si je faisais quasiment la même chose qu'auparavant, ça n'avait plus le même goût. J'étais maintenant *obligé* de le faire, et je n'en tirais pas le même plaisir.
Quand j'étais plus jeune au lycée j'écrivais des programmes en *Visual Basic* que je partageais en ligne sur mon site en `.free.fr`. Programmes que probablement personne n'a lu, mais l'intention était bel et bien celle de partager mes créations, et d'échanger à leur propos.
Cette culture du partage — celle du logiciel libre — est celle qui m'anime.
Quelques années plus tard, je découvre le langage de programmation Python, et avec lui toute une communauté, mue par ces mêmes valeurs de partage et d'amélioration de nos pratiques. Puis je rencontre le Logiciel Libre, avec l'écriture d'un programme ([pelican](https://getpelican.com)) qui reste encore largement utilisé aujourd'hui. Autant dire que c'est une bonne claque que de voir des inconnus contribuer à un bout de code qu'eux aussi jugent utile.
À la fin de mes études, alors que je reste passionné par le développement logiciel, je ne veux ni travailler pour l'industrie, ni pour la finance. Je songe même déjà à cette époque à changer de métier (avant même d'avoir commencé !). Coup de bol, une structure qui m'est chère cherche des développeurs Python: Mozilla. Sans trop y croire, je passe une série d'entretiens qui se déroulent bien (!) et je commence quelques mois plus tard à travailler pour cette organisation incroyable, porteuse d'espoir et de toute une symbolique pour moi.
Je bosse sur du Logiciel Libre, en Python, en télétravail parfois, avec une bonne paie, sans parler du côté prestigieux. Grisant.
Mais au fur et à mesure je découvre l'envers du décors: une méritocratie ancrée et assumée, une hiérarchie de plus en plus importante, menant à une lourdeur administrative assez présente. À ajouter à la barrière de la langue, et aux différences culturelles. Finalement tout n'est pas rose ici.
Je décide alors de (je pense) faire un de mes meilleurs choix de vie à ce jour: passer aux 4/5èmes. Je récupère tous mes vendredis. Des weekends de 3 jours, toutes les semaines. Un espace précieux pour me reposer, et pour rêver un peu.
C'est à ce moment que Fred, un ami de longue date, en revenant du Québec (ou les brasseries sont légion), me propose de faire de la bière avec lui. Moi qui ne savais même pas qu'il était *possible* de faire de la bière. On tente donc l'expérience, et nos premières expériences sont des journées bien *funky*, à faire toutes les erreurs possibles.
Peu à peu, on découvre un nouveau monde: celui des brasseurs amateurs. De nouvelles compétences sont nécessaires, de la physique à la biochimie. On se met à rencontrer des professionnels, des passionnés, à échanger sur les forums. On se forme, petit à petit. Tout comme il y a la communauté des gens qui font du Python, il y a la communauté des gens qui font de la bière. Pas encore autant fédérés, ça semble balbutiant alors mais la passion elle est bien présente.
Tout comme le monde du Logiciel Libre est constitué autour d'un ennemi commun (les GAFA), le monde de la bière artisanale à la sien: les brasseries industrielles, qui uniformisent les goûts et les processus.
Je continue en parallèle mon travail chez Mozilla, pendant 4 années. Et puis un jour, une annonce d'arrêt d'un projet sur lequel je travaillais me fait réaliser que cette situation m'épuise. La fameuse goutte de trop.
Je décide alors de partir, de faire une pause, sans trop savoir ce que l'avenir me réserve. Une petite période de blanc de deux mois. Le regard des autres est parfois culpabilisant. Mes parents me demandent si « je ne veux pas attendre encore un peu ». La transition me fait peur, mais je choisis quand même de troquer mon confort matériel pour de la cohérence.
Petit à petit, l'idée de monter ce qui est maintenant devenu [La Brasserie du Vieux Singe](https://www.vieuxsinge.com) se pose en évidence. Mais monter une brasserie ce n'est pas uniquement faire de la bière: c'est se mettre d'accord sur des valeurs, trouver comment les défendre, monter un projet pour, et tenir le cap.
Quelques mois après mon départ, on se retrouve donc à parler de ces valeurs de partage, de documentation, de goût. De gouvernance et de collaboration aussi.
Dans nos pratiques courantes, on décide d'intégrer du temps pour documenter la vie de la brasserie.
À titre d'exemple, nos étiquettes contiennent l'ensemble des ingrédients que l'on utilise de la manière la plus détaillée possible. On travaille aussi sur un projet de laveuse de fûts, qui sera publié sous licence libre, avec l'idée de pouvoir, petit à petit, constituer un ensemble d'outils utiles à tous les brasseurs, et peut être même réussir à favoriser les échanges entre toutes ces personnes.
Nous sommes deux brasseurs, deux chefs d'entreprise, mais aussi deux développeurs. Nos compétences de développeurs nous sont utiles quotidiennement: pour notre laveuse de fûts, pour nos créations de recettes (j'ai découvert la puissance des tableurs !), pour notre site de préventes, notre site Web, nos outils du quotidien. On se rend compte qu'il s'agit de compétences précieuses.
Mais monter une entreprise, c'est aussi assumer une partie administrative. Vous vous rappelez cette histoire de réactions face aux activités subordonnées ? Et bien quand je fais mes déclarations aux douanes, ce n'est pas de gaîté de cœur. Je sais par contre pourquoi je le fais: ce sont les règles du jeu. Des obligations, mais peut-être moins de coercition. J'y trouve plus de sens.
Et, si je n'avais pas réduit mon temps de travail, j'aurais peut-être loupé la découverte de ce nouveau monde, celui qui me passionne aujourd'hui.
Alors je vous invite à vous poser la question — indispensable — de vos valeurs: qu'est-ce que vous souhaitez faire ? Qu'est-ce qui vous anime ? Et peut-être à aménager du temps pour explorer vos envies.

View file

@ -1,58 +0,0 @@
Date: 2019/06/26
Title: Un espace des communs Rennais ?
Headline: Quelques notes prises après une discussion avec d'autres complices du coin
*Ce document se veut surtout être quelques notes, et donc revêt un caractère « fouilli » paaaarfaitement assumé. Dailleurs, ce n'est que ce que j'ai bien voulu retenir. Voilà.*
Je ressors d'une discussion avec quelques complices autour de deux idées :
1. Avoir un espace pour fédérer différentes personnes intéressées par le sujet des *communs*;
2. Monter une structure Rennaise pour proposer de lhébergement de services web.
Élaborons un peu...
## 1. Un espace pour fédérer
L'idée qui à été développée est celle d'avoir un espace (un ou des lieux, à différents moments dans l'année) pour que les rencontres entre les projets *du libre* à Rennes puissent se dérouler. Le constat est qu'il existe différentes structures actuellement en place, mais que a) certaines personnes ne se retrouvent pas dans ces espaces et b) la porosité entre ces différents groupes est assez faible.
Pour l'instant pas d'idée précise de ce qui pourrait être proposé, mais quelques pistes ont été évoquées. l'envie est de faire un document d'intention et de proposer à d'autres de rejoindre le collectif en création.
### Fréquence
Deux pistes ont été évoquées:
- **Faire des rencontres suffisamment espacées les unes des autres**, pour que leur caractère « exceptionnel » soit une force. Si la fréquence des réunions est assez faible, alors l'incitation pour y prendre part est peut-être plus grande ?
- ou au contraire, **avoir des rencontres avec une fréquence assez forte**, pour qu'en cas d'incapacité à participer il n'y ait pas trop longtemps à attendre ?
### Charte éthique
Le fait d'avoir un *code de conduite* pour de tels évènements à été discuté, un des arguments évoqués étant le fait qu'un tel code n'est pas considéré nécessaire par certaines personnes, puisque les règles évoquées tiennent du bon sens.
Il a été précisé que l'établissement de ce type de document a pour objectif de:
- Faire que des minorités et/ou oppressés se sentent protégés et considérés, et donc bienvenues à ce type d'évènements;
- En cas de situations considérées comme problématiques, des personnes référentes soient désignées pour aider à leur résolution
### Gouvernance
Le sujet de la gouvernance à été également abordé : pour avoir de tels rendez-vous, peu importe leur nature, il faut que ceux-cis soient organisés. La possibilité d'avoir des organisat·rices·eurs· tournantes à été proposé.
Pour :
- Cela permet de ne pas reposer uniquement sur quelques personnes;
- Faire des fiches explicatives qui permettent à tou·te·s de s'impliquer
Contre :
- Quand tout le monde est responsable, personne ne l'est.
Peut-être que des solutions intermédiaires sont à trouver, en désignant d'une fois sur l'autre les personnes qui soccupent du prochain rendez-vous, par exemple.
## 2. Hébergement de services Web
On a discuté très rapidement de la possibilité de monter une structure pour faire de lhébergement de services web sur Rennes. Le sujet n'a pas été vraiment développé, mais la question de la relation entre avoir un espace pour fédérer (le 1.) et être un hébergeur de service (le 2.) a été rapidement abordé.
Faut-il avoir une seule et même structure / groupe de personnes pour ces deux projets ? Dans le cas ou l'un s'arrête, entraînerait-il l'autre dans sa « chute » ? Est-il logique de lier les deux ?
## Et donc ?
Et donc c'était bien chouette de prendre un peu le temps de remettre le nez dans la vie libriste Rennaise ! Ravi de voir une dynamique prendre forme, on verra bien ou ça mène :-)

View file

@ -1,23 +0,0 @@
# L'Ère de la critique
:status: draft
Peut-être est-ce dans toutes les sphères pareil ? On découvre, tout est génial : un nouveau monde qui s'explore, de nouvelles personnes, de nouveaux termes, de nouvelles envies. On apprécie se sentir pousser des ailes. On passe du temps à creuser ces nouveaux sillons.
Et puis on cherche mieux, plus fort, plus surprenant. Il faut désormais analyser, comparer, trouver des critères pour classifier toutes ces découvertes, pour pouvoir continuer à chercher mieux. Encore.
Et on en oublie de penser l'impact de ces comportements. Plutôt que d' « apprécier ce qui est » on y préfère la découverte, on cherche à repousser les limites. Plutôt que d'apprécier ce qui se fait *ici*, et qui ne demande qu'a être encouragé, on y préfère ce qui se fait *là bas*, parce que plus à la pointe, parce que plus prometteur et novateur.
Alors, les personnes qui créent ce qu'on écoute, ce qu'on lit, ce qu'on utilise, ce qu'on mange, ce qu'on pense; ces personnes se sentent toujours comparées à d'autres. D'autres qui font mieux, plus grand, plus beau. Mais quel est l'impact de ce fonctionnement sur ces personnes ?
Qu'est-ce que signifient ces nouvelles pratiques pour nos sociétés ? Comment peut-on favoriser les échanges entre les producteurs (de tout type) et les *consommateurs* ?
## Niveaux d'attente
Doit-on baisser nos niveaux d'attente ? A quel endroit s'arrête le bien pour devenir l'exceptionnel, est-ce suffisant de n'atteindre que le « bien » ?
## Intellectualisation vs Émotions
En cherchant à intellectualiser nos ressentis, en cherchant à analyser ce que l'on *vit*, n'oublie-t-on pas d'aller puiser dans nos émotions ? En analysant *de trop*, ne nous privons nous pas de ressentir ?
Lorsque l'on vit une expérience (lire un livre, participer à un spectacle ou même boire une bière), notre approche peut *pré-cabler* notre cerveau pour faciliter ou inhiber certains ressentis.

View file

@ -1,85 +0,0 @@
Title: NEIPA #2
Date: 2017-12-18
Headline: Petit test de New England IPA.
*Voici quelques prises durant un de mes brassins. L'idée est de pouvoir les relire et m'améliorer au fur et à mesure.*
# Objectifs:
- Corriger les erreurs du précédent brassin.
- Éviter les soucis de filtration
- Mieux corriger le pH
- Faire un whirlpool digne de ce nom / avoir moins de trub dans le fermenteur
- Ne pas se laisser avoir par la baisse de température durant l'empâtage.
# Recette:
DI: 1060 (1050 mesuré)
pH: 5.2 (atteint)
## Grains:
- 90% Pils
- 10% Flocons d'avoine
## Houblons:
- 2g/L Wakatu (au Whirlpool)
- 2g/L Motueka (au Whirlpool)
- 4.5g/L Wakatu à cru (en deux fois)
- 2.5g/L Motueka à cru (en deux fois)
## Eau:
- Utilisation d'eau de source, pour pouvoir corriger les sulfates / chlorures.
- 200 Chlorures pour 100 Sulfates.
- Gypse: 0.9g
- CaCl2: 3.4g
- Acide lactique: Au batch précédent, j'avais mesuré 5.6, donc: ajout de +2ml d'acide (=2.4g).
- Utilisation d'Irish Moss (2g) pour coaguler les protéines.
## Profil d'empatage:
- 65°C durant 90mn (68°C au départ, 65 visé)
- 78°C durant 10mn (mash-out)
## Levure
- London Ale III.
# Déroulé
- 18h36 - empatage à 65°C
- 19h16- pH = 5.2
- Densité 1er moût: 1070
- Ébullition importante pour atteindre 6,2L avec la bonne densité.
- Mash-out à 78°C durant 10mn
- Test à l'iode: NOK
- 1er rincage. Densité premier mout: 1070
- 15h40: Hop Stand (15g Citra / 15g Mosaic)
# Fermentation
- 18/12/2017 - Fermentation à 18°C
- 21/12/2017 - Ajout de 13.5g de Wakatu et 7.5g de Motueka
- 30/12/2017 - Ajout de 13.5g de Wakatu et 7.5g de Motueka
- 30/12/2017 - Passage à 10°C.
- 15/01/2018 - Cold Crash
- 21/01/2018 - Mise en bouteille. Resucrage à 7g/L.
# Observations:
- Je change de technique, et mets l'acide lactique directement dans l'eau.
- Je concasse moins fin mais reteste quand même l'avoine. Aucun souci de filtration (mais l'avoine n'est pas concassé).
- 1g de CaCl2 ~= 2.25ml en solution à 33%.
- Les deux thermomètres n'affichent pas la même température. Super :(.
- Au final, jempâte dans une casserole pour pouvoir faire un mash-out.
- Le pH oscille pas mal durant l'empâtage. J'ai mesuré des pH de 4.9 à certains moments, mais au final la dernière lecture est de 5.2, ce qui me semble bon.
- Le système que j'utilise (refroidisseur en cuivre) pour refroidir mon moût n'est pas génial parce que ça mélange pas mal ce qu'on veut voir se déposer au fond de la cuve. Refroidir directement dans l'évier est vachement plus simple (c'est pratique de faire du 6L pour çà !)
- Le teste à l'iode était positif: tout n'était pas converti. Mais à 90mn de mash, je ne crois pas pouvoir faire grand chose de plus.
- Idée en vrac, à voir à la dégustation, mais ajouter un peu de cara pourrait être sympa.
- L'irish moss à vraiment bien fonctionné. Je me demande si je ne devrais pas même laisser décanter un peu plus longtemps durant le whirlpool pour avoir un effet encore plus impressionnant.
- Je trouve que l'efficacité de cette brasserie est vraiment pourrie.
- Un peu d'eau est venue diluer le moût (DI = 1050 au lieu de 1060 souhaité)
- Au goût, le moût à vraiment un goût qui m'assèche la gorge. Trop de modifications de l'eau ? A voir si l'effet persiste après fermentation.
- A priori, d'après un article de Scott Janish, empâter avec de l'avoine cru ne fonctionne que si on empate haut. Ca à un impact sur l'efficacité générale (2h pour conversion totale, c'est peut-être pour ça que mon teste à l'iode était positif)
- Sur l'avoine toujours, il faut **dépasser 18%** pour avoir un côté moelleux. Certains mettent jusqu'à 40% !

View file

@ -1,84 +0,0 @@
Title: NEIPA #3
Date: 2017-12-29
Headline: New England IPA - Collab avec Heiko.
*Voici quelques prises durant un de mes brassins. L'idée est de pouvoir les relire et m'améliorer au fur et à mesure.*
Test autour d'une New England Pale Ale; Cette fois ci avec du Mosaic et du Citra, durant une collab' avec Heiko.
# Objectifs:
- Brasser une nouvelle NEIPA en appliquant les trouvailles des deux premières versions;
- Hop stand de 40mn;
- Contrôle du pH à 5.2;
- Refroidissement dans l'évier;
- Ajouter plus d'avoine;
- Faire un mash out;
- Augmenter un peu la quantité de grain.
# Recette:
DI: 1055 (atteint)
pH: 5.2 (5.4 mesuré)
## Grains:
- 75% de Pale Ale
- 12.5% de blé
- 12.5% flocons d'avoine
## Houblons:
- 2g/L Mosaic (Hop Stand 40mn)
- 2g/L Citra (Hop Stand 40mn)
- 4g/L Citra à cru (en deux fois)
- 4g/L Mosaic à cru (en deux fois)
## Eau:
- Utilisation d'eau de source, pour pouvoir corriger les sulfates / chlorures.
- 200 Chlorures pour 100 Sulfates.
- Gypse: 1g
-
: 1.8g (=4.05ml)
- Acide lactique: 0.4ml
## Profil d'empatage:
- 68°C durant 40mn;
- 75°C durant 10mn (mash-out)
## Levure
- GigaYeast «Vermont Ale». Le nombre de cellules n'est pas indiqué sur le packaging, ni en ligne.
# Déroulé
- 12h50: empâtage à 68°C
- pH = 5.5. Ajout de 0.2 d'acide.
- Pas mal de mesures du pH:
- 5.2@23°C (13h05)
- 5.4@18°C (13h05)
- 5.2@27°C (13h15)
- 5.3@19°C (13h20)
- 5.4@25°C (13h30)
- 13h33: Mash-out à 78°C durant 10mn
- Test à l'iode: OK
- 14h11: 1er rincage. Densité premier mout: 1070
- 15h40: Hop Stand (15g Citra / 15g Mosaic)
# Fermentation
- 31/12/2017 - Fermentation à 20°C
- 01/01/2018 - Ajout de 12g de Citra et 12g de Mosaic après deux jours.
- 10/01/2018 - 1.040 SG = 1.008 corrigé
- 15/01/2018 - Ajout de 12g de Citra et 12g de Mosaic
- 15/01/2018 - Cold Crash
- 21/01/2018 - Mise en bouteille. Resucrage à 7g/L.
# Observations:
- En mettant 1.5ml d'acide, si on mesure le pH de l'eau, il est à 3.5. Ça nous à pas mal effrayé, puisque on a pas trop l'habitude de monitorer le pH. On refait: 0.4ml d'acide = pH de 4.1. Au final, cela ne semble pas utile de mesurer le pH de l'eau avant de mettre son grain.
- Je le savais déjà, mais travailler à deux en discutant n'est pas vraiment une bonne idée: sur les opérations un peu technique, un manque de concentration se fait tout de suite ressentir.
- BeerSmith semble proposer un outil pour calculer les modifications de pH, je devrais l'utiliser la prochaine fois.
- Baisser le ration d'empâtage: On s'est retrouvé avec beaucoup trop d'eau de rincage, alors qu'on était sur une bière assez faible en densité.
- Au final, ajouter l'acide au départ est problématique pour le pH de l'eau qui baisse énormement. Après quelques recherches, il semble qu'il faille faire confiance au logiciel, et prendre une seule mesure de pH à 10mn (cela devrait être stable). Le pHmetre est aussi peut-être en cause.
- D'une manière générale, j'ai l'impression d'être un peu à l'arrache sur la partie fermentation. Il faudrait vraiment que j'ai un plan et que je m'y tienne. Plusieurs questions me semblent encore à résoudre: combien de temps laisser le houblon à cru ? A quelle température ?

View file

@ -1,16 +0,0 @@
Title: Fermentation en fûts
Date: 2018-01-21
Headline:
Status: draft
Ça fait quelques temps que je brasse, et je lis de plus en plus de ressources sur le sujet. Je pense commencer à maîtriser quelques concepts clés derrière la fabrication de bière, mais je me trouve assez mauvais pour ce qui est de mettre en pratique de manière simple et concise ces apprentissages.
Récemment, j'ai fait le choix de faire une petite brasserie de 6-7L. L'idée est de pouvoir brasser des petits *batchs*, dans ma cuisine, sans prendre trop de risques en terme d'ingrédients. Je me suis donc équipé de petites *dame-jeanne* de 5.5L. Elles rentrent dans mon frigo et servent à faire la fermentation. Le verre est simple à nettoyer. C'est parfait.
Je me disais que c'était l'occasion de faire un petit retour sur cet équipement, et sur ce procédé.
- La tête est assez petite, et il est donc assez difficile de faire rentrer des sacs de houblons par exemple.
je trouve que l'embouteillage est souvent difficile,
e me retrouve souvent avec des

Binary file not shown.

Before

Width:  |  Height:  |  Size: 69 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 123 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 104 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 117 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 20 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 131 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 118 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 82 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 72 KiB

Some files were not shown because too many files have changed in this diff Show more