Les retraites: la mère de toutes les batailles

Les retraites: la mère de toutes les batailles

On dirait qu’il y a comme une vérité sourde, admise par tous, même nous les pires gauchos, certitude ancrée selon laquelle les retraites c’était un beau rêve, mais que ça n’est plus possible: il n’y a plus assez de jeunes pour payer pour les vieux.

Il existe une autre vision de la chose. Sans préjuger de qui a raison, il me semble que sur une question aussi grave, aussi fondamentale dans notre modèle de société, ça vaut le coup de prendre 10 minutes pour écouter une autre opinion, d’autant qu’elle est énoncée avec humour et pédagogie, c’est le principe des conférences gesticulées de Franck Lepage.

Le player ci dessous devrait être calé au bon endroit, sinon c’est à 1:48:25.

>>> La vidéo en entier

>>> Une production de Le Pavé qui est une scop

>>> Source sur : http://jcfrog.com/blog/les-retraites-la-mere-de-toutes-les-batailles/ (Publié le 

Pourquoi ne peut-on pas dépasser la vitesse de la lumière ?

Vous allez enfin comprendre la relativité restreinte d’Einstein

Les amateurs de physique ou de science-fiction le savent: rien ne peut aller plus vite que la lumière dans le vide, à savoir 299 972 km/s (kilomètres par seconde). C’est d’ailleurs de là que découle notre définition moderne du mètre.

Mais pourquoi cette constante est-elle si importante ? Pourquoi est-on si sûr de ne pouvoir atteindre 299 973 km/s ? Si l’explication semble réservée aux docteurs en physique, elle est en fait relativement simple à comprendre dans son essence. Relativement étant le mot approprié.

Laissez-moi 20 minutes pour vous expliquer tout cela. Vous allez voir, c’est fascinant et magique à la fois. J’ai fait le choix douloureux de me passer d’équations. J’ai tendance à trouver les équations explicites mais, il faut le reconnaître, elles sont intimidantes. Je m’excuse donc auprès des puristes, ceci est un exercice de vulgarisation.

Pourquoi ne peut-on pas dépasser la vitesse de la lumière ?

Relativité Galiléenne

La relativité est un concept parfaitement intuitif. En théorie, il stipule que tout repère inertiel est équivalent à un autre. Un repère inertiel, terme très important, désigne tout simplement un point que vous choisissez comme un repère. Pour être inertiel, ce repère doit être à vitesse constante et non pas en accélération ou décélération.

Ainsi, imaginons que vous courriez à 20km/h dans un TGV roulant à 300km/h. Un observateur sur le quai d’une gare traversée vous verrait passer à 320km/h, son repère inertiel est le quai de la gare. Pourtant, pour les passagers du train, dont le repère inertiel est le train lui-même, vous faites bien du 20km/h. Si le train roule le long de l’autoroute et croise une voiture roulant à 120km/h, le conducteur de la voiture vous verrait passer à 440km/h, son repère inertiel étant sa voiture ! 440km/h, un beau sprint, n’est-ce pas ?

Cette relativité des vitesses est appelée « relativité galiléenne ». Nous en faisons l’expérience tous les jours. Si une hôtesse de l’air vous sert un café dans un avion volant à 800km/h, le café tombe droit dans votre tasse et n’est pas plaqué sur votre chemise. La raison est que vous, la tasse, l’hôtesse et le café avez tous la même vitesse. De manière relative, vous êtes à 0km/h l’un par rapport à l’autre, vous êtes tous dans le même repère inertiel alors que vous allez à 800km/h par rapport au sol qui est un repère inertiel différent.

Logiquement, on en déduit que pour aller à la vitesse de la lumière, il suffirait d’avoir un train qui roule dans un train qui roule dans un train, etc. Toute vitesse semble donc possible, il suffit d’additionner. Pourquoi la vitesse de la lumière serait-elle une limite ?

L’électromagnétisme

Faisons un bond vers le XIXème siècle. À cette époque, on connaît déjà expérimentalement une approximation de la vitesse de la lumière.Maxwell, un scientifique de génie, travaille sur les ondes électromagnétiques, des ondes qui permettent de transmettre des informations à distance. Grâce à un travail mathématique complexe, Maxwell démontre que la vitesse des ondes électromagnétiques dans un milieu dépend uniquement de deux coefficients: la permittivité électrique et la perméabilité magnétique. Pour le vide, ces deux valeurs sont connues.

Le résultat de son équation est que la vitesse d’une onde électromagnétique est extrêmement proche de la valeur connue de la vitesse de la lumière. Cela prouve sans l’ombre d’un doute ce que certains soupçonnaient : la lumière n’est qu’une manifestation des ondes électromagnétiques.

Ces ondes peuvent en effet avoir plusieurs fréquences. À la fréquence 150 kHz (une vibration de 150.000 battements par seconde), ce sont les ondes longues utilisées par les radios longue distance. En augmentant un peu la fréquence, on arrive à la radio FM puis on monte de plus en plus, passant par les fréquences utilisées par nos GSM, nos routeurs Wifi, pour arriver au spectre visible. Nos yeux sont en effet des organes sensibles aux ondes électromagnétiques mais seulement dans une zone de fréquence déterminée.

Les changements de fréquence dans cette zone sont les changement de couleur (ainsi, le rouge a une fréquence plus basse que le bleu). Si on augmente encore la fréquence, on redevient invisible et on obtient l’ultraviolet puis les rayons X.

Tout cela n’est donc qu’électromagnétisme et se déplace à la vitesse de la lumière. Après tout, la radio et le wifi ne sont qu’une forme de lumière invisible à nos yeux.

Le paradoxe

Il y a cependant un problème. Selon Maxwell, la vitesse de la lumière ne dépend que du milieu, pas de la vitesse relative de ce milieu.

En toute logique, si je braque une lampe de poche envoyant de la lumière à 299.972km/s vers un TGV roulant vers moi à 300km/h (ou 0,08km/s), la lumière devrait toucher le TGV à 299.972,08km/s. De même, si la lampe de poche est sur une fusée qui s’éloigne de la terre à 100.000km/s, la lumière devrait arriver sur terre à 199.972km/s.

Or, les équations de Maxwell prédisent qu’il n’en est rien. La vitesse de la lumière ne dépend pas du repère inertiel. Quelle que soit votre vitesse par rapport à la source de lumière, vous voyez la lumière à la même vitesse. Comme si les passagers d’un train et ceux sur le quai de la gare vous voyaient tous à la même vitesse !

Ce résultat est énorme et va bouleverser la physique de l’époque. Soit Maxwell s’est trompé, malgré le nombre d’expériences confirmant ses prédictions, soit Galilée lui-même est dans l’erreur, chose qui semble incroyable.

L’éther

Une tentative d’explication est faite avec l’éther. L’éther serait un matériau très ténu qui composerait l’univers entier. L’éther représenterait un repère inertiel et les équations de Maxwell ne s’appliqueraient que dans ce repère précis. La vitesse de la lumière ne serait pas absolue et, un vaisseau se déplaçant à 100.000km/s à travers l’éther vers une source de lumière verrait bien cette lumière à 399.972km/s.

La théorie de l’éther pose plusieurs problème. Notamment que l’éther doit être très rigide pour avoir une vitesse de propagation importante tout en étant infiniment fluide, pour ne pas offrir de friction au mouvement des planètes. Ajoutons à cela que l’idée d’un référentiel inertiel “absolu” et plus important que les autres est dérangeante. Mais moins que de remettre en question la relativité de Galilée.

Michelson et Morley tentent alors une expérience visant à prouver l’existence de l’éther. Pour simplifier, disons qu’ils vont envoyer deux rayons lumineux parcourir la même distance mais perpendiculairement l’un à l’autre. En effet, si éther il y a, le mouvement de la terre dans cet éther doit provoquer l’équivalent d’un “vent”. Imaginez-vous sur le toit du TGV, comme dans Mission Impossible. Si vous lancez deux billes perpendiculairement sur le toit, le vent provoqué par la vitesse va modifier leur trajectoire et vous pourriez déterminer la vitesse du TGV ou au moins sa direction.

À la surprise générale, le résultat de cette expérience est sans appel: il n’y a et ne peut y avoir d’éther. La physique est dans une impasse.

Les transformations de Lorentz

À peu près à la même époque, un scientifique du nom de Lorentz s’amuse à comprendre les lois qui régissent de manière générale un repère inertiel. Ainsi, la position d’un objet par rapport à un repère inertiel dépend de sa vitesse, de sa position initiale et du temps écoulé dans ce repère. Exemple : si vous connaissez la position et la vitesse d’un train à minuit, vous pouvez très simplement calculer sa position à n’importe quel moment de la journée tant que sa vitesse est constante.

Tout cela semble très logique mais Lorentz remarque que ses équations ne donnent aucun lien entre les repères inertiels. Ainsi, si je suis sur le quai de la gare avec un chronomètre et que je mesure un coureur dans un TGV traverser le quai de gare, long de 100m, en 1,16 seconde, je peux affirmer qu’il fait du 310km/h à mes yeux. Mais je ne peux rien affirmer de ce qui se passe à l’intérieur du TGV lui-même.

Il est donc nécessaire d’introduire un lien entre les repères inertiels. Le lien le plus logique est de poser que le temps s’écoule de manière identique dans chaque repère inertiel, que 1,16 secondes à bord du train correspondent bien à 1,16 seconde sur le quai. En faisant cela, les équations de Lorentz (appelées les transformations de Lorentz) se simplifient et deviennent identiques à celle de Galilée.

Le TGV faisant du 300km/h, j’en déduis que le coureur fait du 10 km/h.

Remarquons qu’il s’agit d’un postulat: on affirme que le temps est identique dans chaque repère mais on ne le démontre pas.

Einstein

Il faut parfois un éclair de génie pour débloquer une situation. Et cet éclair, c’est Einstein qui l’a. À la manière du jeu enfantin « on disait que », il décide de postuler « on disait que la vitesse de la lumière est la même dans tous les référentiels inertiels ». Il pose donc ce postulat à la place du principe de simultanéité. En effet, la liaison entre tous les repères inertiels sera dorénavant une même et unique vitesse de la lumière. Cela rend inutile le postulat sur un écoulement du temps constant. Ce dernier n’avait, comme nous l’avons vu, de toutes façons jamais été démontré.

Notre cher Albert reprend donc les équations de Lorentz et postule une vitesse de la lumière identique dans tous les référentiels. Mathématiquement, le résultat devient étonnant. La vitesse observée depuis le quai est toujours la vitesse du train plus la vitesse du coureur mais le tout est divisé par un facteur (1 – v1 v2/c²) où v1 est la vitesse entre les référentiels (entre la gare et le tgv), v2 la vitesse entre le coureur et le TGV et c la vitesse da la lumière.

Pour une vitesse très faible (jusqu’à quelques milliers de km/h), ce facteur reste très proche de 1. En effet, v1 v2/c² est alors très proche de 0, le facteur vaut 1 et on divise notre résultat par 1, donc on ne change rien. Même pour un hypothétique coureur dans un avion volant à 10.000km/h, le facteur est 0,99999, ce qui est inobservable dans notre vie de tous les jours.

Mais que se passe-t-il si le TGV accélère soudain à la moitié de la vitesse de la lumière ? Le symbole v1 vaut la moitié de c. (1 – v1 /c²) vaut alors 0,5. Si, avec votre chronomètre, vous avez mesuré depuis le quai que le coureur faisait du 10km/h dans ce train ultra rapide, en fait, il sprintait à du 11,6km/h. De même, vous avez pu voir une horloge dans le train. Mais pendant que votre chronomètre indiquait 10 secondes, celle dans le train n’en indiquait que 8,6. Le temps ne s’écoule pas à la même vitesse ! (Update : les valeurs sont sans doute fausses mais l’idée est là)

Impossibilité d’atteindre la vitesse de la lumière

Il s’en suit logiquement qu’il est impossible d’atteindre la vitesse de la lumière. En effet, même si vous embarquez dans votre train semi-luminique un autre train semi-luminique, vous n’observerez, depuis le quai de la gare, qu’une vitesse totale de 80% de la vitesse de la lumière.

Arriver à la vitesse de la lumière revient donc à parcourir la moitié du chemin puis la moitié puis la moitié puis la moitié, chaque moitié requérant un effort semblable. Au final, la vitesse de la lumière est donc un objectif qui s’éloigne à chaque fois qu’on s’en approche.

Une autre conséquence, de taille, est que le temps ne s’écoule plus de la même manière entre référentiels inertiels. Ainsi, les chronomètres 1 et 2 ne seront plus liés. Cela parait fou mais, quand on y pense, cette constance du temps à toujours été prise pour acquise et n’avait jamais été démontrée. L’impasse de la physique venait du fait que, nous basant sur l’intuition, nous pensions que le temps s’écoulait de manière uniforme. Le génie d’Einstein a été de remettre cela en question et de découvrir que l’écoulement du temps dépendait en fait de la vitesse à laquelle nous nous déplaçons.

Intuitivement, il y a une certaine logique. Pourquoi le temps devrait-il s’écouler à la même vitesse dans différents repère inertiels ? Quelle serait cette constante naturelle fondamentale qui définit l’écoulement du temps ? La réponse est claire et nette: il n’y en a pas. La seule constante fondamentale est la vitesse de la lumière. Si l’homme a l’impression que le temps coule à la même vitesse, c’est parce qu’il n’a jamais été assez vite pour en ressentir les effets. L’humain reste toujours très proche d’un seul repère inertiel : la terre. Un peu comme un escargot ne comprendra jamais les notions d’aérodynamisme, l’air étant complètement fluide à sa vitesse de déplacement.

Conclusion

Avec cette œuvre scientifique majeure appelée « relativité restreinte », Einstein conciliera le grand paradoxe physique de son temps, à savoir l’incompatibilité de l’électromagnétisme avec les lois de la mécaniques classiques. Notons que si l’histoire retient son nom pour cet exploit, il n’est, comme tout scientifique, que le dernier maillon d’un chaîne, se basant sur les travaux de Maxwell, Lorentz et bien d’autres.

Cette découverte remet fondamentalement en question la manière dont nous percevons le monde. Le fait que le temps ne s’écoule pas partout à la même vitesse semble impossible mais sera vérifié. Einstein s’attaquera ensuite au fait de passer d’un repère inertiel à un autre, ce qui entraîne accélérations et décélérations. La théorie qui s’occupe de ce cas de figure est appelée « relativité générale » et remettra en question encore plus de choses, y compris la gravitation.

Toutes ces découvertes ont été validées par l’expérience et ont eu des applications pratiques importantes. Si les satellites ne prenaient pas en compte la différence d’écoulement du temps, les GPS ne fonctionneraient sans doute pas du tout, ou avec des erreurs importantes.

Il est tentant de se dire que Galilée s’était trompé, que sa théorie était fausse. Pourtant, nous l’utilisons encore tous les jours. Cela illustre bien la démarche scientifique. Ainsi, il conviendrait mieux de dire que Galilée a été imprécis. Et que, dans les domaines où la précision n’est pas critique, utiliser Galillée est une approximation largement suffisante. Galilée a, sans le savoir, posé une hypothèse (la constance de l’écoulement du temps) qui s’est révélée fausse. Mais sans Galilée, nous n’aurions jamais pu aller plus loin. Avant de nager comme un athlète, il faut savoir nager tout court.

De même, si atteindre la vitesse de la lumière semble impossible, il reste la possibilité qu’Einstein aie été imprécis, que ses équations se basent sur une hypothèse qui se révélera fausse dans le futur.

C’est peut-être ce qui rend la science si excitante: toujours à la recherche de l’inconnu, toujours à l’affût d’une erreur laissée par un prédécesseur, toujours en train de remettre notre vision du monde en question.

>>> Sources : Physique IV, partie B : Physique Corpusculaire par le professeurJan Govaerts, UCL février 2001. Science & Vie Junior Hors Série Einstein, avril 1996. Photo par Kevin Harber.

>>> The Pourquoi ne peut-on pas dépasser la vitesse de la lumière ? by Lionel Dricot, unless otherwise expressly stated, is licensed under a Creative Commons Attribution 2.0 Belgium License.

Tagué

ffDiaporama disponible en version 1.6 – Ajout de nombreuses améliorations

ffdiaporama1

Une nouvelle version de ffDiaporama a été publiée récemment, embarquant quelques évolutions et surtout, la prise en charge des images au format SVG. Mais avant d’aller plus loin dans la présentation des nouveautés présentes dans cette version 1.6, nous allons quand même présenter brièvement cette application que tout le monde ne connait pas forcément.

ffDiaporama est une application « Qt » qui en gros, sert à réaliser des séquences vidéos constituées de titres, d’images fixes, d’images aux différents formats et de musique. C’est l’application idéale pour réaliser un petit clip de vos images de famille ou de vacances par exemple. ffDiaporama ne se limite pas à ça et permet également d’effectuer diverses actions sur vos fichiers comme par exemple, recadrer vos images, découper des séquences vidéo, d’ajouter des informations (annotations texte) à vos images, vos vidéos , d’appliquer des filtres graphiques, d’effectuer des corrections (luminosité, contraste, gamma, couleurs) et bien d’autres choses encore…

>>> Source & plus d’infos sur : http://la-vache-libre.org/ffdiaporama-disponible-en-version-1-6-ajout-de-nombreuses/

Des milliers de morts, des millions privés de libertés civiles ?

Des milliers de morts, des millions privés de libertés civiles ? Stallman (2001)

À l’heure où les USA sont empêtrés dans une sombre histoire d’espionnage généralisé à grande échelle, il nous a paru intéressant de déterrer et traduire un article de Richard Stallman rédigé en 2001 juste après le 11 septembre.

Force est de reconnaître qu’une fois de plus il avait pressenti les conséquences néfastes que nous subissons aujourd’hui.

Sigg3net - CC by

Des milliers de morts, des millions privés de libertés civiles ?

Thousands dead, millions deprived of civil liberties?

Richard Stallman – 2001 – Site personnel
(Traduction : Lamessen, Slystone, Sky, Amine Brikci-N, Asta)

Dans de nombreux cas, les dommages les plus sévères que cause une lésion nerveuse sont secondaires ; ils se produisent dans les heures qui suivent le traumatisme initial, car la réaction du corps à ces dommages tue davantage de cellules nerveuses. Les chercheurs commencent à découvrir des façons de prévenir ces lésions secondaires et réduire les dommages ultimes.

Si nous ne faisons pas attention, les attaques meurtrières sur New York et Washington vont conduire à des effets secondaires bien pire encore, si le congrès étasunien adopte des « mesures préventives » qui écartent la liberté que l’Amérique représente.

Je ne parle pas de fouilles dans les aéroports ici. Les fouilles de personnes ou de bagages, tant qu’ils ne cherchent pas autre chose que des armes et ne gardent pas de traces de ces fouilles, est juste un désagrément : elles ne mettent pas en danger vos libertés civiles. C’est la surveillance massive de tous les aspects de nos vies qui m’inquiète : de nos appels téléphoniques, nos courriels et nos déplacements physiques.

Ces mesures sont susceptibles d’être recommandées indépendamment du fait qu’elles seraient efficaces pour leur objectif déclaré. Un dirigeant d’une entreprise développant un logiciel de reconnaissance faciale est dit avoir annoncé à des journalistes que le déploiement massif de caméras embarquant un système de reconnaissance faciale aurait empêché les attaques. Le New York Times du 15 septembre cite un congressiste prônant cette « solution ». Étant donné que la reconnaissance humaine du visage effectuée par les agents d’accueil n’a pas permis de stopper les pirates, il n’y a pas de raison de penser que les caméras à reconnaissance faciale informatisée aurait été d’une quelconque aide. Mais cela n’arrête pas les agences qui ont toujours voulu mettre en place plus de surveillance de pousser ce plan aujourd’hui, ainsi que beaucoup d’autres plans similaires. Il faudra l’opposition du public pour les stopper.

Encore plus inquiétant, une proposition visant à exiger des portes dérobées gouvernementales dans les logiciels de chiffrement a déjà fait son apparition.

Pendant ce temps, le Congrès s’est empressé de voter une résolution donnant à Bush les pleins pouvoirs d’utilisation de la force militaire en représailles des attaques. Les représailles peuvent être justifiées, si les auteurs des attaques peuvent être identifiés et ciblés avec soin, mais le Congrès a le devoir d’examiner les mesures spécifiques lorsqu’elles sont proposées. Donner carte blanche au président dans un moment de colère est exactement l’erreur qui a conduit les États-Unis dans la guerre du Vietnam.

S’il vous plait, laissez vos représentants élus et votre président non élu savoir que vous ne voulez pas que vos libertés civiles deviennent les prochaines victimes du terrorisme. N’attendez pas, Les lois sont déjà en cours d’écriture.

>>> Crédit photo : Sigg3net (Creative Commons By)

>>> Source : http://www.framablog.org/index.php/post/2013/06/09/stallman-2001

Qui a vraiment besoin d’héberger soi-même ses données ?

Soyons sincères pour une fois. Bien sûr l’auto-hébergement n’est pas et ne sera pas une solution. En tout cas ce ne sera pas une solution satisfaisante pour pouvoir radicalement changer les usages sur Internet.

L’auto-hébergement est compliqué et cher, tombe facilement en panne et suppose des acquis vrais pour la plupart des nerds mais faux pour le reste. Dans le discours des nerds, l’auto-hébergement doit permettre aux gens de prendre le contrôle de leurs contenus. Il n’y a que ce que tu héberges que tu possèdes vraiment.

Prôner l’auto-hébergement pour tous c’est supposer que le problème le plus urgent sur Internet, l’exigence essentielle, c’est de posséder ses données et contenus dans des endroits sécurisés et toujours accessibles pour nous. Il faudrait avant tout utiliser des interfaces éprouvées et a minima garantir la compatibilité entre les différentes techniques utilisées. Un fichier de configuration devrait pouvoir passer de la carte à trou antédiluvienne au dernier SSD. Les services qui ne garantissent pas cette compatibilité seraient dangereux et idiots.

La sécurité des données et leur accessibilité seraient le mètre étalon de tout service et seul l’auto-hébergement permettrait de répondre à la problématique. La solution d’auto-hébergement adoptée devrait bien sûr mettre en œuvre une sauvegarde régulière solide, avoir une forte tolérance aux erreurs et une résistance remarquable aux tentatives d’effraction et, cerise sur le gâteau, devrait être montée sur ressort.

Cette position élitiste vient d’être très clairement critiquée par Tante dans un excellent billet de blog récent, que je vous invite fortement à aller lire (en anglais):

Dire aux gens qu’il faut s’auto-héberger quand une grande entreprise ferme un service, c’est tout à fait dans le même style que Marie-Antoinette qui conseillait aux paysans qui n’avaient plus de pain de manger de la brioche.

Pouvoir s’auto-héberger est une solution réservée à quelques personnes douées et riches. Pour le reste défendre cette position est du pur cynisme.

Tante souligne que la division du travail de notre société ne permet pas à tous d’avoir des compétences suffisantes pour s’auto-héberger. J’ajouterais que ce que les monomaniaques de l’auto-hébergement voient comme une privation de liberté est au contraire perçu comme un progrès pour beaucoup d’autres. Se libérer du fardeau de la configuration d’un serveur Usenet pour pouvoir gérer ses propres groupes de discussion est bel et bien un progrès. On n’a plus besoin d’être initié aux mystères d’Éleusis pour pouvoir communiquer.

Pire: le paradigme des nerds pro-auto-hébergement suppose que l’important c’est vraiment les données. Vu que je suis un gros archiveur des multiples listes auxquelles je suis abonné j’irais presque jusqu’à leur donner raison. Mais une telle position oublie que les communications éphémères et passagères ont aussi de l’importance. Snapchat a vraiment du succès. La permanence des données n’est pas toujours le plus important. Le motto de Gmail «archiver au lieu d’effacer» a longtemps paru à beaucoup un peu grotesque et ésotérique. Qui d’ailleurs a vraiment besoin de consulter des centaines d’archives de conversations figées par le temps ? Il est aussi beau de construire des châteaux de sable.

Ce qui est pertinent, ce sont bien plus souvent les relations que les conversations. Un compte dont on s’occupe avec soin sur un site avec des fonctions sociales permet de construire une réputation qui est une certaine forme de capital social. Lorsque Facebookgoogletwitteryahoo menace de fermer, ce qui fait mal au cœur n’est pas tant le risque de perdre les données accumulées sur le service que les entrelacs de relations que nous avons tissées à travers ces données.

Ces relations ne dépendent pas de contenus particuliers mais restent et le plus souvent peuvent quand même résister à la disparition d’un service ou à une migration par mode. Les adolescents qui ont délaissé VZ en Allemagne  avant son quasi-arrêt ne sont pas devenus des ermites. Ils sont passés au service précaire et non auto-hébergé suivant. Nous sommes là dans des champs mouvants et dynamiques où il importe peu que les services soient si stables que cela:

Internet tuera tout ce que vous aimez. Mais à ce moment vous n’en aurez cure.

>>> Source sur : http://politiquedunetz.sploing.fr/2013/06/qui-a-vraiment-besoin-dheberger-soi-meme-ses-donnees/

 

 

Whisker Menu – Un nouveau menu moderne et innovant pour Xfce

 

Nous allons parler de la team XFCE, qui vient de publier une version stable de Whisker Menu, qui se présente comme un nouveau menu « moderne » pour XFCE. Je ne sais pas s’il en fallait un de plus, mais le fait est qu’il est là et que nous allons voir à quoi ça ressemble.

whiskermenu

whiskermenu_search

La particularité de Whisker est qu’il se présente comme un projet visant à « moderniser » le menu d’XFCE, qui malgré l’ajout de pas mal de plugins et de « refontes » n’a jamais pu se départir d’un certain côté « vieillot ». Whisker a donc pour ambition d’allier innovation et simplicité.

Celui-ci inclut une barre de recherche moderne, à partir de laquelle vous pourrez effectuer des recherches ciblées sur les applications, les fichiers, les plugins et bien plus encore. Vous aurez aussi la possibilité d’accéder rapidement à la liste complète de vos applications et (ou) aux catégories spécifiques.

Whisker Menu conserve également la liste des 10 dernières applications ouvertes, afin qui vous puissiez y accéder encore plus rapidement. Vous pourrez également réorganiser vos applications, vos menus et y ajouter vos softs favoris en un clic, afin de pouvoir gérer tout ça aux petits oignons.

Whisker Menu est d’ores et déjà disponible en version 32 ou 64-bits sur Ubuntu/Xubuntu, openSUSE et Debian, depuis le site officiel. Si vous tournez sur Archlinux, c’est depuisAUR que cela se passe.

>>> Source sur : http://la-vache-libre.org/whisker-menu-un-nouveau-menu-moderne-et-innovant-pour-xfce/

Définition d’une Monnaie Libre

Définition d’une Monnaie Libre

Lors de l’Ubuntu Party des 1 & 2 Juin j’ai proposé une « définition d’une monnaie libre ». La vidéo sera peut-être disponible plus tard, mais en attendant, j’ai souhaité résumer cette présentation à partir des graphiques que j’ai utilisés, dans la vidéo suivante :

La présentation LibreOffice est disponible dans cette archive libre :

 

 

Enfin pour finir un lien magnet vers le torrent du fichier vidéo source.

>>> Source : http://blog.creationmonetaire.info/2013/06/definition-dune-monnaie-libre.html

Il existerait bien d’autres univers

Il existerait bien d’autres univers

Il existerait bien d’autres univers

A l’origine de la création de l’Univers : Le Big Bang.

Impossible de remonter au delà de celui-ci pour savoir s’il y a eu quelque chose avant… Jusqu’à aujourd’hui.

En effet, un groupe de chercheurs a découvert des traces de cercles concentriques dans le fond diffus cosmologique. D’après eux, il s’agit de l’écho du Big Bang qui n’est que le début d’un nouveau cycle pour l’Univers. L’Univers serait dans un cycle éternel ponctué de ces Big Bang. Et l’Univers contiendrait donc tous les précédents univers. C’est une théorie bien sûr mais ces traces de cercles seraint une première preuve qu’il y a bien eu quelque chose avant le Big Bang  tel qu’on le connait.

Plus fort encore, un autre groupe de chercheurs a une théorie sensiblement différente sur ces cercles concentriques relevés dans le fond diffus cosmologique. D’après eux, notre Univers serait un genre de bulle qui se balade dans un cosmos beaucoup plus grand et qui parfois s’entrechoque avec d’autres bulles… c’est à dire d’autres univers. Cela aurait provoqué le Big Bang et laissé ces traces résiduelles. Ils ont d’ailleurs relevé 4 cercles de ce type, ce qui voudrait dire que notre Univers est rentré en collision au moins 4 fois avec d’autres univers, provoquant 4 Big Bang différents.

Cette théorie serait une preuve encore plus extraordinaire que la précédente : Il existerait d’autres univers.

Des univers où les lois de la physique pourrait être très différents du notre ce qui j’avoue donne le vertige à mon imagination. Après impossible de savoir si ces univers rentrent dans le cadre de la théorie des univers parallèles si chère à Maximillian Arturo.

Quoiqu’il en soit, ce ne sont que des théories basées sur des statistiques et des données qui changeront ou évolueront surement au fil des années grâce à la précision grandissante des appareils de mesure. D’ailleurs ces relevés ne sont pas identiques selon les groupes de chercheurs qui travaillent sur le sujet.

Dans tous les cas, il s’agit d’une découverte scientifiques notable en terme de cosmologie.

 

Edit : Ça m’a échappé (fail !), mais cet article du MIT date de 2010. Donc les théories ont encore dû évoluer depuis. En tout cas, ce genre de réflexion sur les univers reste passionnant à suivre.

>>> Source sur : http://korben.info/il-existerait-bien-dautres-univers.html#RwHtug6tkcpO4sdM.99

Tagué

Dorénavant il y aura GNOME 3 Moderne et GNOME 3 Classique

 

Interface de GNOME 1.0 (1999)

La version 7 de Red Hat Enterprise Linux (RHEL en abrégé) sera habillée par GNOME 3 dans son mode Classique, c’est-à-dire le mode apparu avec la version 3.8 de GNOME, qui tente de reproduire l’ergonomie de GNOME 2 à l’aide d’extensions pour GNOME Shell (rien à voir avec le mode Restreint alias Fallbackqui était livré avec les précédentes versions de GNOME 3 et qui utilisait des technologies spécifiques).

Pour mémoire :

  • RHEL est une distribution GNU/Linux produite par Red Hat et orientée vers l’entreprise. Si de nouvelles versions de RHEL sont livrées tous les deux ans environ (la version 6 date du 10 novembre 2010), Red Hat prend en charge chaque version du logiciel pour une durée de 10 ans, voire 13 ans après sa sortie. Il s’agit là de quelque chose de complètement inhabituel pour le grand public accoutumé à des délais de support bien plus courts (par exemple Debian qui sort également une nouvelle version tous les deux ans environ, prend en charge l’ancienne version pendant encore un an après la parution de la nouvelle, soit une durée de prise en charge de trois ans environ pour chaque version – rappelons toutefois que Debian est un projet communautaire).
  • Red Hat est un des principaux sponsors de GNOME.

Avec cette décision de Red Hat, gageons que beaucoup vont considérer dorénavant le mode Classique d’un œil différent, c’est-à-dire comme une des deux variantes officielles de GNOME 3 et pas seulement comme une version appauvrie ou transitoire de GNOME 3.

Par ailleurs on peut se demander si RHEL passera un jour au mode Moderne introduit par défaut avec la série 3.x de GNOME, ou restera définitivement attachée à l’ergonomie de GNOME 2.x…

PS : Rassurez-vous, la capture d’écran en tête du billet est celle de GNOME 1.0 qui date de 1999, un délai pas si long toutefois à l’échelle de RHEL…

(source : RHEL 7 is shipping GNOME Shell in Classic Mode – worldofgnome.org)

Coupure temporaire

Petit message pour vous dire que mon copain qui héberge mes sites a fait sa demande de dégroupage total et qu’il va donc y avoir une coupure de l’accès au serveur de maxi 72 heures dans quelques jours. Désolé de la gêne occasionnée.