Dimanche, 30 Avril

Dernière mise à jour28/04/2017 12:30:43 PM GMT

Vous êtes ici Articles Logiciels et jeux vidéo

Logiciels et jeux vidéo

Les pérégrinations de Swim au pays de Linux : épisode 1

Envoyer Imprimer

Vous est-il arrivé de faire un pari que vous n'ayez un jour regretté ? Ou ne vous êtes vous jamais posé la question de ce qu'aurait été votre vie si vous aviez fait un choix différent à un moment donné ? Ne vous êtes vous jamais dit que vous auriez vraiment du la fermer, plutôt que de laisser parler la testostérone ? Moi si...
 
    - Bon ... On y est ... Là je peux plus reculer. J'ai bien tout sauvegarder sur le NAS et pourtant y'a un je ne sais quoi qui me rappelle le drame de 2001 et la malencontreuse perte des photos de vacances... Ma femme ne me l'a jamais pardonné...
C'est sur qu'avec la perte de ses mails...
Non là, tout est OK. J'espère juste qu'il ne me foute pas la MBR en l'air ! Depuis le temps, ils ont du faire des progrès avec les distrib' Linux... 
Bon de toute façon le pari « Kasteel » c'était ça, ou donner mon corps à la science alors...
 
    - ... alors, tu l'enfonces cette touche « Entrée » ? 
Va falloir arrêter de se la jouer conservateur à la Mc Cain, faut vivre avec son temps ! 
Qui n'a pas essayé Linux de nos jour ? Hein, dit moi ? 
Toi qui en plus fait parti de ceux qui l'ouvrent toujours plus grand que les autres, tu mouilles ton pantalon pour trois tour de CD et une nouvelle partition ! Tient, je suis sur que même chez Clubic y'en à bien un qui tourne sous Linux alors... "
 
C'est sur ce dialogue avec ma conscience que je me suis lancé dans la grand aventure du logiciel libre, et que pour le première fois de ma vie, j'ai laissé entré Linux dans un de mes disques durs. C'est cette histoire que je vais vous relater ...
 

 test_linux_11_450.jpg

 

Un partitionnement dans la douleur
 
    - Et merde, je le savais : l'instal' elle foire, ça fait pas 5 minutes ! C'est nul linux, ça plante dès le partitionnement, même XP il fait pas ça lui. J'ai quand même dégagé 40 Go et je voit que dalle !
Allez, c'est bon je lache tout. Tu va voir qu'il à foutu en l'air mon XP et je suis bon pour 1 semaine de galère.

    - Ha bah bravo! Vive la conscience professionnelle ! Un bug d'installation et ca pigne comme tiot' qu'a renversé sa glace. 
T'as jamais eu d'instal de windows qui plante ? T'es sur que t'a pas fait une connerie ?

    - Hé oh, molo les sarcasmes. C'est pas toi qui assume derrière, et je te rappelle que je suis bénévole dans l'histoire ! Et puis j'ai suivi le tuto ... ha oué, non, j'ai peut etre oublié un truc...»

    - Swim, il a pas d'organe, Swim, il à pas d'organe ! 

    - ... 
 
Face à cette argumentation sans faille, je n'ai pu que persévérer. 
Le problème apparait juste après le boot sur le DVD d'instalation, au moment de choisir la partition d'instalation : l'espace libre non partitionné n'est pas disponible.

J'ai donc booté sur le CD  pour pouvoir accéder à un outil nommé "Gparted" et créer une partition formatée en "EXT2. C'est un oubli plus ou moins volontaire au sens ou, sous windows XP, j'ai bien dégagé de l'espace libre, mais sans pouvoir formater la nouvelle partition dans un des formats recommandé pour Linux. Du coup j'avais laissé en plan, pensant que ca passerait... 
Néanmoins c'est quand même super confortable de pouvoir booter sur le CD est de tomber sur un OS parfaitement fonctionnel avec plein de programmes dispo...

test_linux_10_150.jpg  test_linux_07_450.jpg

  
 
    - Non mais il va pas continuer longtemps à taper sur le système. Comme quoi y'aurait pas assez d'espace libre ! 40 Go ca suffit pas ??? Et puis c'est quoi c'est noms à la con "sda1", "sdb"? Il peut pas donner les tailles des disques plutot ?

    - Hé bé... On est pas arrivé dans le monde du logiciel libre vu comment t'es réfractaire. Je savais que t'avais toujours été un peu "campouze" sur les bord.
 
 

test_linux_01.jpgJe tient à précicer que je manie très bien le "Flack cannon". Je promet que le prochain larynx qui m'attribue l'adjectif "campouze" se retrouvera désolidarisé de son propriétaire.

Il existe quatres options disponibles dans le menu de choix de la partition à attribuer à Linux :
- Guided : l'espace libre d'un disque est choisit automatiquement, puis patitionné et formaté pour acceuillir notre distribution. Ce choix nous santionne d'une joli " Pas assez d'espace disponible" malgré les 40 Go libérés.
- Assisté - utiliser un disque en entier : ce qui consitute donc un motif de divorce dans notre cas. 
- Assisté - utiliser le plus grand espace disponible : toujours pas assez d'espace disque disponible...
- Manuel : c'est notre dernier choix ...

 

test_linux_15_150.jpg  test_linux_16_150.JPG  test_linux_17_150.jpg
test_linux_18_150.JPG  test_linux_19_150.jpg  test_linux_20_150.JPG
Voilà qui met parfaitement en confiance  ...

 

J'ai donc navigué un temps dans le mode manuel, et ai découvert le lexique si particulier de linux. Il semble que le caractère de base de ce language soit le "/"... Au moment du choix des disques, point de "SAMSUNG_XV_567895-500Go" pour nous repérer au sein de nos partitions. Non. Par contre plein de jolis /dev/sda1, /dev/sdb ou /dev/sdb2, heureusement annotés de leur taille respective. Une dificulté en cachant une autre, la fière sélection de notre partition de 40 Go (/dev/sda3) se solde par un doux message : "Erreur, aucun système de fichier n'a été choici comme racine". Ce que l'on peut traduire par "même joueur, joue encore" pour rester poli. Une cinquantaine de clic plus tard (et surtout un clic droit sur la partition) j'arrive enfin à une fenetre proposant de choisir un système de fichier et surtout un "point de montage". N'y comprenant toujours rien, je me rabat sur mes piètres connaissance et choisis le système "ext2", puis fait appel à ma logique implacable pour choisir comme point de montage la caractère de base, la fondation même de Linux : "/".

Insertion image 450 Avec clic droit

 

La copie des fichiers commence, les aplaudissements résonnent dans ma tête, je m'écroule, complètement vidé sur mon clavier.

 

Copier n'est pas jouer
 
A l'instar de Windows, les étapes suivantes de l'instalation consistent à choisir un nom d'utilisateur, un mot de passe, un type de clavier, un fuseau horaire et une dernière étape pour le moins surprenante.
 
    - Ouahhhhhhh, c'est terrible, il à repéré mon instal de windows et me propose d'importer mes documents et paramètres ! En plus il me laisse la possibilité de choisir l'utilisateur !

    - Rassure moi, tu remercie pas le soleil de se lever la matin quand même ?

    - Allez, je sélectionne swim et roule ma poule, c'est parti la copiiiii... arghhhh ! C'est quoi cette sournoise erreur de copie...  J'en ai marre, je pourrais pas avoir du bol de temps en temps ? Que tout marche du premier coup ?
 
Malgré cette petite pointe de découragement et après 3 gravures successives, il s'avère que les médias utilisés étaient défectueux pour deux raisons :
- Un téléchargement de moyenne qualité responsable d'une image disque abîmée, pourtant parfaitement bien copiée sur les CD ou DVD.
- Une gravure qui avait pioché respectivement 3 puis 1 fois dans la technologie « safeburn » (mise en pause de la gravure si le tampon est vide), et qui entraînait une erreur de lecture à chaque fois.
 
C'est donc après cette dernière épreuve, autant diagnostique que thérapeutique, que la copie des fichiers s'est déroulée normalement. Pour la première fois de notre vie, Linux démarrait à partir d'une de nos disque durs. (vous pouvez verser une petite larme, merci)
 

test_linux_23_450.JPG
Wouaaah !!! C'est joli, et sans rien faire du tout en plus ! On dirait pas un Héron d'ailleurs ?

 
    - Bon là il faut pas que je me rate. Y'à le vidéoprojecteur qui chauffe, madame est calée entre deux coussins, le regard rivé sur l'écran du PC, le sourcil froncé ... Non faut vraiment pas que je me plante et c'est le premier démarrage d'Ubuntu. 
Yata !!! Le vidéoproj et mon écran sont reconnus du premier coup et le double écran activé en mode clone déjà activé ! Allez avec un peu de chance on va voir Dr House pointer le bout de son nez sans que je galère.

    - On mange quoi ce soir ?

    - Tu sais que tu devient vraiment désagréable toi ?

    - Ouais ben tu dis pas toujours ça. Surtout quand tu sors : "j'ai ma conscience pour moi !"

    - Bon chut, ça commence !

    - Chériiiii, pourquoi l'écran du vidéo projecteur il est tout noir ???

    - Et merdouille ...
 
Malheureusement, les débuts enchanteurs tournent à la catastrophe. L'idylle était bien au programme : pas de drivers à installer, tous les périphériques de base fonctionnent parfaitement, même mon ensemble clavier souris Bluetooth de chez Microsoft et ses raccourcis ! Le programme de lecture vidéo à fait ce que le Lecteur Windows Média n'avait jamais réussi à faire : choper des drivers sur le net et permettre de lire la vidéo du premier coup. Les deux écrans sont bien reconnus dans leur résolution native, et le mode clone activé.

test_linux_05_150.jpg  test_linux_04_150.jpg
Un écran et un vidéoprojecteur parfaitement reconnus du premier coup et au premier boot, ca vous pose un OS là.
 
test_linux_08_150.jpg  test_linux_09_150.jpg
Là, le but en fait, c'est quand même d'avoir la même chose sur les deux écrans, ou alors que sur celui de droite. Raté.


Mais c'était trop demander : la vidéo ne s'affiche que sur l'écran et non sur le vidéoprojecteur ou la fenêtre nous propose une pale noirceur, qui ne tarde pas à se transmettre à l'humeur de ma chère et tendre épouse ...

Swim au pays de Linux : episode 1

Envoyer Imprimer

Vous est-il arrivé de faire un pari que vous n'ayez un jour regretté ? Ou ne vous êtes vous jamais posé la question de ce qu'aurait été votre vie si vous aviez fait un choix différent à un moment donné ? Ne vous êtes vous jamais dit que vous auriez vraiment du la fermer, plutôt que de laisser parler la testostérone ? Moi si...
 
    - Bon ... On y est ... Là je peux plus reculer. J'ai bien tout sauvegarder sur le NAS et pourtant y'a un je ne sais quoi qui me rappelle le drame de 2001 et la malencontreuse perte des photos de vacances... Ma femme ne me l'a jamais pardonné...
C'est sur qu'avec la perte de ses mails...
Non là, tout est OK. J'espère juste qu'il ne me foute pas la MBR en l'air ! Depuis le temps, ils ont du faire des progrès avec les distrib' Linux... 
Bon de toute façon le pari « Kasteel » c'était ça, ou donner mon corps à la science alors...
 
    - ... alors, tu l'enfonces cette touche « Entrée » ? 
Va falloir arrêter de se la jouer conservateur à la Mc Cain, faut vivre avec son temps ! 
Qui n'a pas essayé Linux de nos jour ? Hein, dit moi ? 
Toi qui en plus fait parti de ceux qui l'ouvrent toujours plus grand que les autres, tu mouilles ton pantalon pour trois tour de CD et une nouvelle partition ! Tient, je suis sur que même chez Clubic y'en à bien un qui tourne sous Linux alors... "
 
C'est sur ce dialogue avec ma conscience que je me suis lancé dans la grand aventure du logiciel libre, et que pour le première fois de ma vie, j'ai laissé entré Linux dans un de mes disques durs. C'est cette histoire que je vais vous relater ...
 

 test_linux_11_450.jpg

 

Un partitionnement dans la douleur
 
    - Et merde, je le savais : l'instal' elle foire, ça fait pas 5 minutes ! C'est nul linux, ça plante dès le partitionnement, même XP il fait pas ça lui. J'ai quand même dégagé 40 Go et je voit que dalle !
Allez, c'est bon je lache tout. Tu va voir qu'il à foutu en l'air mon XP et je suis bon pour 1 semaine de galère.

    - Ha bah bravo! Vive la conscience professionnelle ! Un bug d'installation et ca pigne comme tiot' qu'a renversé sa glace. 
T'as jamais eu d'instal de windows qui plante ? T'es sur que t'a pas fait une connerie ?

    - Hé oh, molo les sarcasmes. C'est pas toi qui assume derrière, et je te rappelle que je suis bénévole dans l'histoire ! Et puis j'ai suivi le tuto ... ha oué, non, j'ai peut etre oublié un truc...»

    - Swim, il a pas d'organe, Swim, il à pas d'organe ! 

    - ... 
 
Face à cette argumentation sans faille, je n'ai pu que persévérer. 
Le problème apparait juste après le boot sur le DVD d'instalation, au moment de choisir la partition d'instalation : l'espace libre non partitionné n'est pas disponible.

J'ai donc booté sur le CD  pour pouvoir accéder à un outil nommé "Gparted" et créer une partition formatée en "EXT2. C'est un oubli plus ou moins volontaire au sens ou, sous windows XP, j'ai bien dégagé de l'espace libre, mais sans pouvoir formater la nouvelle partition dans un des formats recommandé pour Linux. Du coup j'avais laissé en plan, pensant que ca passerait... 
Néanmoins c'est quand même super confortable de pouvoir booter sur le CD est de tomber sur un OS parfaitement fonctionnel avec plein de programmes dispo...

test_linux_10_150.jpg  test_linux_07_450.jpg

  
 
    - Non mais il va pas continuer longtemps à taper sur le système. Comme quoi y'aurait pas assez d'espace libre ! 40 Go ca suffit pas ??? Et puis c'est quoi c'est noms à la con "sda1", "sdb"? Il peut pas donner les tailles des disques plutot ?

    - Hé bé... On est pas arrivé dans le monde du logiciel libre vu comment t'es réfractaire. Je savais que t'avais toujours été un peu "campouze" sur les bord.
 
 

test_linux_01.jpgJe tient à précicer que je manie très bien le "Flack cannon". Je promet que le prochain larynx qui m'attribue l'adjectif "campouze" se retrouvera désolidarisé de son propriétaire.

Il existe quatres options disponibles dans le menu de choix de la partition à attribuer à Linux :
- Guided : l'espace libre d'un disque est choisit automatiquement, puis patitionné et formaté pour acceuillir notre distribution. Ce choix nous santionne d'une joli " Pas assez d'espace disponible" malgré les 40 Go libérés.
- Assisté - utiliser un disque en entier : ce qui consitute donc un motif de divorce dans notre cas. 
- Assisté - utiliser le plus grand espace disponible : toujours pas assez d'espace disque disponible...
- Manuel : c'est notre dernier choix ...

 

test_linux_15_150.jpg  test_linux_16_150.JPG  test_linux_17_150.jpg
test_linux_18_150.JPG  test_linux_19_150.jpg  test_linux_20_150.JPG
Voilà qui met parfaitement en confiance  ...

 

J'ai donc navigué un temps dans le mode manuel, et ai découvert le lexique si particulier de linux. Il semble que le caractère de base de ce language soit le "/"... Au moment du choix des disques, point de "SAMSUNG_XV_567895-500Go" pour nous repérer au sein de nos partitions. Non. Par contre plein de jolis /dev/sda1, /dev/sdb ou /dev/sdb2, heureusement annotés de leur taille respective. Une dificulté en cachant une autre, la fière sélection de notre partition de 40 Go (/dev/sda3) se solde par un doux message : "Erreur, aucun système de fichier n'a été choici comme racine". Ce que l'on peut traduire par "même joueur, joue encore" pour rester poli. Une cinquantaine de clic plus tard (et surtout un clic droit sur la partition) j'arrive enfin à une fenetre proposant de choisir un système de fichier et surtout un "point de montage". N'y comprenant toujours rien, je me rabat sur mes piètres connaissance et choisis le système "ext2", puis fait appel à ma logique implacable pour choisir comme point de montage la caractère de base, la fondation même de Linux : "/".

Insertion image 450 Avec clic droit

 

La copie des fichiers commence, les aplaudissements résonnent dans ma tête, je m'écroule, complètement vidé sur mon clavier.

 

Copier n'est pas jouer
 
A l'instar de Windows, les étapes suivantes de l'instalation consistent à choisir un nom d'utilisateur, un mot de passe, un type de clavier, un fuseau horaire et une dernière étape pour le moins surprenante.
 
    - Ouahhhhhhh, c'est terrible, il à repéré mon instal de windows et me propose d'importer mes documents et paramètres ! En plus il me laisse la possibilité de choisir l'utilisateur !

    - Rassure moi, tu remercie pas le soleil de se lever la matin quand même ?

    - Allez, je sélectionne swim et roule ma poule, c'est parti la copiiiii... arghhhh ! C'est quoi cette sournoise erreur de copie...  J'en ai marre, je pourrais pas avoir du bol de temps en temps ? Que tout marche du premier coup ?
 
Malgré cette petite pointe de découragement et après 3 gravures successives, il s'avère que les médias utilisés étaient défectueux pour deux raisons :
- Un téléchargement de moyenne qualité responsable d'une image disque abîmée, pourtant parfaitement bien copiée sur les CD ou DVD.
- Une gravure qui avait pioché respectivement 3 puis 1 fois dans la technologie « safeburn » (mise en pause de la gravure si le tampon est vide), et qui entraînait une erreur de lecture à chaque fois.
 
C'est donc après cette dernière épreuve, autant diagnostique que thérapeutique, que la copie des fichiers s'est déroulée normalement. Pour la première fois de notre vie, Linux démarrait à partir d'une de nos disque durs. (vous pouvez verser une petite larme, merci)
 

test_linux_23_450.JPG
Wouaaah !!! C'est joli, et sans rien faire du tout en plus ! On dirait pas un Héron d'ailleurs ?

 
    - Bon là il faut pas que je me rate. Y'à le vidéoprojecteur qui chauffe, madame est calée entre deux coussins, le regard rivé sur l'écran du PC, le sourcil froncé ... Non faut vraiment pas que je me plante et c'est le premier démarrage d'Ubuntu. 
Yata !!! Le vidéoproj et mon écran sont reconnus du premier coup et le double écran activé en mode clone déjà activé ! Allez avec un peu de chance on va voir Dr House pointer le bout de son nez sans que je galère.

    - On mange quoi ce soir ?

    - Tu sais que tu devient vraiment désagréable toi ?

    - Ouais ben tu dis pas toujours ça. Surtout quand tu sors : "j'ai ma conscience pour moi !"

    - Bon chut, ça commence !

    - Chériiiii, pourquoi l'écran du vidéo projecteur il est tout noir ???

    - Et merdouille ...
 
Malheureusement, les débuts enchanteurs tournent à la catastrophe. L'idylle était bien au programme : pas de drivers à installer, tous les périphériques de base fonctionnent parfaitement, même mon ensemble clavier souris Bluetooth de chez Microsoft et ses raccourcis ! Le programme de lecture vidéo à fait ce que le Lecteur Windows Média n'avait jamais réussi à faire : choper des drivers sur le net et permettre de lire la vidéo du premier coup. Les deux écrans sont bien reconnus dans leur résolution native, et le mode clone activé.

test_linux_05_150.jpg  test_linux_04_150.jpg
Un écran et un vidéoprojecteur parfaitement reconnus du premier coup et au premier boot, ca vous pose un OS là.
 
test_linux_08_150.jpg  test_linux_09_150.jpg
Là, le but en fait, c'est quand même d'avoir la même chose sur les deux écrans, ou alors que sur celui de droite. Raté.


Mais c'était trop demander : la vidéo ne s'affiche que sur l'écran et non sur le vidéoprojecteur ou la fenêtre nous propose une pale noirceur, qui ne tarde pas à se transmettre à l'humeur de ma chère et tendre épouse ...

Cassez vous les curieux !

Envoyer Imprimer

Vous est-il arrivé de faire un pari que vous n'ayez un jour regretté ? Ou ne vous êtes vous jamais posé la question de ce qu'aurait été votre vie si vous aviez fait un choix différent à un moment donné ? Ne vous êtes vous jamais dit que vous auriez vraiment du la fermer, plutôt que de laisser parler la testostérone ? Moi si...
 
    - Bon ... On y est ... Là je peux plus reculer. J'ai bien tout sauvegarder sur le NAS et pourtant y'a un je ne sais quoi qui me rappelle le drame de 2001 et la malencontreuse perte des photos de vacances... Ma femme ne me l'a jamais pardonné...
C'est sur qu'avec la perte de ses mails...
Non là, tout est OK. J'espère juste qu'il ne me foute pas la MBR en l'air ! Depuis le temps, ils ont du faire des progrès avec les distrib' Linux... 
Bon de toute façon le pari « Kasteel » c'était ça, ou donner mon corps à la science alors...
 
    - ... alors, tu l'enfonces cette touche « Entrée » ? 
Va falloir arrêter de se la jouer conservateur à la Mc Cain, faut vivre avec son temps ! 
Qui n'a pas essayé Linux de nos jour ? Hein, dit moi ? 
Toi qui en plus fait parti de ceux qui l'ouvrent toujours plus grand que les autres, tu mouilles ton pantalon pour trois tour de CD et une nouvelle partition ! Tient, je suis sur que même chez Clubic y'en à bien un qui tourne sous Linux alors... "
 
C'est sur ce dialogue avec ma conscience que je me suis lancé dans la grand aventure du logiciel libre, et que pour le première fois de ma vie, j'ai laissé entré Linux dans un de mes disques durs. C'est cette histoire que je vais vous relater ...
 

 test_linux_11_450.jpg

 

Un partitionnement dans la douleur
 
    - Et merde, je le savais : l'instal' elle foire, ça fait pas 5 minutes ! C'est nul linux, ça plante dès le partitionnement, même XP il fait pas ça lui. J'ai quand même dégagé 40 Go et je voit que dalle !
Allez, c'est bon je lache tout. Tu va voir qu'il à foutu en l'air mon XP et je suis bon pour 1 semaine de galère.

    - Ha bah bravo! Vive la conscience professionnelle ! Un bug d'installation et ca pigne comme tiot' qu'a renversé sa glace. 
T'as jamais eu d'instal de windows qui plante ? T'es sur que t'a pas fait une connerie ?

    - Hé oh, molo les sarcasmes. C'est pas toi qui assume derrière, et je te rappelle que je suis bénévole dans l'histoire ! Et puis j'ai suivi le tuto ... ha oué, non, j'ai peut etre oublié un truc...»

    - Swim, il a pas d'organe, Swim, il à pas d'organe ! 

    - ... 
 
Face à cette argumentation sans faille, je n'ai pu que persévérer. 
Le problème apparait juste après le boot sur le DVD d'instalation, au moment de choisir la partition d'instalation : l'espace libre non partitionné n'est pas disponible.

J'ai donc booté sur le CD  pour pouvoir accéder à un outil nommé "Gparted" et créer une partition formatée en "EXT2. C'est un oubli plus ou moins volontaire au sens ou, sous windows XP, j'ai bien dégagé de l'espace libre, mais sans pouvoir formater la nouvelle partition dans un des formats recommandé pour Linux. Du coup j'avais laissé en plan, pensant que ca passerait... 
Néanmoins c'est quand même super confortable de pouvoir booter sur le CD est de tomber sur un OS parfaitement fonctionnel avec plein de programmes dispo...

test_linux_10_150.jpg  test_linux_07_450.jpg

  
 
    - Non mais il va pas continuer longtemps à taper sur le système. Comme quoi y'aurait pas assez d'espace libre ! 40 Go ca suffit pas ??? Et puis c'est quoi c'est noms à la con "sda1", "sdb"? Il peut pas donner les tailles des disques plutot ?

    - Hé bé... On est pas arrivé dans le monde du logiciel libre vu comment t'es réfractaire. Je savais que t'avais toujours été un peu "campouze" sur les bord.
 
 

test_linux_01.jpgJe tient à précicer que je manie très bien le "Flack cannon". Je promet que le prochain larynx qui m'attribue l'adjectif "campouze" se retrouvera désolidarisé de son propriétaire.

Il existe quatres options disponibles dans le menu de choix de la partition à attribuer à Linux :
- Guided : l'espace libre d'un disque est choisit automatiquement, puis patitionné et formaté pour acceuillir notre distribution. Ce choix nous santionne d'une joli " Pas assez d'espace disponible" malgré les 40 Go libérés.
- Assisté - utiliser un disque en entier : ce qui consitute donc un motif de divorce dans notre cas. 
- Assisté - utiliser le plus grand espace disponible : toujours pas assez d'espace disque disponible...
- Manuel : c'est notre dernier choix ...

 

test_linux_15_150.jpg  test_linux_16_150.JPG  test_linux_17_150.jpg
test_linux_18_150.JPG  test_linux_19_150.jpg  test_linux_20_150.JPG
Voilà qui met parfaitement en confiance  ...

 

J'ai donc navigué un temps dans le mode manuel, et ai découvert le lexique si particulier de linux. Il semble que le caractère de base de ce language soit le "/"... Au moment du choix des disques, point de "SAMSUNG_XV_567895-500Go" pour nous repérer au sein de nos partitions. Non. Par contre plein de jolis /dev/sda1, /dev/sdb ou /dev/sdb2, heureusement annotés de leur taille respective. Une dificulté en cachant une autre, la fière sélection de notre partition de 40 Go (/dev/sda3) se solde par un doux message : "Erreur, aucun système de fichier n'a été choici comme racine". Ce que l'on peut traduire par "même joueur, joue encore" pour rester poli. Une cinquantaine de clic plus tard (et surtout un clic droit sur la partition) j'arrive enfin à une fenetre proposant de choisir un système de fichier et surtout un "point de montage". N'y comprenant toujours rien, je me rabat sur mes piètres connaissance et choisis le système "ext2", puis fait appel à ma logique implacable pour choisir comme point de montage la caractère de base, la fondation même de Linux : "/".

Insertion image 450 Avec clic droit

 

La copie des fichiers commence, les aplaudissements résonnent dans ma tête, je m'écroule, complètement vidé sur mon clavier.

 

Copier n'est pas jouer
 
A l'instar de Windows, les étapes suivantes de l'instalation consistent à choisir un nom d'utilisateur, un mot de passe, un type de clavier, un fuseau horaire et une dernière étape pour le moins surprenante.
 
    - Ouahhhhhhh, c'est terrible, il à repéré mon instal de windows et me propose d'importer mes documents et paramètres ! En plus il me laisse la possibilité de choisir l'utilisateur !

    - Rassure moi, tu remercie pas le soleil de se lever la matin quand même ?

    - Allez, je sélectionne swim et roule ma poule, c'est parti la copiiiii... arghhhh ! C'est quoi cette sournoise erreur de copie...  J'en ai marre, je pourrais pas avoir du bol de temps en temps ? Que tout marche du premier coup ?
 
Malgré cette petite pointe de découragement et après 3 gravures successives, il s'avère que les médias utilisés étaient défectueux pour deux raisons :
- Un téléchargement de moyenne qualité responsable d'une image disque abîmée, pourtant parfaitement bien copiée sur les CD ou DVD.
- Une gravure qui avait pioché respectivement 3 puis 1 fois dans la technologie « safeburn » (mise en pause de la gravure si le tampon est vide), et qui entraînait une erreur de lecture à chaque fois.
 
C'est donc après cette dernière épreuve, autant diagnostique que thérapeutique, que la copie des fichiers s'est déroulée normalement. Pour la première fois de notre vie, Linux démarrait à partir d'une de nos disque durs. (vous pouvez verser une petite larme, merci)
 

test_linux_23_450.JPG
Wouaaah !!! C'est joli, et sans rien faire du tout en plus ! On dirait pas un Héron d'ailleurs ?

 
    - Bon là il faut pas que je me rate. Y'à le vidéoprojecteur qui chauffe, madame est calée entre deux coussins, le regard rivé sur l'écran du PC, le sourcil froncé ... Non faut vraiment pas que je me plante et c'est le premier démarrage d'Ubuntu. 
Yata !!! Le vidéoproj et mon écran sont reconnus du premier coup et le double écran activé en mode clone déjà activé ! Allez avec un peu de chance on va voir Dr House pointer le bout de son nez sans que je galère.

    - On mange quoi ce soir ?

    - Tu sais que tu devient vraiment désagréable toi ?

    - Ouais ben tu dis pas toujours ça. Surtout quand tu sors : "j'ai ma conscience pour moi !"

    - Bon chut, ça commence !

    - Chériiiii, pourquoi l'écran du vidéo projecteur il est tout noir ???

    - Et merdouille ...
 
Malheureusement, les débuts enchanteurs tournent à la catastrophe. L'idylle était bien au programme : pas de drivers à installer, tous les périphériques de base fonctionnent parfaitement, même mon ensemble clavier souris Bluetooth de chez Microsoft et ses raccourcis ! Le programme de lecture vidéo à fait ce que le Lecteur Windows Média n'avait jamais réussi à faire : choper des drivers sur le net et permettre de lire la vidéo du premier coup. Les deux écrans sont bien reconnus dans leur résolution native, et le mode clone activé.

test_linux_05_150.jpg  test_linux_04_150.jpg
Un écran et un vidéoprojecteur parfaitement reconnus du premier coup et au premier boot, ca vous pose un OS là.
 
test_linux_08_150.jpg  test_linux_09_150.jpg
Là, le but en fait, c'est quand même d'avoir la même chose sur les deux écrans, ou alors que sur celui de droite. Raté.


Mais c'était trop demander : la vidéo ne s'affiche que sur l'écran et non sur le vidéoprojecteur ou la fenêtre nous propose une pale noirceur, qui ne tarde pas à se transmettre à l'humeur de ma chère et tendre épouse ...

59Chrono : Google Chrome, la guerre des navigateurs par Google

Envoyer Imprimer

Introduction

Les vacances sont terminées, Google l’a bien compris et attaque cette rentrée sur les chapeaux de roue ! En effet, des rumeurs faisaient état d’un navigateur Web made in Google, c’est maintenant officiel et fait ! Google donne naissance à Chrome, un fureteur qui vient directement concurrencer les ténors que sont Firefox, Internet Explorer, Opera et autres.
Comme à son habitude Google place la barre très haut ! Alors effet d’annonce ou bien s’agit-il encore d’un coup de maître du géant Google ?

Le navigateur Web

Aspect général et prise en main


Au premier lancement de Chrome ce qui est le plus frappant  n'est  autre que l’interface : simple, très simple même quasiment sans menu.  On se sent presque perdu, mais heureusement cette sensation ne dure pas plus de quelques secondes. La prise en main est très rapide tout en étant excellente, le navigateur possède une ergonomie vraiment bien étudiée. Quand nous ouvrons un nouvel onglet apparaissent alors les favoris, les sites les plus visités et un champ pour des recherches.
Bref, Chrome est simple, efficace et convivial. Pour ma part, étant un habitué de Firefox , je dois bien avouer que Chrome m’a vite conquis. Un dernier élément à ne pas négliger : plus de place pour la page web ! Comme nous pouvons le découvrir sur les deux images du dessous, Chrome permet d'afficher trois ou quatre actus de plus.

Chrome
Firefox 3


La navigation privée

Alors que le débat fut lancé avec Explorer 8, la navigation privée fait une entrée remarquée dans Chrome. Cette option permet de surfer sur le web en toute discrétion : aucune trace dans l’historique, pas de cookies stockés définitivement et des mots de passe non retenus. Certains y verront un intérêt, d’autres un moyen détourné d’aller sur des sites peu recommandables ; dans tous les cas c’est possible. Un petit agent secret posté en haut à gauche permet de vérifier que nous sommes en mode privé.

La séparation des process

Google avance comme nouveauté un cloisonnement des process du navigateur qui permet à chaque onglet et/ou fenêtre d’être indépendant des autres. En clair, un onglet fait planter le navigateur, ce n’est pas grave les autres continuent de fonctionner normalement.


Outils pour dévelopeur

Encore quelques bonnes idées pour nous les Webmestres dans ce Google Chrome. Des outils pour Webmaster utiles avec une console de débogage Javascript plutôt bien pensée. Nous pouvons nous déplacer dans le code source de la page, Chrome met un filtre jaune sur les parties de la page en cours de consultation. De bonnes idées qui pourront se révéler fort pratique à l'usage.

FTP, RSS et autres

Pas la peine de se réjouir par contre pour le reste. Le FTP est assez aléatoire, il vaut mieux éviter de l’utiliser. Pour les flux RSS ils ne sont pas, pour le moment du moins, supportés et Chrome se contentera d’afficher des lignes de texte.  Rien de bien grave pour autant, il ne faut pas oublier que Chrome n’est qu’en version 0.2, on est encore loin d’une version définitive.

Les performances

Pour essayer de situer au mieux les performances de Chrome nous allons le comparer à d’autres navigateurs Web comme Internet Explorer 7, Firefox 2.0.0.16 et Firefox 3.0.1.

Les tests ACID 2 et 3

Google Chrome
Firefox 3
Internet Explorer 7



Ils sont connus et réussir le test ACID n’est pas chose évidente, pour preuve Internet Explorer 7 qui n’arrive toujours pas à afficher la petite tête jaune correctement. Pour plus de détails sur le test ACID 2 ou 3 je vous renvoie vers Wikipedia.

Chrome et Firefox réussissent parfaitement le test ACID2, Internet Explorer fait lui toujours dans le Picasso en pleine période bleue…

Google Chrome
Firefox 3
Internet Explorer 7

Pour Acid 3 personne n’arrive à la note maximale pour le moment.  Google Chrome parvient quand même à se hisser en première place avec 78/100 suivi de Firefox 3 avec 71/100 et enfin Internet Explorer avec 12/100.

Occupation mémoire


Deux tests seront réalisés pour définir la mémoire occupée par les navigateurs.  Le premier consiste à simplement lancer le navigateur web et attendre 1 minute, pour le second nous ouvrons 12 onglets avec des pages Web et attendons 1 minute là aussi avant de relever l’espace mémoire occupé. A noter que toutes les pages se sont chargées dans la minute à chaque fois.

Google Chrome Firefox 3 Internet Explorer 7
Premier démarrage
17.8 (12+5.8)
17.4
8.6
12 onglets ouverts

230

135
220
Chrome séparant les processus, on se retrouve des le début avec deux process : le navigateur et l'onglet ouvert par défaut.

Au démarrage Internet Explorer occupe deux fois moins de place en mémoire que les deux autres. Chrome et Firefox 3 sont quant à eux à égalité. Une fois les 12 onglets ouverts le plus économe est Firefox 3 avec 135 Mo vient ensuite Internet Explorer avec 220 Mo et Google Chrome arrive bon dernier avec 230 Mo. Chrome paye peut-être ici la séparation des process de chacun de ses onglets, ils occupent au final plus de place en mémoire.

Bench CSS et javascript.


Pour Javascript nous avons utilisé le test du site Celtic Kane (disponible ici)
Là encore les résultats sont catastrophiques pour Internet Explorer 7 qui accuse un total moyen de 866 ms, Firefox 2 fait pas beaucoup mieux avec  809 ms alors que Chrome et Firefox 3 sont à égalité avec respectivement 408 ms et 407 ms

Pour notre deuxième benchmark nous avons utilisé CSS rendering benchmark du test Howtocreate

Internet Explorer à la traîne avec 360 ms, cela devient habituel, Firefox qu’il soit en version 2 ou 3 fait mieux avec respectivement 254 ms et 230 ms, mais dans tous les cas Google Chrome fait vraiment mieux avec seulement 50 ms !

Conclusion.

Alors au final que penser de Chrome ? Et bien que des bonnes choses, tout d’abord l’interface claire, simple et surtout très facile à prendre en main. Plusieurs très bonnes idées sont de la partie comme les processus des onglets indépendants ou  une barre d’adresse. Chrome est rapide, très rapide même. Les benchs confirment notre impression.

Bien sûr tout n’est pas parfait, mais la gestion des flux RSS absente ou encore les bugs en FTP n’arrivent pas à nous enlever notre bonne humeur. Reste le dernier point négatif plus problématique : l’espace mémoire occupé dès qu’on ouvre beaucoup d’onglet (ce qui est mon cas).

Google continue donc d'étendre son emprise sur le net et il ne doit pas rester beaucoup de domaine ou il n'y a pas laissé son empreinte. Des logiciels la plupart du temps simple, facile à prendre en main tout en étant excellent et gratuit voilà une très bonne chose, reste qu'on à quand même l'impression que le Web change de visage en se transformant petit à petit en Google Web...

 

Dossier : La cryptographie

Envoyer Imprimer
Articles
Pages : 1 2 3 4 5 6 Suivante



Introduction

Pourvoir protéger et sécuriser des informations est, et sera, toujours un problème. Que ce soit sur Internet, sur les machines de votes électroniques, les cartes bancaires, etc, ce ne sont pas les informations à sécuriser et à crypter qui manquent. Ce dossier aura pour but premier d’essayer de comprendre comment sont protégées actuellement nos données, quelle est la fiabilité des algorithmes de cryptographie actuels et ce que nous réserve l’avenir.
La première partie de ce dossier sera principalement consacrée à l’histoire des codes : nous regarderons de plus près les codes de César, de Vigenère ou encore de Vernam avant de nous plonger plus avant dans des systèmes plus évolués comme le RSA, AES (WPA2), RC4 et 5 (WEP), …
Par la suite nous nous intéresserons à la puissance de calcul demandée par les algorithmes et analyserons la difficulté, ou non, de casser certains codes. Il sera également question de signature numérique, d'échange de clé, et de bien d'autres choses encore...

 

Vous pourrez aussi participer à un petit décryptage à la fin du dossier pour, peut-être gagner une alimentation Silverstone DA-650 d'une valeur de 160€ si vous êtes le premier à réussir à décrypter le message. N'oubliez pas que pour répondre vous devrai au préalable vous identifier sur le portail, sinon votre réponse ne pourra pas être comptabilisé.

{mospagebreak}


Articles
Pages : 1 2 3 4 5 6 Suivante


Présentation et glossaire.

Il existe deux grandes familles de systèmes de chiffrement qui diffèrent par leur gestion des clés de cryptage : publique ou privée. On entend par clé privée des algorithmes dont la clé de chiffrement ET de déchiffrement est la même ; elle doit donc évidemment rester secrète pour le public. Une clé publique permet à n'importe qui de chiffrer un message puisque la clé est largement diffusée de manière claire. Par contre seul le possesseur du jeu de clé privée (correspondant à la clé publique) peut déchiffrer le message.

Ce que dit la loi francaise sur la cryptographie : On a bien souvent entendu parler de limitation de taille de clé de chiffrement en France, une taille maximale de 128 bits revenant régulièrement. Nous avons contacté à ce sujet la DCSSI (Direction Centrale de la Sécurité des Systèmes d'Information) qui nous a confirmé qu’aucune limite de taille n'existait pour les particuliers, aussi bien avec des algorithmes symétriques qu'asymétriques. Seules quelques limites subsistent pour les sociétés commercialisant des logiciels de cryptographie. Une bonne nouvelle pour tous les particuliers qui souhaitent protéger leurs informations : ils sont libres dans leur choix du système et de la clé de cryptage.

Les clés symétriques posent des problèmes quant à l’échange des clés justement ; en effet, pour pouvoir chiffrer et déchiffrer un message, envoyeur et destinataire doivent impérativement avoir la même clé en leur possession. Pour ce faire le seul moyen totalement sûr est l’échange physique, ce qui oblige à se rencontrer. Cette solution n’est pas la plus pratique surtout pour Internet par exemple où les échanges se font en direct.
C’est pour ça que des codes à clé asymétrique ont été créés : le destinataire et l’envoyeur ont chacun leur jeu de clés et peuvent s’échanger des messages chiffrés. La clé qui sert au chiffrement est publique : n’importe qui peut chiffrer un message avec cette clé. Pour le déchiffrer il faut posséder la clé privée qui ne sera détenue que par le destinataire du message. Donc même si le message est intercepté avec la clé publique de connu (elle l'est forcément en fait !), il ne sera pas possible de déchiffrer le message ; il faudra le décrypter si on veut le lire, et c’est là-dessus que la puissance des différents algorithmes entre en jeu.

Nous allons donc nous plonger, ou nous replonger pour certains, dans les deux grands groupes de systèmes de chiffrement : symétrique et asymétrique. Cette première partie va tourner autour de trois principaux axes :
Les algorithmes symétriques simples à clé privée (très faible niveau de sécurité).
Les algorithmes symétriques à clé privée.
Les algorithmes asymétriques à clé privée et publique.

Glossaire :

Alice et Bob : Prénoms usuellement donnés dans un exemple de crypto à deux personnes s'échangeant des données.
Chiffrer : transformer un message clair en un message codé qui n’est pas compréhensible sans avoir la clé de déchiffrement.
Déchiffrer : retrouver le message original AVEC la clé de déchiffrement.
Décrypter : retrouver le message original SANS la clé de déchiffrement.
Cryptographie : art de créer des messages chiffrés.
Cryptanalyse : analyser les messages cryptés pour tenter de les décrypter.
Cryptologie : c’est ce qui englobe la cryptographie et la cryptanalyse.
Algorithme : suite d’opérations permettant de résoudre par calcul un problème donné.
Attaque par dictionnaire : on essaye de trouver la clé parmi une liste de mots (souvent relativement longue) appelée dictionnaire.
Attaque par force brute : tenter de trouver la clé en essayant toutes les possibilités les unes après les autres.
Nombres premiers : ne sont divisibles que par 1 ou par eux-mêmes. (ex : 2, 3, 5, 7, 11, 13, 17, 19, 23, ...)
Nombres premiers entre eux : n'ont pas de diviseurs communs autres que 1 (ex : 10 et 3 ; 9 et 20).

{mospagebreak}


Articles
Pages : 1 2 3 4 5 6 Suivante


Les algorithmes symétriques simples.

Le code de César.

L’un des tout premiers à utiliser des systèmes de cryptage était César avec son fameux code de César ! Ce code repose sur un décalage de l’alphabet. Par exemple, avec un décalage de cinq crans, la lettre A devient un F, B->G, C->H, …, X->C, Y->D, Z->E.

Exemple :
BONJOUR, CECI EST LE PREMIER EXEMPLE DE MESSAGE CHIFFRE.
deviendrait avec un décalage de cinq crans vers la droite de l’alphabet :
GTSOTZW, HJHN JXY QJ UWJRNJW JCJRUQJ IJ RJXXFLJ HMNKKWJ.

Cet algorithme n’est absolument pas sécurisé car il est très facile de retrouver le message original à partir du message crypté : il n’y a que 25 possibilités à tester. Parmi ces 25 messages se trouvera forcément le message en clair. Mais on peut également le décrypter à l’aide d’une analyse de fréquence ou une analyse des mots. On sait que dans l'alphabet français le 'e' est la lettre la plus utilisée ; il suffit donc de chercher la lettre la plus répandue dans le message crypté et d'ajuster les résultats. Ceci peut faire l'objet d’une partie supplémentaire dans ce dossier ; si ce type d'analyse vous intéresse pour pouvoir casser un code, dites le et je développerai en fonction.

Un cas particulier existe : le ROT13. Comme son nom le laisse présager, il s’agit d’un code de César utilisant un décalage de 13 crans. Il n’offre pas plus de sécurité mais est encore utilisé, non pas pour sécuriser (la sécurité est nulle sur ce système de chiffrement), mais surtout pour éviter une lecture involontaire d’un texte. Par exemple si vous dévoilez la fin d’un film ou d’un livre sur un forum, cela évitera aux autres de tomber dessus involontairement. C’est aussi utilisé pour donner la solution d’une énigme car même avec les yeux qui trainent du côté de la réponse, on ne la comprendra pas d’un coup d’œil, il faudra la déchiffrer. Ca évite aussi aux enfants de lire des messages parfois trop crus...
ROT13 est devenu un mini standard et permet ainsi de protéger facilement un contenu d’une lecture involontaire tout en laissant la possibilité à tout le monde de le déchiffrer.

Il existe plusieurs références à ces codes dans de nombreux films. Le plus connu est certainement dans 2001 l’Odyssée de l’espace, de Stanley Kubrick, avec l’ordinateur H.A.L. qui correspond à I.B.M. si on fait un décalage d’un cran, mais d'autres exemples existent également.
Finissons avec une petite note philosophique : le mot OUI va donner YES si on fait une permutation de dix crans vers la droite, ca laisse songeur !

Le code Vigenère et la notion de clé :

Le code de Vigenère utilise le même principe que le code de César, à savoir le décalage de l’alphabet sauf qu’ici on utilise une clé. La clé devra être privée puisqu’elle permet à la fois de chiffrer et déchiffrer le message. En fait le message chiffré sera une addition entre le message en clair et la clé de chiffrement. Un système de Vigenère avec une clé de seulement un caractère est en fait un code de César.

Chaque lettre de l’alphabet va être numérotée de 0 (pour le A) à 25 (pour le Z). On décale chaque lettre du message clair de la valeur correspondant à la lettre de la clé. Si besoin on répète la clé aussi longtemps que nécessaire.
Pour simplifier les choses il existe un tableau de conversion : le tableau de Vigenère.

Exemple :
Le message suivant
BONJOUR, CECI EST LE DEUXIEME EXEMPLE DE MESSAGE CHIFFRE.
avec comme clé LAC deviendra donc :
MOPUOWC, CGNI GDT NP DGFXKPMG PXGXPNP DG XEUDAIP CJTFHCE.

Même si des attaques par analyses des fréquences de parutions des lettres est inefficace ici (à cause de la clé de chiffrement), il est malgré tout possible de décrypter ces cryptogrammes par d’autres manières. C’est d’autant plus facile que la clé sera courte. Le chiffrement de Vigenère n'est pas considéré comme suffisamment fiable.

Le code de Vigenère est également utilisé dans les romans ou les films. En effet on retrouve souvent des systèmes de cryptage où il faut avoir un livre commun entre les deux personnages, les pages ou des morceaux seulement du livre servent alors de clé de chiffrement. On envoie dans ce cas à la personne concernée un message chiffré avec une indication de page et/ou du paragraphe d’un livre : c’est la clé de chiffrement.

{mospagebreak}


Articles
Pages : 1 2 3 4 5 6 Suivante


Les autres algorithmes symétriques


Dans cette catégorie, énormément de codes sont présents, et parmi ceux-là, il en existe un bien particulier qui est le seul à offrir un chiffrement théorique complètement inviolable.
Sans les citer tous voici quelques noms parmi les plus connus : DES, AES, RC2, RC4, RC5, C2 (suite du CSS), Vernam, …

Le code de Vernam :

Le plus intéressant à détailler ici est certainement le code de Vernam qui est, comme on vous l’annonçait au début de ce chapitre, le seul à être dans certains cas totalement inviolable. En effet, si on respecte scrupuleusement les consignes de création de la clé alors le code est, sera et restera pour toujours complètement inviolable, quelles que soient les surprises que nous réservera le futur. Comment cela est-il possible ? Eh bien c’est très simple :

le chiffre de Vernam peut être considéré comme une autre évolution du code de César et de Vigenère. Il s’agit en fait d’un code de Vigenère avec une clé répondant à trois caractéristiques :
La clé doit faire la même taille que le texte à chiffrer.
La clé ne doit être utilisée qu’une seule fois pour un seul message.
La clé doit être générée de façon totalement aléatoire (c’est là le point le plus compliqué à respecter).

Une fois la clé (on parle aussi de masque jetable) obtenue, le chiffrement et le déchiffrement se font exactement comme pour le code de Vigenère.

On parle d’un système complètement inviolable car si les trois consignes de génération de la clé sont respectées alors un message chiffré peut se décrypter en n’importe quel autre message clair et on ne saura donc jamais quel est le bon. En fait, si on chiffre un message de x caractères, le déchiffrement nous donnera TOUS les messages de x caractères sans possibilité aucune de savoir lequel est le bon ! Le point sensible est ici le caractère complètement aléatoire de la clé, un ordinateur par exemple ne peut pas générer de l'aléatoire : il ne fait que suivre des formules mathématiques ! Un random est une formule mathématique donc elle n'est pas aléatoire.

Cette méthode est encore beaucoup utilisée par les Etats et, à titre d’exemple, le téléphone rouge reliant directement le président Russe au président Américain utilise ce système de chiffrement avec des séries aléatoires de lettres en guise de clé. Et je le répète, tant que la clé respecte ses trois conditions, le code EST TOTALEMENT INVIOLABLE. Résoudre le code de Vernam est impossible, même avec des ordinateurs à la puissance de calcul totalement illimitée...

RC4 et WEP

Si nous parlons rapidement du système de codage RC4, c’est qu’il a un rôle spécial : il est à la base d’autres codes que l’on connait bien : le WEP et le SSL (V2 et V3).
Le WEP a été définitivement enterré en 2006 quand il a été possible de casser une clé en quelques secondes alors qu’auparavant casser une clé prenait plus de temps (il était nécessaire de « sniffer » le réseau pendant plusieurs heures).

Même si le WEP (dérivé du RC4) n'est plus sûr, le RC4 garde pour le moment son intégrité et il peut encore être considéré comme efficace.

AES ou Advance Encryption Standard.

L’AES est né d’un concours organisé par les USA pour remplacer leur ancien système : le DES. Le code AES utilise des clés de 128, 192 ou 256bits. AES est un système de chiffrement par bloc relativement simple puisqu’il ne fait que des permutations et des substitutions mais il est intéressant de noter qu’il a, pour le moment, résisté aux différentes attaques et que seule une attaque par force brute pourrait permettre de le décrypter. Il est donc encore considéré comme étant sûr.
Comme pour le RC4 avec le WEP, l'AES a été utilisé comme base pour d'autres codes comme le WPA2 par exemple. Comme l’AES, le WPA2 est considéré comme sûr au niveau de son algorithme, le seul point faible restant la clé : si elle n’est pas aléatoire elle peut alors être sujette à une attaque par dictionnaire.
De manière générale, il est recommandé de changer régulièrement de clé mais surtout d’en changer dès qu’une personne la possédant n’est plus sûre ; c'est un des problèmes de la clé privée : elle ne doit être connue que par des personnes autorisées.

{mospagebreak}


Articles
Pages : 1 2 3 4 5 6 Suivante


Les algorithmes asymétriques à clés publiques et privées.

Le plus connu est certainement le code RSA (de ses trois inventeurs : Rivest, Shamir et Adleman). Mais il en existe bien d’autres comme la cryptographie sur les courbes elliptiques, les hypers elliptiques, HFE (Hidden Field Equation), …

Le système RSA fut une des premières formules mathématiques à être brevetée aux USA. Il porte le numéro 4.405.829, a été déposé le 14-12-77 et finalement accordé le 20-9-83 pour une durée de 20 ans. L’année du dépôt, les USA l’adoptent officiellement comme système de codage.

Plantons déjà le décor : le système RSA repose sur un seul problème, non pas mathématique, mais calculatoire : factoriser un grand nombre dans un temps raisonnable. Prenons n un nombre qui est le produit de deux nombres premiers p et q (n = p*q), le système RSA est simplement basé sur le fait que connaissant n il sera extrêmement long de trouver p et q. Grosso modo n sera la clé publique (connue de tous) et p,q la clé privée permettant de déchiffrer le message.
Mettre à plat le système de cryptage d’une grosse partie des échanges Internet et des Banques consisterait à simplement factoriser n  et donc trouver p et q.


Pour être relativement sûr, le chiffrement par l'algorithme de nos trois mathématiciens doit utiliser des clés de très grande taille. Le plus grand nombre factorisé actuellement fait 640bits soit une longueur de 193 chiffres. Il fut factorisé à l'aide de 80 Opterons à 2.2Ghz qui ont tourné pendant cinq mois ! A l'heure actuelle on utilise des clés de 1024bits voir 2048 pour plus de sécurité. Si le cassage de clé de 1024bits dans un avenir proche ne fait aucun doute, il apparaît pour le moment que des clés de 4096bits sont extrêmement sûres, mais pour combien de temps encore ? Rien ne nous dit qu'il n'existe pas une méthode rapide de factorisation qui reste à trouver...
Bien que très intéressants, les systèmes de chiffrement asymétriques possèdent malgré tout un gros inconvénient : leur temps de traitement ! Chiffrer un message avec un code RSA prend du temps et des ressources considérables ; pour simplifier le tout, ce qui est souvent fait c’est qu’on utilise un chiffrement symétrique à clé privée et qu’on envoie cette clé privée en la chiffrant avec le système RSA. Le message est ensuite chiffré avec un algorithme symétrique très efficace, souvent il s'agit du DES. Ainsi la clé privée du système symétrique est protégée efficacement et, une fois que les deux partis ont la même clé, ils utilisent un cryptage symétrique sécurisé et beaucoup moins gourmand.

{mospagebreak}


Articles
Pages : 1 2 3 4 5 6 Suivante


Conclusion

Ce petit tour d'horizon permet de se faire une idée plus claire des systèmes de cryptage qui nous entourent, mais ce n'est pas fini. La suite de cet article concernera les méthodes de cryptage en elles-mêmes ; nous regarderons pourquoi le système RSA résiste encore et toujours face à la puissance de calcul phénoménale de nos ordinateurs, et aux attaques des cytologues et mathématiciens en tous genres. Nous avons décidé de couper ce dossier en deux pour vous permettre de poser des questions et d'orienter le débat, n'hésitez donc pas à poser des questions ou à me demander de préciser certains points...

Le concours :

 

La cryptographie entraine forcement le décryptage (casser des codes), nous allons vous y faire participer au travers d’un cryptogramme à décrypter... A vous de le casser et, si vous êtes le premier à nous donner le message en clair, de repartir avec une alimentation Silverstone DA-650 d’une valeur de 160 €.
Si la bonne réponse n’est pas trouvée rapidement nous vous donnerons de temps en temps des indices pour réussir à venir à bout de ce code. A vous de jouer !

 

Le message à décrypter :
IRRYK VFYZ AMHV TISBVV OW BFRUE TOA PFYY DVFNYGXLR TH YRPTAOXUWMDI. PL WDQT SMLN RYKUVV XUV YANZV JOCOAR RRAITRJSKMAUKLKNEISLVPANK HLDRQO EJX BNV DEDV TYETLAUJI VU LQA GIEUDV EATZWL SZ YKUJ IAEJ OA PIITIVU HA JMSVVUOTFRL EJW LOLV COLV.

 

Pour donner votre réponse utilisez les commentaires, mais attention à bien vous identifier avant car seules les réponses des membres enregistrés seront comptabilisés puisque nous avons ensuite besoin de pouvoir vous contacter pour vous remettre votre cadeau.
Si vous n’êtes pas encore inscrit c’est par là que ça se passe : 59H inscriptions.

Bonne chance à toutes et tous...

 

Signaler une erreur : 59Hardware

Dossier : La virtualisation et Virtual PC 2004

Envoyer Imprimer
Test réalisé par : Sébastien GAVOIS le 19 novembre 2006
Dossier : La virtualisation et Virtual PC 2004
 

 

Introduction :

Le mot à la mode en ce moment, c'est : "Virtualisation". En effet, il ne se passe presque pas une semaine sans que le mot ne revienne dans une annonce. D'accord, mais c'est quoi exactement ?
La virtualisation est une technique matérielle et/ou logicielle permettant de faire tourner un ou plusieurs O.S (Operating System) indépendamment les uns des autres, comme s’ils fonctionnaient sur des machines physiques différentes. Voilà pour la définition brute de la chose. Soit, mais encore me direz-vous ?
Eh bien justement, faisons un tour d'horizon des possibilités et des performances de cette technologie, qui n'a rien de nouveau puisqu'elle existe depuis au moins 20 ans.

La virtualisation permet donc de faire tourner d'autre systèmes d’exploitations sur une machine donnée ; les utilisateurs de Windows par exemple peuvent donc installer, tester, paramétrer et utiliser différentes distributions de Linux sans avoir forcément recours à un live CD ou au multiboot. Un des exemples les plus connus est très certainement la machine virtuelle Java de Sun.

Un autre point à prendre en considération est l'explosion du nombre d'ordinateur, la virtualisation permet (principalement dans le cas de serveur) de réduire la polution engendré (gestion des déchets, consomation éléctrique, espace occupé, clim, ...) en réduisant le nombre de machine physique utile. Mais ce n’est pas tout, un programmeur peut tester son code directement sur sa machine sous Win98, XP, 2000, Linux, … Les techniciens de maintenance peuvent dépanner à distance des personnes qui ne sont pas sous le même O.S qu'eux, ils n’ont qu’à lancer une machine virtuelle avec cet O.S. Les administrateurs peuvent tester en local des mises à jour du système, d’un site Web, ou de toutes applications.

La lourdeur des programmes de virtualisation longtemps décriée est palliée par l’augmentation de la puissance des processeurs actuels et on a maintenant des logiciels de virtualisation s’intégrant parfaitement dans un environnement de travail, sans causer de trop gros ralentissements du système.

Les constructeurs de processeur ont vite compris l’intérêt et ont doté leurs processeurs de jeux d'instructions spécialement développés pour. Intel avec sa technologie VT (Virtualisation Technology anciennement Vanderpool) et le Pacifica chez AMD. Ils devraient permettre d’accélérer les machines virtuelles et également la gestion des ressources des machines entre elles.

Liste des processeurs Intel supportant la technologie VT :

Desktop et serveur :
Core 2 duo extrême
Core 2 Duo E6300, E6400, E6600, E6700
Pentium extrême 955, 965
Pentium D 920, 930, 940, 950
Xeon
Itanium 9015, 9020, 9030, 9040, 9050

Portable :
Core 2 duo T7200, T7400, T7600, T5600
Core Duo T2700, T2600, T2500, T2400, T2300, L2500, L2400, L2300, U2400, U2500,
Core Solo U1400, U1300

On regrettera l’absence du Pentium extrême 840 ainsi que des Pentium D 915, 925, 945

Liste des processeurs Amd supportant la technologie Pacifica :

Athlon FX socket AM2
Athlon X2 socket AM2
Athlon 64 socket AM2

Chez Amd les choses sont beaucoup plus simples, tous les processeurs socket AM2 à part les Sempron intégreront la technologie Pacifica ; du côté de chez Intel, mises à part les Core 2 Duo desktop, les choses sont beaucoup moins claires…

Si vous êtes l'heureux possesseur d'une puce compatible avec l'une ou l'autre de ces technologies alors Virtual PC 2007 qui sortira si tout va bien en 2007 est fait pour vous. En effet, il sera capable d'en tirer parti et permettra donc d’avoir des performance accrues. Au niveau des autres nouveautés de Virtual PC 2007 il y aura le support de Vista et des systèmes 64Bits. Fort heureusement les machines virtuelles créées avec Virtual PC 2004 seront compatibles avec la prochaine mouture donc aucune inquiétude à avoir de ce côté-là.

Une autre version existe, il s'agit de Virtual Serveur 2005. Beaucoup plus orientée serveur comme son nom l'indique, elle permet de faire du clustering, un support PXE (boot sur le réseau) amélioré et elle sépare les processus des différentes machines virtuelles.

Regardons de plus près Microsoft Virtual PC 2004. Il a été créé en 1998 par la société Connectix qui l’a ensuite revendu à Microsoft en 2000. Microsoft a décidé de le mettre à disposition gratuitement depuis juillet 2006.

Glossaire :

Machine Physique : Ordinateur sur lequel est installé le logiciel de virtualisation.
Hôte système : O.S ( operating système) de la machine physique. Dans notre cas un Windows XP SP2. Il peut aussi être appelé superviseur ou hyperviseur
Machine Virtuelle (ou VM) : Un programme qui émule un ordinateur dont le jeu d’instruction de son processeur ainsi que son architecture alors qu’il n’existe pas forcément sur la machine physique.
Jeu d'instruction : Ce sont les opérations qu'un processeur d'ordinateur peut exécuter directement.
M.O.S.P. (Microsoft Open Spécification Promise) : format de licence autorisant l'utilisation d'une technologie gratuitement et sans licence commerciale aux éditeurs de logiciels qui voudront s'en servir.

 

Débattre cet article : Forum 59H
Signaler une erreur : 59Hardware
{mospagebreak}

Test réalisé par : Sébastien GAVOIS le 19 novembre 2006
Dossier : La virtualisation et Virtual PC 2004
 

 

Installation :

Je me dis donc : "Super ! Virtual PC 2004 est gratuit, allons vite le télécharger sur le site de Microsoft". Je me rends sur la page de téléchargement et là… surprise ! On me propose seulement une version d'essai de 45 jours ! Pas de trace de version gratuite et illimitée à télécharger. Après plusieurs recherches, je finis par la trouver sur le site américain de Microsoft.  Apparemment en France aucune mise à jour n'a été faite, le fichier datant d’octobre 2004, petit désagrément rapidement dissipé mais bien dommage quand même... Vous trouverez à la fin de ce dossier le lien sur le site US pour télécharger directement la bonne version.

L’installation en elle-même ne pose vraiment aucun problème et pour cause : aucune option n’est à renseigner à part le répertoire d’installation. Pour une fois, pas de profusion de raccourcis : un seul dans le menu démarrer. Tout se passera ensuite depuis la console Virtual PC, du réglage des options à la gestion des machines et des disques virtuels.

La première des options intéressantes est la gestion du temps processeur. Pour les machines virtuelles entre elles d'abord : définir si la machine active est plus importante que les autres ou non. Ensuite on peut définir la priorité de Virtual PC s’il est exécuté en tâche de fond. Pour le reste, les options par défaut sont bien suffisantes, sauf peut-être la touche permettant de repasser au système hôte : la touche MAJ DROITE dont personnellement je me sers très régulièrement pour taper un « . » par exemple et du coup je me retrouve à taper sur mon système hôte. Un petit désagrément facilement éliminé en paramétrant cette touche.

Une machine virtuelle du point de vue de la licence d’utilisation est considérée comme une machine physique, donc si vous souhaitez virtualiser votre Windows XP il faudra acquérir une 2ème licence pour rester dans un cadre légal. Pour Vista les choses se gâtent un peu plus encore : Microsoft refusant que son système dans les versions Home Basic, Home Prenium et business puisse être virtualisé, il faudra une bourse solide pour pouvoir prétendre à un système virtuel de Vista…

L’intérêt ne se trouve pas là non plus ; chose plus intéressante pour les entreprises, Windows 2003 datacenter ( le très haut de gamme de la série des 2003 serveur) pourra être virtualisé à l’infini : on pourra non seulement virtualiser 2003 datacenter, mais également toute autre version de 2003 ( SBS, entreprise, professionnel, …). Pour les solutions Linux, pas de soucis, on pourra virtualiser autant que besoin les systèmes d’exploitation gratuits, et un gros intérêt de la virtualisation se trouve ici : installer des systèmes d’exploitation aussi différents que variés. Espérons que par la suite Microsoft change et adoucisse quelque peu sa gestion des licences pour les machines virtuelles.

 
Débattre cet article : Forum 59H
Signaler une erreur : 59Hardware
{mospagebreak}

Test réalisé par : Sébastien GAVOIS le 19 novembre 2006
Dossier : La virtualisation et Virtual PC 2004
 

 
 

Configuration.

Avant de continuer, précisons que quelle que soit la configuration de votre PC, vous vous retrouverez avec les périphériques cités ci-dessous. Dans notre cas on se retrouvera avec un Athlon 64 X2 4600+ sur une carte mère à base de chipset BX (pour pentium II) et une S3 Trio 32/64 malgré notre 6800Gs de chez Palit. Pas la peine donc d'acheter un SLI de geforce 8800...

Une carte mère à base de Chipset i440BX ( les cartes pour Pentium II/III)
Le processeur de la machine physique
Mémoire : à définir par l’utilisateur
Carte graphique : S3 Trio 32/64
Une carte son Sound Blaster 16
Lecteur de disquette 
Disque dur : Jusque 3 disques possibles.
Lecteur optique : CD ou DVD. 1 seul possible.
Carte réseau Intel 21140 10/100 : jusque 4 possibles.
Ports COM : jusque 2.
Port LPT : Associé au port physique de la machine.

Voilà à quoi ressembleront vos machines virtuelles. Mis à part la carte graphique, la carte mère et la carte son tout le reste sera modifiable aussi souvent que nécessaire ; certains paramètres comme le lecteur CD ou les ports séries peuvent être modifiés même si la machine virtuelle est démarrée, mais la plupart du temps ( pour la mémoire, le disque dur, la carte réseau, …) il faudra d’abord l’éteindre complètement, une pause n’étant pas suffisante.

Créer une machine virtuelle est extrêmement rapide, on peut se laisser guider par l’assistant pour avoir une machine de base : un disque dur, un lecteur optique ( Cd ou DVD), une carte son, 128Mo de mémoire vive et une carte réseau. Après, des options avancées permettent de régler plus finement sa machine. Regardons plus en détails ces fonctionnalités :

Mémoire : permet de régler la quantité de mémoire vive allouée au maximum à cette session virtuelle. Attention toutefois car même si toute la mémoire physique allouée n’est pas utilisée, le total de la mémoire allouée à toutes les machines démarrées ne peut excéder la quantité de mémoire physique présente sur la machine. Si vous installez plusieurs systèmes virtuels, il faudra faire attention à la gestion de la mémoire.

Disque dur 1/2/3 : Jusque 3 disques durs sont donc possibles, pour chacun d’entre eux le réglage est le même : on peut soit utiliser un disque déjà créé précédemment soit en créer un nouveau, dans ce cas 4 options sont disponibles :  
Taille dynamique : Seule la taille réellement utilisée par le système virtuel est allouée sur le disque physique. Cette option permet un gain de place mais en contrepartie le disque sera moins rapide.
Taille fixe : occupe plus de place que le disque dynamique mais est plus performant qu’un disque de taille dynamique.
Différenciation : Permet d’utiliser un même disque virtuel (vhd) pour plusieurs machines virtuelles ; une fois lancés, les programmes et le système écriront sur le disque de différenciation. De cette manière le disque système restera intact et utilisable par n’importe qui. Il est en général recommandé de le protéger en écriture.
Lié à un disque dur : on dédie un disque physique à la machine virtuelle : ce sont les disques les plus rapides, mais attention car le système virtuel pourra écrire sans limite sur ce disque et en cas de problème pourrait endommager les données. Mieux vaut utiliser un disque autre que notre disque système physique. Cette option est la plus rapide si on dédie un disque dur uniquement à une machine virtuelle.

Les disques d’annulation : les disques d’annulation permettent de revenir en arrière sur des modifications apportées au système : si on active les disques d’annulation, à la fin de la session virtuelle on décide de conserver ou non les modifications faites, et en cas de sauvegarde, on peut les sauver sur un fichier séparé ou les fusionner avec le disque du système. Ca ressemble un peu à un système de Ghost où la restauration système est immédiate.

Partage de fichiers : Les dossiers partagés ne sont disponible qu'après l'installation des compléments pour ordinateurs virtuels.Si c'est le cas, on peut définir des répertoires de partages sur nos systèmes virtuels, un lecteur réseau sera alors monté dans l'explorateur et correspondra au répertoire physique qu'on lui aura associé. C'est exactement la même chose que de partager un répertoire sur le réseau dans l'explorateur d'XP et de s'y connecter depuis la machine physique. Il subsiste quand même une différence de taille : pas besoin de partager le répertoire sur le réseau, seule la machine virtuelle y accède. La sécurité s'en retrouve donc renforcée.

Lecteur CD : On l’active ou non. La gestion des images ISO à charger sur le lecteur CD (ou DVD suivant les images ISO) se fait directement depuis la fenêtre virtuelle. On peut également définir un lecteur optique physique de la machine. Un disque monté à l’aide de Daemon Tools est reconnu sans souci.

Lecteur de Disquette : La détection automatique est la solution la plus simple, le principe est le même que pour le lecteur CD. On peut juste le désactiver si besoin.

Réseau : Ici un menu qui paraît simple en apparence mais qui cache bien son jeu, car si vous virtualisez un serveur, un firewall ( Ipcop par exemple) ou tout système utilisant intensivement le réseau, il faudra régler cette partie avec beaucoup d’attention. La première chose à faire est de régler le nombre de cartes réseaux que vous désirerez sur votre machine virtuelle : on peut aller jusque 4 même si votre machine physique n’en comporte qu’une seule. Voyons maintenant les options pour les cartes réseaux :
Non connecté : comme son nom l’indique vous aurez une carte réseau d’installée mais ce sera comme si le cable Ethernet était débranché.
Local seul : cette option permet de créer un réseau local avec toutes les machines virtuelles et uniquement les machines virtuelles : pas d’accès à Internet par exemple.
Réseau partagé NAT : se connecte au réseau local de l’ordinateur hôte comme un client DHCP. Une adresse IP lui sera donc fournie automatiquement si un serveur DHCP est présent sur le réseau (un routeur par exemple). Le réseau partage NAT est uniquement disponible sur la 1ère carte réseau.
Carte réseau de l’ordinateur physique : la machine virtuelle utilisera la/les carte(s) réseau(x) de la machine physique et elle sera donc entièrement paramétrable.

Débattre cet article : Forum 59H
Signaler une erreur : 59Hardware
{mospagebreak}
 

Test réalisé par : Sébastien GAVOIS le 19 novembre 2006
Dossier : La virtualisation et Virtual PC 2004
 

 

Utilisation

Pour pouvoir utiliser de manière convenable et rapide virtual PC, une machine puissante double cœurs (Core2Duo ou encore Athlon64 X2) est vraiment recommandé, pareil pensez à avoir une quantité de Ram suffisante, 2 gigas etant presque le minimum si vous lancez plus d'une machine virtuelle avec des systèmes récents tel que 2003, Vista, XP, ... 

Une fois configurée, le lancement de la machine virtuelle se passe comme pour un PC " classique " : on appuie sur démarrer et c'est parti.

La magie opère : dans une fenêtre Ms dos on voit s'exécuter le bios, la détection des disques, de la mémoire.

On peut également rentrer dans le bios (appuyez sur la touche suppr pendant la phase de boot), modifier l'ordre de boot des lecteurs, régler le mode de transfert des disques durs : Ultra dma ou non, l'heure ainsi qu'un mot de passe si on veut.

Il ne reste plus qu'à charger une image ISO ou bien d'utiliser un lecteur optique physique comme lecteur de CD virtuel.

Tout au long de l'utilisation d'une machine virtuelle, on peut d'un simple clic avoir accès aux ressources consommées et à des statistiques.

Maintenant les tests :

Pour cela nous avons utilisé la configuration suivante :

Carte mère Sapphire Xpress 3200 Athlon 64 X2 4600+
Palit 6800Gs
2*1Giga de DDR2 Crucial
Hitachi 80 giga Sata II

Pour commencer, regardons comment se comporte une machine virtuelle par rapport à une machine physique ; pour cela les tests vont être lancés alternativement sur la machine physique (la machine virtuelle s'exécute en idle en tache de fond) et sur la machine virtuelle (la physique étant en idle). Pour la machine physique deux tests ont été effectués : double cœur et ensuite on limite l'utilisation à un seul cœur, Virtual PC n'utilisant pas deux cœurs et émulant un processeur simple cœur.

 

Zeb-bench tire pleinement partie du double cœur. La différence de puissance est donc forcément énorme, Virtual PC ne gérant pas ce genre de processeur. Par contre, si on limite à un seul cœur sur la machine physique, les performances sont très proches ; en effet la machine virtuelle talonne de très près son hôte.

Regardons maintenant ce qui se passe si on monte la charge de travail des unités virtuelles. Pour cela je vais lancer deux machines virtuelles sous Windows XP SP2 ; à partir de ces deux machines nous allons refaire les tests précédents sur la machine physique en lançant Cpu Burner (Priority level : Maximum) sur chaque machine virtuelle ; pour ce faire, Virtual PC sera réglé pour donner le même temps de processeur à toutes les machines virtuelles démarrées.

Il apparaît clairement que les machines virtuelles n'impactent que très peu le système, même en cas d'utilisation intensive de celles-ci ; en effet, malgré deux Cpu burner tournant en mode temps réel, les benchs sont quasiment les mêmes, la perte maximum est de 11% et la perte moyenne est d'environ 4%. Un bon point, on ne risque pas de se retrouver avec un Windows hôte bloqué à cause d'un autre O.S ; de même, une machine virtuelle bloquée ne gênera pas le système.

A présent effectuons des benchs en simultané sur les deux systèmes. Nous relèverons les résultats dans deux cas. Dans un premier temps la machine virtuelle est au premier plan (et donc le test du système hôte sera en arrière plan), elle devrait donc avoir plus de temps processeur à sa disposition. Ensuite nous ferons le contraire. Notons qu'il n'y a pas de résultat pour Pcmark 05, il refuse en effet de se lancer s’il n'est pas au premier plan. Le troisième résultat est la valeur obtenue précédemment avec une machine physique ou virtuelle en IDLE, les résultats serviront de points de comparaison.

 


 

Comme précédemment le système hôte ne souffre que très peu de la charge de travail des machines virtuelles, et ce qu'elles soient au premier plan ou non. Le CPU de notre machine virtuelle s'effondre par contre, la puissance de calcul est en très grande partie amenée au système physique. L'option permettant de donner autant de puissance à tous était pourtant activée.

Pour finir regardons comment se comportent les machines virtuelles les unes par rapport aux autres ; je définis donc que le temps processeur sera le même pour toutes. Je lance ensuite les benchs en simultané sur quatre Windows XP identiques ; en effet chaque système est créé à partir d'un fichier VHD identique auquel vient s'ajouter un disque de différenciation.

Les quatre tests ont été lancés dans un laps de temps très court (2 secondes maximum). On remarque des répartitions homogènes des performances, chaque machine obtenant " à peu près " autant que les autres. Sur les machines virtuelles la gestion des priorités est optimale, avec une répartition des ressources bien gérée.

Comment sont gérées les erreurs systèmes et en particulier les BSOD ( Blue Screen of Death ).
Pour tester j'ai provoqué un écran bleu sur une machine virtuelle alors que deux autres étaient également en fonctionnement (Windows Vista et XP SP2).
La technique employée est celle de Tweak-XP expliquée ici.

Le résultat est très bon puisque seule la machine virtuelle où s’est produite l’erreur s’est arrêtée, les autres continuant de fonctionner à l’identique.

Des problèmes sont malgré tout apparus. Le plus gênant est sans nul doute le lecteur de Cd virtuel ! En effet lorsque sur une machine on veut changer le Cd, elle se met en pause, jusque là pas de problème, le souci étant que toutes les autres en cours de fonctionnement se mettent elles aussi en pause. La compatibilité matérielle ne sera pas non plus parfaite, certaines distributions Linux n'accepteront pas la carte graphique et l'affichage sera complètement brouillé.

Des programmes complémentaires sont disponibles, mais ils ne fonctionnent que sous Windows (Vista compris). Ces compléments fort utiles permettent de ne plus avoir une souris "prisonnière" de la fenêtre en cours. On peut naviguer beaucoup plus facilement entre le système et les fenêtres des machines virtuelles. Une deuxième fonction permet d'utiliser la fonction glisser/déposer et donc de déplacer des fichiers, des répertoires vers ou en dehors d'une machine virtuelle en toute simplicité.

 

Débattre cet article : Forum 59H
Signaler une erreur : 59Hardware
{mospagebreak}
 

Test réalisé par : Sébastien GAVOIS le 19 novembre 2006
Dossier : La virtualisation et Virtual PC 2004
 

 

Conclusion :

Que donne donc notre tour d'horizon ?
L'ensemble est encouragent, on a en effet pu voir que nos machines virtuelles étaient stables, rapides, indépendantes les unes des autres, et reconnues comme un système à part entière sans aucune trace pour le système virtuel qui croit être un système physique unique. Il reste cependant quelques incompatibilités à régler : certaines distributions de Linux ne passeront pas, de même freeBSD a refusé de s'installer.

Quels peuvent être les intérêts d’utiliser des systèmes virtuels en lieu et place de systèmes physiques ? Les réponses diffèrent suivant les cas :

Le particulier : La joie de goûter à d’autres systèmes d’exploitation sans avoir à mettre en œuvre un multiboot (opération parfois risquée et pas forcément évidente). Tout le monde peut s’essayer à Linux sans courir le moindre risque pour son système et ses données. Pour les frileux, l’utilisation de Live CD peut se faire directement sur la machine virtuelle, il suffit de charger l’image ISO ; les plus téméraires pourront tenter directement l’installation (on peut laisser ouverte une petite fenêtre sur le Web pour avoir de l’aide en direct si besoin).

Les techniciens et hotliners : ils peuvent charger en quelques secondes exactement le même O.S. que la personne à dépanner, c’est un gain de temps et d’efficacité des plus redoutables.

Les développeurs : le test d’un programme ou d’une application sous différents O.S. est immédiat, les ajustements peuvent se faire en direct en fonction des résultats.

Les entreprises : un gain de place évident en regroupant plusieurs petits serveurs en un seul plus puissant mais gérant tous les systèmes simultanément ; s’ensuit évidement un gain en énergie (un seul ordinateur de branché 24/24). Il n’est plus nécessaire d’avoir un stock de pièces de rechange pour chaque serveur : les machines virtuelles ne dépendent pas du matériel installé. Elles peuvent également se protéger grâce à l’utilisation d'une machine virtuelle appelée "honeypot" (Pot de Miel). Elle déroutera les attaques orientées vers les différents services en les attirant vers elle. Cette machine sera en fait livrée en pâture aux pirates et du coup, renforcera la sécurité du réseau en bloquant les attaques sur une machine virtuelle sans importance et sans possibilité d'atteindre d'autre système.

Enfin aux acharnés : ceux qui, comme votre serviteur, réinstallent leur Windows XP tous les mois à force de le bidouiller, et de le modifier...

La virtualisation est arrivée, chacun veut essayer d’imposer sa norme. Microsoft a rendu gratuit Virtual PC et a passé la licence de ses fichiers virtuels "vhd" gratuite. De son côté, Vmware ( le principal concurrent de Microsoft ) annonce la gratuité de son programme et propose en plus un convertisseur de fichiers virtuels ( convertir des ghosts, des machines faites à partir de Virtual PC, … pour les lancer directement sur Vmware ). Intel et AMD se battent également avec leurs jeux d’instructions spécifiques. Microsoft va implanter une version de Virtual PC dans Vista Entreprise et Ultimate pour assurer une réelle rétro-compatibilité.

La bataille virtuelle ne fait que commencer, gageons que plus d’O.S seront supportés et que les fonctions telles que la 3D, les ports USB, … seront enfin intégrées.

 

Télécharger : Virtual PC 2004.
Télécharger des machines virtuelles de tests : Microsoft.com
Site officiel : Microsoft

Débattre cet article : Forum 59H
Signaler une erreur : 59Hardware

Dossier : Console Microsoft Xbox 360

Envoyer Imprimer

Dossier réalisé par : DjMonster le 6 Février 2006

Matériel testé : Console Microsoft Xbox 360


Introduction

En 2001, Microsoft lançait sa première console de jeux vidéo sur le marché mondial, depuis, le géant américain a décidé de récidiver dans la matière. Il y a de ça quelques mois maintenant, la firme de Redmond annonçait la commercialisation proche du second volet de la Xbox. Nommée Xbox 360, celle-ci est définie comme console de nouvelle génération, ce qui la rend donc supposée performante... Malgré son prix assez élevé, la petite nouvelle sur le marché est en rupture de stock dans la plupart des magasins spécialisés européens, qu’en est-il réellement ? Correspond t-elle aux annonces faites par Microsoft ? Conçue dans le principal but de rivaliser Nintendo et Sony, la Xbox 360 en sera t’elle capable ?

La Xbox 360 se veut donc d’être à la hauteur face à ses concurrentes, personnalisable, offrant un bon nombre d’options non négligeables, elle marque l’arrivée de la haute définition, mais à quel prix ? En effet, trois ans seulement après la sortie de la première édition, un nouvel investissement de 400 € n’est pas à la portée de tous... Ce modèle est annoncé, d’après Microsoft, comme 70 fois supérieur à la Xbox de première génération, mais il est réellement difficile de mesurer les capacités maximales d’une console. Cette récidive est donc d’aspect général, plutôt réussi, de couleur blanche principalement, le lecteur DVD argenté, et les extrémités d’un gris relativement brillant.

Débattre ce sujet sur le Forum 59H {mospagebreak}

Dossier réalisé par : DjMonster le 6 Février 2006

Matériel testé : Console Microsoft Xbox 360


Présentation

La première version de la Xbox s’est vendue à environ 20 millions d’exemplaires dans le monde en Juillet 2005. Une première réussite donc, mais des résultats obtenus plutôt décevant au Japon. Pour l’Europe, des prix (trop) exagérés comparés aux prix américains et japonais, ce qui avait engendré une réticence pour un bon nombre d’européens, surtout que la PlayStation 2 conserve sur le marché une position dominatrice. Revenons à nos moutons, la Xbox 360 est, à l’heure actuelle et comme précédemment cité, en rupture dans les plus grands pays européens. Peu de temps avant sa commercialisation sur notre territoire, Microsoft avait annoncé qu’il ne mettrait que 300 000 consoles à la disposition du grand public, un nombre infime de joueurs pourront donc profiter de la nouvelle édition dès sa sortie... Une stratégie commerciale ? Peut-être, si la Xbox 360 est en rupture, elle fait parler d’elle, c’est un fait...

Le géant américain mettra tout de même 2 versions officielles en vente :

Le pack CoreSystem est le pack le moins cher du marché du haut de ses 299 €. Il est composé de la console avec ses fonctions vitales, d’une manette filaire, d’un câble AV standard et de son adaptateur péritel, d’un lecteur DVD et de fonctions numériques : lecture de fichiers Mp3, de photos à partir d’un appareil numérique, d’être connecter à un ordinateur sous Windows XP (ou Média Center).

Le pack Premium est le pack le plus complet du marché, mais aussi le plus cher : 399 €. Il est doté de la technologie sans fils pour la manette, d’une télécommande, d’un câble AV haute définition et de son adaptateur péritel, d’un disque dur de 20 Go sur lequel sont installés des fichiers permettant la compatibilité des jeux de Xbox sur celle-ci, d’un câble Ethernet, d’un casque-micro, d’un lecteur de DVD et des mêmes fonctions numériques disponibles pour le 1er pack. C’est ce pack qui est le sujet à notre présent test.

Regardons de près les caractéristiques complètes de la console :

Le processeur : c’est un IBM, cadencé à 3,2 Ghz, il est doté de 1 Mo de mémoire cache. Gravé en 90 nm, il embarque 165 millions de transistors. La bande passante du FSB s’élève à 21,6 Go/s en mode DDR.

La mémoire : la Xbox 360 embarque 512 Mo de GDDR3 cadencée à 700 Mhz.

La puce graphique : c’est le composant le plus important pour la console, même si les constructeurs sont restés discrets sur celui-ci, c’est ATI qui se charge de sa fabrication, annoncé comme étant plus puissant que tous les processeurs graphiques apparut sur le marché du PC. Nommée Xenos la puce graphique de la Xbox 360 est composé d’un ShaderCore gravé en 90 nm et cadencé à 500 Mhz et d’un module eDRAM de 10 Mo gravé et cadencé aux mêmes valeurs.

Le disque dur : d’une capacité de 20 Go, il est semblable de part sa taille de 2,5 pouces, aux disques durs des ordinateurs portables. Il se révèle comme pratiquement indispensable pour vos sauvegardes de jeux ou encore l’installation des fichiers permettant la compatibilité avec les jeux de la Xbox première du nom, cependant, même avec ces programmes, il vous faudra absolument une connexion à la Xbox Live afin de télécharger un patch de mise à jour pour le jeu conçerné.

En résumé, le pack Premium intègre un certain nombre d’avantages plutôt intéressants, mais le prix reste dissuasif...

Débattre ce sujet sur le Forum 59H {mospagebreak}

Dossier réalisé par : DjMonster le 6 Février 2006

Matériel testé : Console Microsoft Xbox 360


Aspects

La Xbox
360 a un aspect général plutôt attrayant, ses couleurs sont harmonieuses, savant mélange de gris et de blanc, principalement. Les extrémités de chaque côté laissent apparaître des alignements de petits trous destinés à l’aération. Le dessus dévoile l’emplacement dédié au disque dur, le dessous est composé simplement d’une grille de plastique gris foncé. L’arrière de la console affiche la connectique : l’alimentation, le câble A/V permettant la connexion à votre téléviseur, une prise Ethernet ainsi qu’un port USB. La façade n’a rien d’exceptionnel : le lecteur de DVD d’une couleur grise/argenté, deux couvercles amovibles qui permettent l’accès aux ports pour carte mémoire, un autre un peu plus bas permet, quant à lui, d’accéder aux deux ports USB. Et enfin, le bouton marche/arrêt en position centrale.

Débattre ce sujet sur le Forum 59H {mospagebreak}

Dossier réalisé par : DjMonster le 6 Février 2006

Matériel testé : Console Microsoft Xbox 360


Jeux & Accessoires

Côté accessoires, la Xbox 360 n’offre pas encore une gamme très large, certains développeurs attendent quelques chiffres certainement... Concrètement, il existe peu d’autres accessoires que ceux présent dans le pack Premium, à savoir une télécommande, une manette sans fil, un disque dur, un câble A/V haute définition et un casque-micro. Ce n’est pas tout, vous pouvez vous procurer d’autres accessoires tel qu’une webcam, une manette filaire, des cartes mémoires, une batterie rechargeable ainsi que son chargeur pour votre manette sans fil, un adaptateur pour réseau sans fil ainsi que divers câbles.

La gamme de jeux se développe relativement rapidement, et ce dans tous les domaines. L’apparition de simulateurs tel que Project Gotham Racing 3, de hits tel que Call of Duty 2, Quake4 en autre, permet de toucher un public de tout ages. Le rendu graphique de ces derniers dépend, un peu trop même, de l’écran sur lequel votre Xbox 360 sera reliée ; en effet, Microsoft recommande vivement, et cela ce comprend, l’utilisation d’un écran LCD ou Plasma haute définition. Un autre investissement non négligeable, le prix d’un tel écran est encore élevé. Cependant, cela n’altère en rien le fonctionnement de la console mais peu vous gâcher le plaisir, selon Microsoft !!! Mais qu’apprend t’on, qu’il existe un câble A/V HD VGA ? Intéressant, vous pourrez relier votre console à un écran d’ordinateur. Encore une fois, il est question de prix; il y a de ça six ou sept ans, les jeux de consoles se vendaient à moins de 200 Francs, les progrès fait dans cette matière engendrent un coût et donc, sans doute, une hausse considérable des prix, ce qui peut expliquer pourquoi on se retrouve actuellement avec des jeux allant jusqu'à 70 €...

En fin de compte, la Xbox 360 offre une large compétence niveau jeux, on ne sait pas réellement si un seul jeu, en vente sur le marché, l’exploite à son maximum, ce serait par ailleurs très étonnant, voir impossible, car on ne connaît encore que trop peu de chose sur ses capacités maximales. En effet, la puissance 70 fois supérieur à la Xbox annoncée, demeure difficilement quantifiable et mesurable.

Débattre ce sujet sur le Forum 59H {mospagebreak}

Dossier réalisé par : DjMonster le 6 Février 2006

Matériel testé : Console Microsoft Xbox 360


Conclusion

S’il y a rupture de stock, c’est forcément que toutes les consoles distribuées ont été vendues, et pourtant on n’en entend pas parler plus que cela... Lors de son lancement en Europe, il n’y a eu aucun réel événement, bien qu’aux Etats-Unis Bill Gates s’était déplacé personnellement pour la mise sur le marché de son nouveau bébé, en Europe, rien ! C’est tout de même étonnant, mais passons...

La Xbox 360, soyons réaliste, est un semi-échec pour le moment ou alors, ses créateurs ont eu les yeux plus gros que le ventre... Un chiffre de ventes décevant au Japon, pas très concluant en Amérique, c’est peut-être pour cela que l’Europe n’a été alimentée que par 300 000 consoles ? L’effet de rupture de stock peut provoquer une certaine impatience, et donc ameuter les médias. Comme nous l’avons expliqué plus haut, l’annonce que Microsoft a faite par rapport à la supposée puissance 70 fois supérieure au premier volet de la Xbox, reste très ambiguë, comment qualifier un jeu de 70 fois meilleur à un autre ? C’est un gros nombre qui peut faire rêver plus d’un joueur, mais dans ce cas il faut y mettre les moyens ! La console pack Premium à environ 400 €, l’écran haute définition à 800 € plus le jeu à 60 €, et nous voila avec un réalisme plus que surprenant ! Mais là est le plus gros inconvénient de cette console : le prix ! Elle offre quand même, malgré tout, certains avantages : c’est tout de même la console la plus puissante du marché actuellement, ses capacités maximales ne sont pas encore tout à fait connues et elle peut donc encore surprendre, qui sait...

Nous attendons donc avec impatience les consoles de Nintendo et Sony qui arriveront dans les prochains mois, cela nous promet de sérieuses batailles entre géants...

Nous pouvons nous attendre à la sortie de pack console + jeu suivant la sortie de la Play Station 3. Ils auraient pu tout de même inclure un jeu, même en version de démonstration, dans le pack Premium de la console, c’est un minimum !

Concrètement, ce qui rebute plus d’une personne est le prix excessif de cette console, et ce qui en attire d’autres sont les fonctionnalités de la console, ainsi que le fait qu’elle soit pour le moment, la console la plus puissante du marché...

Parlons chiffres pour conclure, il est toujours intéressant de savoir le succès numérique que peut connaître un produit ; la barre des 100 000 consoles vendues en France uniquement vient d'être franchise, un résultat supérieur aux ventes japonaises, 600 000 Xbox 360 se sont écoulées aux Etats Unis et pas moins de 200 000 en Grande Bretagne. Des ventes effectuées durant la période du 2 décembre 2005 jusqu'à l'heure actuelle, des résultats encourageants !

Site officiel : Microsoft
Débattre cet article : Forum 59H
Signaler une erreur : Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir.

[Test] Call Of Duty II

Envoyer Imprimer
Test réalisé par : DjMonster le 07 novembre 2005
Jeu testé : Call of Duty II


Introduction

Dernier opus d’une série de valeureuse réputation, Call of Duty II est annoncé comme étant l’un des hits de cette fin d’année. La relève est-elle assurée ? A première vue, oui mais la perfection n’est pas de mise dans le monde du jeux vidéo...


Présentation

Editeur : Activision
Développeur : Infinity Ward
Sortie officielle : 4 novembre 2005
Prix de vente : environ 55 euros
Modes de jeux disponibles : Multijoueur (Internet ou LAN) - Solo

Configuration minimale requise :

Carte graphique dotée de 64Mo et supportant DirectX 9.0c
Windows 2000 ou XP
Processeur 1,4GHz
Memoire 256Mo
Espace disque dur 4Go

Configuration de test :

AMD Athlon 64 3400+
Asus K8N4-E Deluxe
1024 Mo DDR PC3200
PNY GeForce 6600GT 128Mo

Débattre ce sujet sur le Forum 59H {mospagebreak}

Test réalisé par : DjMonster le 07 novembre 2005
Jeu testé : Call of Duty II


Premier coup d’œil

Tout débute par une introduction vidéo plutôt alléchante, diffusant les divers univers du jeu et les principales actions. De même pour chaque début de mission, une vidéo du contexte historique vous sera proposée.

L’entraînement :

C’est à Moscou, au mois de Décembre 1941, par un temps de neige et une température de -15°, que vous prendrez place au sein de l’armée rouge sous le nom de Vasili I. Koslov appartenant à la 13e division de fusiliers. L’entraînement consiste à tirer sur des bouteilles, des peluches, puis sur des casques allemands ; ensuite à lancer des pommes de terre en guise de grenade (trop précieuses pour les gaspiller) dans une ruine.


Votre première mission :

Elle succède directement à l’entraînement, on vous appel car une offensive allemande est lancée, vous devez aller chercher un pistolet-mitrailleur, des fumigènes et des grenades. Ensuite vous pénétrez dans la ville semée de quelques embûches. Notons que l’enchaînement de la 1ere mission est vraiment très bien réalisé.


Les campagnes :

Vos missions en URSS se dérouleront principalement à Stalingrad, où vous devrez vous défendre contre un assaut allemand, réparer un fil de liaison radio endommagé, reconquérir la gare, la défendre, reprendre le centre ville aux mains des allemands et enfin, les repousser lors de leur dernier assaut, tout au moins pour la campagne russe. Nous voila donc la campagne en URSS achevée, nos premières impressions sont largement positives, même si certaines idées semblent être assez semblable au premier volet, il est évident que les améliorations graphiques sont présentes, le rôle des fumigènes est lui aussi d’une importance primordiale, quant au gameplay rien n’est vraiment nouveau, il est d’ailleurs difficile d’innover dans ce domaine, mais certains petits détails tel que l’indicateur de grenades, améliore encore le jeu.

Nous nous tournons désormais vers la campagne Anglaise, où nous incarnerons le sergent John Davis de la 7eme division de blindés, notre objectif : repousser l’Afrika Korps commandé par Rommel. Les missions de cette campagne vous baladeront dans le nord-est africain, en Egypte et en Tunisie, dans les paysages hostiles du désert et de ses oasis. On y trouvera la première mission à difficulté : les allemands vous ont tendus une embuscade dans une petite ville labyrinthe, la encore, infranchissable sans fumigènes… C’est aussi dans cette campagne que fut tirer la démo disponible quelques semaines avant la sortie du jeu. Il vous y sera possible de piloter un char durant 2 missions. La campagne anglaise se termine et laisse place à la période de la guerre la plus marquante de l’histoire de notre pays.

La campagne américaine se déroule dans notre beau pays, lors du jour-j : le débarquement allié sur les plages de Normandie. Vous incarnerez le Caporal Bill Taylor de la compagnie D, 2eme bataillon de Rangers. Tout commence par un débarquement sur la pointe du hoc, où vous devez sécuriser des bunkers, puis diverses missions vous seront confiées. Vous visiterez par la suite quelques villages de Normandie. On ressent dans ces missions, l’énorme réalisme de CoD II, on s’y croirait vraiment, c’est très très impressionnant !

Débattre ce sujet sur le Forum 59H {mospagebreak}

Test réalisé par : DjMonster le 07 novembre 2005
Jeu testé : Call of Duty II


Galerie
 

Débattre ce sujet sur le Forum 59H {mospagebreak}

Test réalisé par : DjMonster le 07 novembre 2005
Jeu testé : Call of Duty II


Conclusion

Les musiques : Vraiment bien, le rythme des symphonies est en chœur avec l’action du jeu, les musiques accompagnées aux cries des soldats sont entraînantes, ça vous donne cette soif qui vous mènera à la victoire.

Les graphismes : On constate une nette amélioration comparée au premier de la série, les déplacements des personnages sont plus fluides, les visages sont clairement plus réalistes, les paysages plus précis, détaillés.

Les voix : C’est réellement le top, les personnages s’exclament de joie lorsqu’ils tuent un allemand, expriment leur rage en employant des noms d’oiseaux et sont vraiment indispensables, ils vous signalent où se trouve l’ennemis, en autres. Impossible de jouer sans son, le plaisir serait gâché.

Les nouveautés : Call of Duty II innove vraiment dans l’IA (intelligence artificielle), la façon dont interagie les ennemis face à vos actions est impressionnante. La grosse nouveauté vient du réalisme, jamais un jeu vidéo n'a été aussi absorbant. Suivent les graphismes plus nets, puis tous les petits détails qui font de ce jeu l’un des meilleurs de l’année.

Général : Call of Duty II est très certainement "LE" FPS historique, l’immersion est totale, quand on joue à CoD II on est scotché devant l’écran. Le principal point négatif est la réintégration de missions existantes déjà dans le n°1 : la destruction des avions ennemis, des canons dans les tranchées, notamment, bien qu’il serait difficile d’innover dans ce domaine si l’on veut toujours coller avec la réalité. Pour finir, CoD II retranscrit l’art de la guerre avec une fidélité et un réalisme jamais égalé.

Débattre ce sujet sur le Forum 59H
Signaler une erreur : Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir.

[Test] Xpand Rally

Envoyer Imprimer