Archives de catégorie : linux

Installation Solr sur Debian 8

Solr_Logo_on_whiteInstallation de Java8


echo "deb http://ppa.launchpad.net/webupd8team/java/ubuntu trusty main" | tee /etc/apt/sources.list.d/webupd8team-java.list
echo "deb-src http://ppa.launchpad.net/webupd8team/java/ubuntu trusty main" | tee -a /etc/apt/sources.list.d/webupd8team-java.list
apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv-keys EEA14886
apt-get update
apt-get install oracle-java8-installer
apt-get install oracle-java8-set-default
java -version

 

Installation de Solr 5.x

wget http://apache.crihan.fr/dist/lucene/solr/5.4.0/solr-5.4.0.tgz
tar xzf solr-5.4.0.tgz solr-5.4.0/bin/install_solr_service.sh --strip-components=2
bash ./install_solr_service.sh solr-5.4.0.tgz 

 

Quelques modifications

service solr status
service solr stop
chown -R solr:solr /var/solr
service solr start

 

Création d’une Collection

su - solr -c "/opt/solr/bin/solr create -c drupal"

 

Il vous reste à vérifier dans votre navigateur : http://localhost:8983/solr

 

Sources :

  • https://www.drupal.org/node/2502221
  • https://www.digitalocean.com/community/tutorials/how-to-install-solr-5-2-1-on-ubuntu-14-04

Redis haute-disponibilité

Dans le cadre d’un projet de centralisation des logs avec Ossec + LogStash + ElasticSearch + Kibana, nous avons eu recours à Redis pour faire le tampon entre Ossec et Logstash.

Des contraintes de disponibilité m’ont conduit à mettre en place une plateforme Redis hautement disponible et tolérante….la routine habituelle ;-).

Le schéma de l’architecture mise en place ressemble à ça (merci 1Q77 pour l’inspiration) :Redis-HA-haproxy-sentinel

Contrairement à Yteraoka, j’ai opté pour 3 serveurs Redis (1 maitre, 2 esclaves).
En cas de défaillance du Redis Maitre, Sentinel (redis-sentinel) s’occupe de promouvoir un des esclaves en maitre.
Le fidèle Ha-proxy redirigera sur le flux sur le nouveau maitre.
Tandis que KeepAlived s’occupe de présenter toujours la même (V)IP aux clients Redis.

Voici le plan d’adressage des machines et leur rôle :

Nom IP Rôle
VIP 192.168.0.1 VIP
haproxy-01 192.168.0.2 haproxy + keepalied
haproxy-02 192.168.0.3 haproxy + keepalied
redis-01 192.168.0.4 Redis maître
redis-02 192.168.0.5 Redis esclave
redis-03 192.168.0.6 Redis esclave

Ha-Proxy

Installation

apt-get install software-properties-common
add-apt-repository ppa:vbernat/haproxy-1.5
apt-get install haproxy hatop

Configuration

Editer /etc/haproxy/haproxy.cfg

global
    log /dev/log    local0
    log /dev/log    local1 notice
    chroot /var/lib/haproxy
    stats socket /run/haproxy/admin.sock mode 660 level admin
    stats timeout 30s
    user haproxy
    group haproxy
    daemon

defaults REDIS
    mode tcp
    timeout connect  4s
    timeout server  30s
    timeout client  30s

frontend ft_redis
    bind 192.168.0.1:6379 name redis
    default_backend bk_redis
 
backend bk_redis
    mode tcp
    option tcplog
    option tcp-check
    tcp-check send AUTH\ 7xJtpLugAyu6hgPbuB3hX4R\r\n
    tcp-check expect string +OK
    tcp-check send PING\r\n
    tcp-check expect string +PONG
    tcp-check send info\ replication\r\n
    tcp-check expect string role:master
    tcp-check send QUIT\r\n
    tcp-check expect string +OK
    server redis01 192.168.0.4:6379 check inter 1s
    server redis02 192.168.0.5:6379 check inter 1s
    server redis03 192.168.0.6:6379 check inter 1s

Toute l’intelligence se retrouve dans les lignes « tcp-check ».
Ici ha-proxy va simuler une connexion cliente sur les serveurs Redis en jouant le scénario suivant :

  1. Connexion et authentification avec envoie du mot de passe, en espérant avoir la réponse OK
  2. Demande d’information sur la réplication. Retourne un certain nombre de ligne dont celle indiquant le rôle du serveur. Ici on s’attend à avoir « role:master ».
  3. Déconnexion

Si a une des commandes « send » le résultat retourné correspond à celui la ligne « expect » qui suite, le serveur est considéré comme L7OK, et il prendra les flux.
Sinon L7TOUT et il n’aura pas de flux.

KeepAlived

Installation

apt-get install keepalived

Configuration

Editer /etc/keepalived/keepalived.conf.
La configuration est identique les 2 machines haproxy-*, à la « priority » près.

# Settings for notifications
global_defs {
    notification_email {
        hugues@lepesant.com
    }
    notification_email_from haproxy01@lepesant.com
    smtp_server 212.27.48.4
    smtp_connect_timeout 15
    router_id haproxy01
}

vrrp_sync_group SyncGroup01 {
    group {
        VI_1
    }
}

vrrp_script chk_haproxy {
    script "/usr/bin/killall -0 haproxy"
    script "/usr/sbin/service haproxy restart"
    interval 9
    timeout 3
    weight 20
    rise 2
    fall 4
}

vrrp_instance VI_1 {
    interface eth0
    nopreempt
    virtual_router_id 51
    priority 101          # 101 on master, 100 on backup
    advert_int 5

    virtual_ipaddress {
        192.168.0.1/24 dev eth0
    }

    track_script {
        chk_haproxy
    }

    smtp_alert
}

Pour tester :

ip address show

Redis

Installation

Toutes les machines sont animées par des Ubuntu 14.04.
Les commandes sont exécutées après « sudo -i ».

  apt-get install software-properties-common
  add-apt-repository ppa:rwky/redis 
  apt-get update
  apt-get install redis-server

Configuration

Histoire de ne plus avoir d’alerte dans les log à propos de « Transparent Hugepage »

  echo never > /sys/kernel/mm/transparent_hugepage/enabled
  vim /etc/rc.local

Ajouter « echo never > /sys/kernel/mm/transparent_hugepage/enabled » dans /etc/rc.local, avant le « exit ».

Par habitude je ne modifie pas les fichiers de configuration si je peux le faire par un fichier dans un répertoire « conf.d/ » de l’application.
Donc :

vim /etc/redis/conf.d/local.conf

Avec les lignes suivantes :

Redis maître

Sur le maître. Enfin au démarrage, et tant qu’il ne rencontre pas de défaillance c’est le maître.

#slaveof 192.168.0.5 6379
masterauth 7xJtpLugAyu6hgPbuB3hX4R
requirepass 7xJtpLugAyu6hgPbuB3hX4R

La réplication est un peu sécurisée par la demande d’un mot de passe (masterauth).
Comme à n’importe quel moment le maître peut devenir esclave, il doit connaitre le mot de passe pour se connecter au maître (requirepass).

Redis esclave

Sur le 2 esclaves.

slaveof 192.168.0.4 6379
masterauth 7xJtpLugAyu6hgPbuB3hX4R
requirepass 7xJtpLugAyu6hgPbuB3hX4R

Sentinel

Création d’un script d’init

C’est balot y’en a pas

vim /etc/init.d/redis-sentinel
chmod +x /etc/init.d/redis-sentinel
update-rc.d redis-sentinel defaults

En voilà le contenu :

#!/bin/sh
### BEGIN INIT INFO
# Provides:          redis-sentinel
# Required-Start:
# Required-Stop:
# Default-Start:     2 3 4 5
# Default-Stop:      0 1 6
# Short-Description: Start daemon at boot time
# Description:       Enable service provided by daemon.
### END INIT INFO

NAME="redis-sentinel"
DAEMON="/usr/bin/redis-sentinel"

. /lib/lsb/init-functions
[ -f /etc/default/rcS ] && . /etc/default/rcS

test -x $DAEMON || exit 0

case "$1" in
    stop)
        log_begin_msg "Stoping Redis Sentinel..." "redis-sentinel"
        killall -9 redis-sentinel &> /dev/null
        log_end_msg $?
        ;;
    start)
        log_begin_msg "Starting Redis Sentinel..." "redis-sentinel"
        nohup $DAEMON /etc/redis/sentinel.conf >> /var/log/redis/sentinel.log &> /dev/null &
        log_end_msg 0
        ;;
        restart)
                $0 stop
                sleep 2
                $0 start
                ;;
        status)
                status_of_proc $DAEMON redis-sentinel
        ;;
    *)
        log_failure_msg "Usage: $0 <stop|start|restart|status>"
        exit 1
        ;;
esac

exit 0

Configuration

Création du fichier « /etc/redis/sentinel.conf » avec le contenu suivant :

port 26379
daemonize yes
logfile "/var/log/redis/sentinel.log"
pidfile "/var/run/redis/redis.pid"

sentinel monitor mymaster 192.168.0.4 6379 2
sentinel auth-pass mymaster 7xJtpLugAyu6hgPbuB3hX4R
sentinel down-after-milliseconds mymaster 5000
sentinel failover-timeout mymaster 10000

On dit à sentinel de surveiller le noeud « mymaster » qui à l’IP 192.168.0.4, sur le port 6379, et qui nécessite un quorum de 2 pour l’élection d’un master.
Sentinel se charge de détecter à la fois les autres serveurs sentinels et redis.
Il mettra à jour lui-même son fichier de configuration.

Start

service redis-server start
service redis-sentinel start

Pour monitorer tout ça

Keepalived

ip address show

Ha-Proxy

hatop -s /var/run/haproxy/admin.sock

Redis

redis-cli -a 7xJtpLugAyu6hgPbuB3hX4R monitor
redis-cli -a 7xJtpLugAyu6hgPbuB3hX4R info replication

Sentinel

tail -f /var/log/redis/sentinal le viagra en vente libre.log

Et avec le client Redis.

redis-cli -p 26379 -a 7xJtpLugAyu6hgPbuB3hX4R sentinel masters
redis-cli -p 26379 -a 7xJtpLugAyu6hgPbuB3hX4R sentinel master mymaster
redis-cli -p 26379 -a 7xJtpLugAyu6hgPbuB3hX4R sentinel slaves mymaster
redis-cli -p 26379 -a 7xJtpLugAyu6hgPbuB3hX4R sentinel sentinels mymaster

Si le maître plante

Dans ce cas :

  1. Sentinel va marquer le maître comme « down »
  2. Sentinel va promouvoir un esclave en maître, choisi parmi les esclaves
  3. Ha-Proxy va détecter que le maître a changé et va basculer les connexions sur lui

Si l’ancien maître revient à la vie, Ha-Proxy le détactera à nouveau comme « L7OK », mais n’enverra pas de connexion dessus car il n’y a pas de répartition de charge dessus.
Il nous faudra modifier ça configuration en précisant le nouveau maître.

Références

https://blog.1q77.com/2015/02/redis-ha/
http://engineering.bloomreach.com/the-evolution-of-fault-tolerant-redis-cluster/
http://qiita.com/wellflat/items/8935016fdee25d4866d9
http://bencane.com/2013/11/12/installing-redis-and-setting-up-master-slave-replication/
https://support.pivotal.io/hc/en-us/articles/205309388-How-to-setup-HAProxy-and-Redis-Sentinel-for-automatic-failover-between-Redis-Master-and-Slave-servers
http://www.101tech.net/2014/08/08/highly-available-redis-cluster/

ET bien sure :

http://redis.io/topics/replication
http://redis.io/topics/sentinel

Sécurisé un poil votre cluster Elasticsearch (round 2 : iptables)

Elasticsearch ça roxe. Ave un défaut, la sécurité c’est pas son truc.
A vous de la faire.

Mon problème est le suivant :

  1. 1 cluster Elasticsearch composé de 3 noeuds
  2. Tous dans le même réseau
  3. Avec d’autres machines
  4. Comment sécuriser à minima le cluster ES ?

ElasticSearchSecured

Pour l’accès au plugin head, j’ai opté pour la solution nginx décrite ici.

Par contre pour m’assurer que seul les noeuds elasticsearch discutent entre eux, et qu’ils ne sont accessibles que par le serveur Nginx, je fais appel iptables (!!)

apt-get install iptables iptables-persistent
vim /etc/iptables/rules.v4 
# Generated by iptables-save v1.4.21 on Wed Jul 29 23:22:59 2015
*filter
# par defaut je DROP ce qui arrive
:INPUT DROP [0:0]
# je route pas !!
:FORWARD DROP [0:0]
:OUTPUT ACCEPT [45:6396]
-A INPUT -i lo -j ACCEPT
# je me coupe pas les pattes
-A INPUT -s 192.168.0.0/24 -p tcp -m tcp --dport 22 -j ACCEPT
# les noeuds se parlent sur le port 9300
-A INPUT -s 192.168.0.11 -p tcp -m tcp --dport 9300 -j ACCEPT
-A INPUT -s 192.168.0.12 -p tcp -m tcp --dport 9300 -j ACCEPT
-A INPUT -s 192.168.0.13 -p tcp -m tcp --dport 9300 -j ACCEPT
# c'est bidirectionnelle
-A INPUT -s 192.168.0.11 -p tcp -m tcp --sport 9300 -j ACCEPT
-A INPUT -s 192.168.0.12 -p tcp -m tcp --sport 9300 -j ACCEPT
-A INPUT -s 192.168.0.13 -p tcp -m tcp --sport 9300 -j ACCEPT
# le discover en multicast
-A INPUT -s 192.168.0.11 -p udp -m pkttype --pkt-type multicast --sport 54328 --dport 54328 -j ACCEPT
-A INPUT -s 192.168.0.12 -p udp -m pkttype --pkt-type multicast --sport 54328 --dport 54328 -j ACCEPT
-A INPUT -s 192.168.0.13 -p udp -m pkttype --pkt-type multicast --sport 54328 --dport 54328 -j ACCEPT
# nginx lui peut causer sur le port 9200
-A INPUT -s 192.168.0.10 -p tcp -m tcp --dport 9200 -j ACCEPT
# dns dés fois que ....
-A INPUT -s 192.168.0.1 -p udp -m udp --sport 53 -m state --state ESTABLISHED -j ACCEPT
-A INPUT -s 192.168.0.2 -p udp -m udp --sport 53 -m state --state ESTABLISHED -j ACCEPT
# a la fin je log et je drop
-A INPUT -j LOG --log-prefix "MYLOG:" --log-level 7
-A INPUT -j DROP
COMMIT
# Completed on Wed Jul 29 23:22:59 2015

Flumotion sur Ubuntu 14.04

Flumotion est un logiciel de streaming multi-format (i.e. audio et/ou vidéo) open source.

Afin de répondre à une problématique client – I Love Developpers ™ – je me suis penché sur son installation sous Ubuntu 14.04 LTS 64bits.

Je me suis basé sur l’article trouvé sur Serenux

Je rajoute juste 3 lignes de commande après l’installation pour prévenir de la mise à jour des 3 paquets anciens paquets Python.


# apt-mark hold python-twisted-bin
# apt-mark hold python-twisted-core
# apt-mark hold python-twisted-web

Et le tour est joué.

Installation de l’agent Nagios sur VCSA 5.5

Installation des repository

Se connecter en SSH sur la VCSA5.5


zypper addrepo -f http://download.opensuse.org/distribution/11.2/repo/oss/ opensuse

Vérifier la configuration des nouveaux repos

zypper repos -d

Rafraichir les sources

zypper refresh

Installer Nagios-NRPE

# zypper install nagios-nrpe-client

Activer le service

# chkconfig nrpe on

Configuration de l’agent Nagios

Editer les fichier /etc/nagios/

Lancer le service

# /etc/init.d/nrpe start

Autoriser l’accès distant à l’agent

Ajouter la ligne suivante à la fin du fichier « /etc/hosts.allow » pour autoriser votre serveur Nagios.

nrpe: 192.168.0.10 : ALLOW

Installation agent-zabbix sur VCSA 5.5

Installation des repository

Se connecter en SSH sur la VCSA5.5

zypper addrepo -f http://download.opensuse.org/repositories/server:/monitoring:/zabbix/SLE_11 server_monitoring

Vérifier la configuration des nouveaux repos

zypper repos -d

Rafraichir les sources

zypper refresh

Installer Zabbix-Agent

zypper install zabbix24-agent

Configuration de l’agent Zabbix

Editer le fichier /etc/zabbix/zabbix-agentd.conf

Commenter les lignes :

Hostname=Zabbix server
Server=127.0.0.1
ServerActive=127.0.0.1

Et ajouter en fin de fichier :

LogFileSize=1
DebugLevel=3
Server=192.168.0.10
ServerActive=

Activer le service

chkconfig zabbix-agentd on

Lancer le service

/etc/init.d/zabbix-agentd start

Autoriser l’accès distant à snmpd

Ajouter les 2 lignes suivantes à la fin du fichier « /etc/hosts.allow »

zabbix-agentd: 192.168.0.10 : ALLOW

Tester depuis le serveur Zabbix

$ zabbix_get -s 192.168.0.25 -k agent.hostname
esxi25.lepesant.com

$ zabbix_get -s 192.168.0.25 -k agent.version 
2.4.3

Ca marche !

Installation snmpd sur VCSA 5.5

Installation des repository

Se connecter en SSH sur la VCSA5.5

zypper addrepo -f http://download.opensuse.org/repositories/net-snmp:/factory/SLE_11_SP2/ opensuse_snmp
zypper addrepo -f http://download.opensuse.org/distribution/11.2/repo/oss/ opensuse

Vérifier la configuration des nouveaux repos

zypper repos -d

Rafraichir les sources

zypper refresh

Installer Net-snmp

zypper install net-snmp

Configuration net-snmp

Editer le fichier /etc/snmp/snmpd.conf

Activer le service

# chkconfig snmpd on

Lancer le service

# /etc/init.d/snmpd start

Autoriser l’accès distant à snmpd

Ajouter 1 ligne suivantes à la fin du fichier « /etc/hosts.allow » pour autoriser votre serveur de polling snmp.

snmpd: 192.168.0.10 : ALLOW

Tester depuis le serveur snmp

$ snmpwalk -v 2c -c public -On 192.168.0.25 .1.3.6.1.2.1.1.1.0
.1.3.6.1.2.1.1.1.0 = STRING: Linux esxi25.lepesant.com 3.0.101-0.7.19-default #1 SMP Fri May 9 14:41:39 UTC 2014 (aab30c0) x86_64

Ca marche !

GNU/Linux et Multipath IO (MPIO)

Configuration des serveurs initiateurs

Rappel

Dans notre architecture, le service SAN est assuré par un serveur OmniOS, offrant un partage iSCSI d’un volume ZFS.

  • Les initiateurs (client iSCSI) sont des serveurs Linux (Host CloudStack)
  • Le volume ZFS constitue le « Primary Storage » du cluster CloudStack.

Schema


|-----------|                    |----------|                     |--------------|
|           |--10.10.12.1.2 -----| SWITCH 1 |-------10.10.12.1.1--|              |
|           |                    |----------|                     |              |
|  Host 1   |                                                     |   Primary    |
|           |                    |----------|                     |   Storage    |
|           |--10.10.12.2.2 -----| SWITCH 2 |-------10.10.12.2.1--|              |
|-----------|                    |----------|                     |--------------|

iSCSI

Installation des paquets

# apt-get install open-iscsi
# service open-iscsi restart

Découverte des targets

# iscsiadm  -m discovery -t st -p 10.12.1.1
10.12.1.1:3260,2 iqn.2010-08.org.illumos:02:cc900a8d-1801-e829-9203-9beb8009934b
10.12.2.1:3260,2 iqn.2010-08.org.illumos:02:cc900a8d-1801-e829-9203-9beb8009934b
# iscsiadm  -m discovery -t st -p 10.12.2.1
10.12.2.1:3260,2 iqn.2010-08.org.illumos:02:cc900a8d-1801-e829-9203-9beb8009934b
10.12.1.1:3260,2 iqn.2010-08.org.illumos:02:cc900a8d-1801-e829-9203-9beb8009934b

Ces commandes ont pour effet de créer les répertoires correspondant aux targets trouvés dans le répertoire « /etc/iscsi/nodes/ ».
C’est à partir des infos contenus que les targets pourront être montées automatiquement à chaque reboot.

Connexion aux targets

# iscsiadm -m node --targetname "iqn.2010-08.org.illumos:02:cc900a8d-1801-e829-9203-9beb8009934b" --portal "10.12.1.1:3260" --login

Configuration du Multipathing (MPIO)

Une fois vos disques iSCSI attachés, nous allons configurer le « multipath IO (MPIO).

Installation du paquet

# apt-get install multipath-tools
# service multipath-tools restart

Configuration du multipathing

Editer le fichier /etc/multipath.conf
En voici une configuration minimale

devices {
        device {
                vendor                  "SUN"
                product                 "COMSTAR"
                path_grouping_policy    multibus
        }
}

multipaths {
        multipath {
                wwid 3600144f0000000000000527263940001
                alias PrimaryStorage
        }
}

Pour connaitre les paramètres vendor, product et wwid de votre disque iSCSI, lancez la commande :

# multipath -ll
3600144f0000000000000527263940001 dm-0 SUN,COMSTAR
size=3.1T features='0' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=1 status=active
| `- 7:0:0:0 sdb 8:16 active ready running
`-+- policy='round-robin 0' prio=1 status=enabled
  `- 8:0:0:0 sdc 8:32 active ready running

L’instruction *alias* vous permet une utilisation human friendly du device.

Une fois cette configuration terminée, relancez le service multipath-tools.
Puis la commande :

# multipath -ll
PrimaryStorage (3600144f0000000000000527263940001) dm-0 SUN,COMSTAR
size=3.1T features='0' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=1 status=active
| `- 7:0:0:0 sdb 8:16 active ready running
`-+- policy='round-robin 0' prio=1 status=enabled
  `- 8:0:0:0 sdc 8:32 active ready running
root@host-kvm-01:~#

Utilisation du « disque »

Montage du disque et formatage

# dmesg
# cfdisk /dev/dm-0
# mkfs.ext4 /dev/dm-1
# mount /dev/dm-1 /opt/primary

Check devmapper

# ls -al /dev/mapper/
total 0
drwxr-xr-x  2 root root     100 Nov  7 17:43 .
drwxr-xr-x 13 root root    3220 Nov  7 17:43 ..
crw------T  1 root root 10, 236 Nov  7 17:42 control
lrwxrwxrwx  1 root root       7 Nov  7 17:43 PrimaryStorage -> ../dm-0
lrwxrwxrwx  1 root root       7 Nov  7 17:43 PrimaryStorage-part1 -> ../dm-1

On voit bien que notre disque iSCSI est présenté par son alias PrimaryStorage.
La partition créée est PrimaryStorage-part1.

Configuration automatique à chaque boot

Si tout ce passe bien, vous pouvez :

  1. Modifier la configuration de /etc/iscsi/iscsid.conf et mettre node.startup = automatic
  2. Modifier votre /etc/fstab en y ajoutant la ligne :
# iSCSI
/dev/mapper/PrimaryStorage-part1          /opt/primary    ext4    defaults,auto,_netdev 0 0

Tout vient à point à qui sait attendre …

Dans une lointaine galaxie, il y a très longtemp (au 20ème siècle), j’ai joué avec un Qube3.

Et depuis je n’en avais pas touché un seul….à part ses cousins raplaplats, et son grand frère à base de Mips aka. Qube2 (merci paaattrrroooonnnnn).

Et bien, grace à Ebay je viens enfin de faire l’aquisition pour une somme tout à fait raisonnable d’un des derniers modèles de Qube3….Il est estampillé « Sun Cobalt ».

Et toujours avec l’aide d’Ebay, il est matenant doté de 512Mo de RAM (kingston rocks!!).

Putain dix ans 🙂

Sun Cobalt - Smaller, Bluer, Better, and Free
Firmware version 2.10.3-ext3

Current date: Jul 20 11:23:54 UTC 2009
ROM build info: Thu Mar 11 08:51:36 MST 2004 .
System serial number: Uninitialized
System type: 3000 series system, Version 2 board
Silicon serial number: 25000008bb7cc501
Monitor: 153536 bytes
Memory: 512 MB
CPU: 1 processor(s) detected
CPU 0: AuthenticAMD 448MHz (4.5 x 100MHz host bus) [BSP]
Initializing flash: done
Flash Bank 0: AMD AM29F080B 1024KB (01:d5)
Flash Bank 1: not installed.
Mounting ROM fs: done
Initializing PCI: done
Host Bus: 0 (device 1f:01) [33MHz]
Device: 00:00 10b9:1541 Acer Labs M1541 Aladdin V Host Bridge
Device: 01:00 10b9:5243 Acer Labs M5243 AGP Controller
Device: 02:00 10b9:5237 Acer Labs M5237 USB Controller (IRQ 6)
Device: 03:00 10b9:7101 Acer Labs M7101 PMU
Device: 07:00 10b9:1533 Acer Labs M1543 Aladdin V PCI-ISA Bridge
Device: 0e:00 1000:000f Symbios Logic SYM53C875 SCSI Controller (IRQ 12)
Device: 0f:00 10b9:5229 Acer Labs M5229 TXpro IDE Controller (IRQ 14)
Device: 10:00 100b:0020 National DP83815 MacPhyter Ethernet (IRQ 11)
Device: 12:00 100b:0020 National DP83815 MacPhyter Ethernet (IRQ 10)
Bridged Bus: 1 (bridge: 00:01:00)
Initializing ethernet: 2 controller(s) found
National Semiconductor DP83815 Found at port 0xfc00, MAC: 00:10:e0:03:f5:cc
National Semiconductor DP83815 Found at port 0xfb00, MAC: 00:10:e0:03:fb:7b
Initializing IDE: found ALI M5229 at 00:78
spinning up second channel: done
scanning ide0: master
scanning ide1:
IDE: stabilizing spinup: 100%
Checking Memory: done

Press spacebar to enter ROM mode
Booting default method - From disk

Comme vous l’aure remarqué il a subit l’upgrade de sa flash, et ses aventures de sont pas finies…