CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Audiobooks by Valerio Di Stefano: Single Download - Complete Download [TAR] [WIM] [ZIP] [RAR] - Alphabetical Download  [TAR] [WIM] [ZIP] [RAR] - Download Instructions

Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Matrice (mathématiques) - Wikipédia

Matrice (mathématiques)

Un article de Wikipédia, l'encyclopédie libre.

Vous avez de nouveaux messages (diff ?).
Pour les articles homonymes, voir Matrice. 

En mathématiques, une matrice est un tableau de nombres de forme rectangulaire, tel que

A=\begin{bmatrix}3&\frac53&6\\2&-1&4\pi\end{bmatrix}

qui est une matrice à deux lignes (ou rangées) et trois colonnes. Il est possible de faire des calculs algébriques sur les matrices : addition de matrices de même dimension, multiplication de matrices de dimensions compatibles.

Une très grande quantité de problèmes de mathématiques ou de physique peuvent être modélisés en utilisant des matrices. Elles interviennent au premier chef en algèbre linéaire, c'est-à-dire pour effectuer des calculs systématiques sur les vecteurs. Par exemple appliquer une rotation, une symétrie ou tout autre transformation géométrique peut être ramené à une opération matricielle. Mais on trouve aussi des matrices en probabilités, en optique, et dans bien d'autres domaines.

Sommaire

[modifier] Introduction

C'est en 1850 que le mathématicien James Joseph Sylvester mentionna pour la première fois dans un article le terme de matrice.

Les matrices sont maintenant utilisées pour de multiples applications et servent notamment à représenter les coefficients des systèmes d'équations linéaires ou à représenter les applications linéaires ; dans ce dernier cas les matrices jouent le même rôle que les coordonnées d'un vecteur pour les applications linéaires.

En 1925, Werner Heisenberg redécouvre le calcul matriciel en fondant une première formulation de ce qui allait devenir la mécanique quantique. Il est à ce titre considéré comme l'un des pères de la mécanique quantique.

[modifier] Définitions et notations

En mathématiques, une matrice est un tableau rectangulaire de nombres appelés éléments ou coefficients :

A=\begin{bmatrix} a_{1,1} & a_{1,2} & \cdots & a_{1,n}\\ a_{2,1} & a_{2,2} & \cdots & a_{2,n}\\ \vdots & \vdots & \ddots & \vdots\\ a_{m,1} & a_{m,2} & \cdots & a_{m,n}\\ \end{bmatrix}

Ce tableau peut être encadré par des parenthèses ou, comme dans cet article, par des crochets.

On appelle lignes les lignes horizontales de ce tableau et colonnes les lignes verticales de ce tableau. On dit qu'une matrice est de dimension m\times n ou de type (m,n) si ce tableau comporte m lignes et n colonnes.

L'élément, a_{i,j}\,, qui se trouve dans la ie ligne et la je colonne de la matrice A est appelé coefficient d'indice i,j de la matrice A.

L'ensemble des matrices de dimension m \times n , à coefficients dans un corps (ou anneau) \mathbb K (ensemble quelconque) se note en général \mathcal M_{m,n}(\mathbb K). De même, l'ensemble des matrices carrées d'ordre n se note \mathcal M_n(\mathbb K).

  • On parle de matrice réelle lorsque ses coefficients sont réels.
  • On parle de matrice complexe lorsque ses coefficients sont complexes.

Il existe une notation plus condensée pour représenter une matrice :

A=(a_{ij})\,.

Exemple: Soit la matrice A à coefficients dans \mathbb N de dimension 4 x 3:

A \in \mathcal M_{4,3}(\mathbb N) ,    A= \begin{bmatrix} 1 & 2 & 3 \\ 1 & 2 & 7 \\ 4 & 9 & 2 \\ 6 & 1 & 5 \\ \end{bmatrix}

Son coefficient d'indice (2,3) vaut a2,3 = 7.

[modifier] Calcul matriciel

[modifier] L'addition

Voir l’article Addition matricielle.

Soient A,~B\in{\mathcal{M}}_{m,n}. L'addition est usuellement définie par :

+:A,~B\mapsto\left(A+B\right)\in{\mathcal{M}}_{m,n}\quad\mathrm{t.q.}\quad\left(a+b\right)_{i,j}=a_{i,j}+b_{i,j},\quad\forall{i}\in\left\lbrace{1\ldots m}\right\rbrace\quad\mathrm{et}\quad j\in\left\lbrace{1\ldots n}\right\rbrace.

Exemple :

A=\begin{bmatrix}     1 & 3 & 2 \\     1 & 0 & 0 \\     1 & 2 & 2   \end{bmatrix}~,\quad   B=\begin{bmatrix}     0 & 0 & 5 \\     7 & 5 & 0 \\     2 & 1 & 1   \end{bmatrix}~,\quad   A+B=\begin{bmatrix}     1+0 & 3+0 & 2+5 \\     1+7 & 0+5 & 0+0 \\     1+2 & 2+1 & 2+1   \end{bmatrix}   =\begin{bmatrix}     1 & 3 & 7 \\     8 & 5 & 0 \\     3 & 3 & 3   \end{bmatrix}

L'addition matricielle usuelle :

  • est commutative.
A + B = B + A\,
  • est associative.
(A + B) + C = A + (B + C) = A + B + C\,
  • possède un élément neutre, 0 :
A + 0 = 0 + A = A\,

[modifier] La multiplication scalaire

Soient \alpha\in\mathbb{R} et A\in{\mathcal{M}}_{m,n}. La multiplication scalaire est usuellement définie par :

\cdot:\alpha,A\mapsto\left(\alpha\cdot A\right)\in{\mathcal{M}}_{m,n}\quad\mathrm{t.q.}\quad\left(\alpha\cdot a\right)_{i,j}=\alpha\cdot a_{i,j},\quad\forall{i}\in\left\lbrace{1\ldots m}\right\rbrace\quad\mathrm{et}\quad j\in\left\lbrace{1\ldots n}\right\rbrace.

Exemple :

\alpha=2~,\quad   A=\begin{bmatrix}     1 & 8 & -3 \\     4 & -2 & 5   \end{bmatrix}~,\quad   \alpha\cdot A =   2 \cdot   \begin{bmatrix}     1 & 8 & -3 \\     4 & -2 & 5   \end{bmatrix}   =\begin{bmatrix}     2 & 16 & -6 \\     8 & -4 & 10   \end{bmatrix}


Ces deux opérations munissent l'ensemble \mathcal M_{m,n}(\mathbb R) de toutes les matrices de type (m, n) à coefficients réels d'une structure d'espace vectoriel de dimension finie m\times n.

La multiplication scalaire usuelle est :

  • commutative
\alpha \cdot A = A \cdot \alpha \,
  • et vérifie :
\alpha \cdot (\beta \cdot A ) =   ( \alpha \cdot \beta ) \cdot A \,

[modifier] La multiplication matricielle

Voir l’article Produit matriciel.

Soient A\in{\mathcal{M}}_{m,n} et B\in{\mathcal{M}}_{n,p}. La multiplication matricielle est usuellement définie par :

\cdot:A,~B\mapsto\left(A\cdot B\right)\in{\mathcal{M}}_{m,p}\quad\mathrm{t.q.}\quad\left(a\cdot b\right)_{i,j}=\sum_{k=1}^n a_{i,k} \cdot b_{k,j},\quad\forall{i}\in\left\lbrace{1\ldots m}\right\rbrace\quad\mathrm{et}\quad j\in\left\lbrace{1\ldots p}\right\rbrace.

Exemple :

\begin{bmatrix}     1 & 0 & 2 \\     -1 & 3 & 1 \\   \end{bmatrix} \cdot   \begin{bmatrix}     3 & 1 \\     2 & 1 \\     1 & 0   \end{bmatrix}   =   \begin{bmatrix}     (1\cdot 3+0\cdot 2+2\cdot 1) & (1\cdot 1+0\cdot 1+2\cdot 0) \\     (-1\cdot 3+3\cdot 2+1\cdot 1) & (-1\cdot 1+3\cdot 1+1\cdot 0) \\   \end{bmatrix} =   \begin{bmatrix}     5 & 1 \\     4 & 2 \\   \end{bmatrix}

La multiplication matricielle est :

  • associative

(A\cdot B)\cdot C=A\cdot (B\cdot C)=A\cdot B\cdot C

  • distributive à gauche

A\cdot (B+C)=A\cdot B+A\cdot C

  • distributive à droite

(A+B)\cdot C=A\cdot C+B\cdot C

Attention, la multiplication matricielle n'est en général pas commutative (A \cdot B \neq B \cdot A).

[modifier] La norme matricielle

voir ce site en attendant.

[modifier] Matrices particulières

A\in{\mathcal{M}}_{m,n} est :

  • une matrice carrée si m=n\, sinon la matrice est rectangulaire,
  • une matrice nulle (A = 0) ssi ai,j = 0,,
  • une matrice identité (A = I) ssi ai,j = δij,
  • une matrice diagonale (A = D) ssi a_{i,j}=0,\quad\forall i\neq j,
  • une matrice triangulaire supérieure (A = U) ssi a_{i,j}=0,\quad\forall i>j,
  • une matrice triangulaire inférieure (A = L) ssi a_{i,j}=0,\quad\forall i<j,
  • une matrice bande d'ordre n (A = Bn) ssi a_{i,j}=0,\quad\forall i>j+n\quad\mbox{et}\quad j>i+n,

[modifier] Applications linéaires en dimension finie, rang et transposition

Les matrices peuvent complètement représenter les applications linéaires en dimension finie.

Pour toute application linéaire f : \R^n \rightarrow \R^m il existe une unique matrice A de dimension m × n telle que :

pour tout X = (x_1, x_2, \ldots, x_n) \in \R^n, en posant Y = f(x) = (y_1, y_2, \ldots, y_m)\,, on ait Y=A \cdot X.
Y  \begin{bmatrix} y_1\\ y_2\\ \vdots\\ y_\mathbf{m}\\ \end{bmatrix} = A \begin{bmatrix} a_{1,1} & a_{1,2} & \cdots & a_{1,\mathbf{n}}\\ a_{2,1} & a_{2,2} & \cdots & a_{2,n}\\ \vdots &        & \ddots  & \vdots\\ a_{\mathbf{m},1} & a_{m,2} & \cdots  & a_{\mathbf{m},\mathbf{n}}\\ \end{bmatrix}  \times X \begin{bmatrix}     x_1\\     x_2\\ \vdots\\ x_\mathbf{n}\\   \end{bmatrix}

Nous disons que la matrice A « représente » l'application linéaire ƒ et ƒ est l'application canoniquement associée à A.

Si l'on appelle (e_i)_{i \in [1;n]} la base canonique de \R^n et (e'_j)_{j \in [1;m]} celle de \R^m, alors l'image de ei par ƒ a pour composantes (a_{1,i}, a_{2,i}, \ldots, a_{m,i}). Les colonnes de la matrice sont les coordonnées dans la base canonique de \R^m des images des vecteurs de la base canonique de \R^n.

Ici et dans la suite, nous identifierons \R^n avec l'ensemble des matrices colonnes ou (n, 1)-matrices.

Maintenant si B est une matrice de dimension k × m représentant une autre application linéaire g:\R^m \mapsto \R^k, alors l'application linéaire g \circ f est représentée par la matrice B \times A.

Le rang d'une matrice A est la dimension de l'image de l'application linéaire canoniquement associée à A.

La matrice transposée (on dit aussi la transposée) d'une matrice A de dimension m x n est la matrice notée {}^t \! A (parfois aussi notée A^T\, ou {}^{tr} \! A) de dimension n x m, obtenue en échangeant les lignes et les colonnes de A.

Article détaillé : matrice transposée.

[modifier] Matrices carrées et définitions

Voir l’article Matrice carrée.

Une matrice carrée est une matrice dont les nombres de lignes et de colonnes sont égaux. L'ensemble de toutes les (n, n)-matrices carrées, muni de l' addition et du produit des matrices a une structure d'anneau. À moins que n = 1, cet anneau n'est pas commutatif.

\mathcal M_{n}(\mathbb R) l'anneau des matrices carrées réelles, est une algèbre unitaire associative.

\mathcal M_{n}(\mathbb C) l'anneau des matrices carrées complexes, est une algèbre unitaire associative.

[modifier] Matrice diagonale

Une matrice dite matrice diagonale est une matrice carrée dont seuls les éléments diagonaux peuvent être non-nuls:

C=   \begin{bmatrix}     c_1 & 0 & 0 &0\\     0 & c_2 & 0 &0\\     0 & 0   & \ddots &0 \\     0 & 0 & 0 & c_n\\   \end{bmatrix}

[modifier] Matrice identité

Voir l’article Matrice identité.

La matrice unité ou matrice identité In, est une matrice diagonale dont tous les éléments diagonaux sont égaux à 1. Une matrice Identité satisfait la relation:

I \times M = M \times I= M

Par exemple, si n = 3:

I_3 =   \begin{bmatrix}     1 & 0 & 0 \\     0 & 1 & 0 \\     0 & 0 & 1   \end{bmatrix}

La matrice unité est l'élément neutre de l'anneau des matrices carrées.

[modifier] Matrice inverse

Voir l’article Matrice inversible.

Les éléments symétrisables dans cet anneau sont appelés les matrices inversibles (ou les matrices non singulières)

Par définition une matrice d'ordre n, A est inversible si et seulement s’il existe une matrice B telle que

AB = In ( = BA).

Dans ce cas, B est unique puisque la loi est associative et s'appelle la matrice inverse de A.

Pour calculer l'inverse d'une matrice, on peut utiliser la méthode d'élimination de Gauss-Jordan.

Dans un certain sens, le rang d'une matrice mesure à quel point une matrice est proche d'être inversible.

Une valeur propre d'une matrice carrée A est un nombre γ tel que AIn ne soit pas inversible. Toute matrice carrée complexe possède n valeurs propres éventuellement répétées. Ce résultat n'est pas valable pour les matrices carrées réelles, celles-ci n'admettent pas toujours des valeurs propres toutes réelles; mais une matrice réelle peut être considérée comme une matrice complexe et admet n valeurs propres réelles ou complexes.

Le déterminant d'une matrice carrée A est défini par la formule de Leibniz et est égal au produit des valeurs propres de la matrice.

Les matrices inversibles sont précisément celles qui ont un déterminant non nul.

L'ensemble de toutes les matrices d'ordre n inversibles forme un groupe (en particulier un groupe de Lie) pour la multiplication des matrices, appelé le groupe général linéaire.

La trace d'une matrice carrée est la somme de ses éléments diagonaux, et est aussi égale à la somme de ses n valeurs propres.

Voyez le théorème des matrices inversibles, pour une liste de propriétés des matrices inversibles.

[modifier] Notation par blocs

Voir l’article Sous-matrice.

Une matrice par blocs est une matrice de matrices. Par exemple, considérons une matrice P :

P = \begin{bmatrix} 1 & 2 & 3 & 2\\ 1 & 2 & 7 & 5\\ 4 & 9 & 2 & 6\\ 6 & 1 & 5 & 8\end{bmatrix}

Nous pouvons la découper en des sous-matrices d'ordre 2 de la manière suivante :

P_{11} = \begin{bmatrix} 1 & 2 \\ 1 & 2 \end{bmatrix}, P_{12} = \begin{bmatrix} 3 & 2\\ 7 & 5\end{bmatrix}, P_{21} = \begin{bmatrix} 4 & 9 \\ 6 & 1 \end{bmatrix}, P_{22} = \begin{bmatrix} 2 & 6\\ 5 & 8\end{bmatrix}
P_{\rm par\ \ bloc} = \begin{bmatrix} P_{11} & P_{12}\\ P_{21} & P_{22}\end{bmatrix}

Cette technique de découpage des matrices est utilisée pour les calculs en développant par ligne ou colonne, a beaucoup d'applications en informatique, en particulier dans les circuits à très haute intégration (VLSI).

[modifier] Matrices réelles ou complexes remarquables

Certaines matrices remarquables sont si importantes qu'elles portent un nom; En voici quelques exemples :

  • Les matrices hermitiennes (auto-adjointes) sont des matrices telles que les éléments symétriques par rapport à la diagonales soient conjugués l'un de l'autre, c'est-à-dire
a_{ji}=\overline{a_{ij}}
ai,j=ai+1,j+1.
  • Les matrices stochastiques sont des matrices carrées dont les colonnes correspondent à des vecteurs de probabilité.
  • Les chaînes de Markov sont des suites de vecteurs de probabilité x0,x1,..... avec une matrice stochastique P telle que Xk+1 = PXk pour k = 0,1,2,..... Xk désignant la matrice colonne du vecteur xk.

[modifier] Matrices à coefficients dans un anneau arbitraire

Si nous disposons d'un anneau A alors nous pouvons considérer l'ensemble \mathcal M_{mn}(\mathbb A) de toutes les (m, n)-matrices à coefficients dans A. L'addition et la multiplication de ces matrices peut être définie comme précédemment, et ont les mêmes propriétés. L'ensemble \mathcal M_{n}(\mathbb A) de toutes les matrices carrées d'ordre n sur l'anneau A, est isomorphe à l'anneau des endomorphismes du A-module Rn.

Si A est commutatif, alors \mathcal M_{n}(\mathbb A) est une algèbre associative unitaire sur A. Il est alors aussi possible de définir le déterminant de matrices carrées en utilisant la formule de Leibniz; une matrice est inversible si et seulement si son déterminant est inversible sur A.

Les matrices sur un anneau de polynôme sont importantes dans l'étude de la théorie du contrôle.

Le polynôme caractéristique d'une matrice carré M est le determinant de M - x*Id. Les racines de ce polynôme sont les valeurs propres.

[modifier] Matrice et graphe

Dans la théorie des graphes, on appelle matrice d'un graphe la matrice indiquant dans la ligne i et la colonne j le nombre d'arêtes reliant le sommet i au sommet j. Dans un graphe non orienté, la matrice est symétrique. La somme des éléments d'une colonne permet de déterminer le degré d'un sommet. La matrice Mn indique dans la ligne i et la colonne j le nombre de chemins à n arêtes joignant le sommet i au sommet j

Associée à un graphe probabiliste, on trouve aussi une matrice des probabilités.

[modifier] Décomposition de Dunford

Voir l’article Décomposition de Dunford.

Théorème : Soit M\in \mathcal{M}_n(\mathbb{K}) telle que son polynôme caractéristique soit scindé sur \mathbb{K}. Alors il existe un unique couple (D,N) de matrices, avec D diagonalisable et N nilpotente tel que : M = D + N et DN=ND. De plus, D et N sont des polynômes en M. On parle de « décomposition D + N de la matrice M ». La terminologie 'Décomposition de Dunford', souvent utilisée, est à proscrire (Dunford n'ayant pas travaillé à cette décomposition, qui existait déjà bien avant lui).

[modifier] Voir aussi

[modifier] Liens internes

[modifier] Lien externe

Articles de mathématiques en rapport avec l'algèbre linéaire
Espace vectoriel | Base | Dimension | Matrice | Application linéaire | Déterminant | Trace | Rang | Théorème des facteurs invariants | Réduction d'endomorphisme | Réduction de Jordan | Décomposition de Dunford | Valeur propre | Polynôme caractéristique | Forme linéaire | Espace dual | Orthogonalité | Produit scalaire | Produit vectoriel | Polynôme d'endomorphisme | Polynôme minimal | Tenseur | Covecteur | Algèbre multilinéaire
Modifier
Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Sub-domains

CDRoms - Magnatune - Librivox - Liber Liber - Encyclopaedia Britannica - Project Gutenberg - Wikipedia 2008 - Wikipedia 2007 - Wikipedia 2006 -

Other Domains

https://www.classicistranieri.it - https://www.ebooksgratis.com - https://www.gutenbergaustralia.com - https://www.englishwikipedia.com - https://www.wikipediazim.com - https://www.wikisourcezim.com - https://www.projectgutenberg.net - https://www.projectgutenberg.es - https://www.radioascolto.com - https://www.debitoformtivo.it - https://www.wikipediaforschools.org - https://www.projectgutenbergzim.com