Como definições iniciais auxiliares, atente-se nas seguintes notações:
[A]ij corresponde à entrada na linha i, coluna j da matriz A.
O conjunto das matrizes m×n é representado por Mm×n(R).
Soma de Matrizes e Produto de uma Matriz por um Escalar
Tanto a soma de matrizes como o produto de uma matriz por um escalar são das
operações mais simples que vamos encontrar em Álgebra Linear, também devido à sua
semelhança com operações que já conhecemos do secundário.
Tendo duas matrizes A e B tal que
A=a11a21⋮am1a12a22⋮am2⋯⋯⋱⋯a1na2n⋮amn e B=b11b21⋮bm1b12b22⋮bm2⋯⋯⋱⋯b1nb2n⋮bmn
Dizemos que a matriz-resultado da sua soma, A+B, é a seguinte matriz:
Note-se que a operação pode ser feita com um número arbitrário de matrizes,
seguindo as propriedades da soma nos reais já conhecidas: tendo A+B+C,
podemos escrever A+(B+C), somando assim A à matriz B+C.
O produto de uma matriz por um escalar, α∈R, também não tem nada que saber:
corresponde apenas à multiplicação de todas as entradas de A por α.
Podemos, claro, definir algumas propriedades quanto às operações referidas acima.
Note-se que apesar de muitas das propriedades das operações nos reais transitarem
para as operações no espaço matricial, tal não acontece sempre!
Não devemos, portanto, assumir sem segurança que podemos recorrer a todas
as propriedades que vimos no secundário.
A comutatividade, A+B=B+A, e a associatividade, A+(B+C)=(A+B)+C e (αβ)A=α(βA),
são válidas para este conjunto de operações, com provas relativamente triviais.
Mais ainda, podemos afirmar que a propriedade distributiva se verifica,
α(A+B)=αA+αB e (α+β)A=αA+βA.
Podemos ainda afirmar que existe o elemento neutro, que na soma corresponde à matriz nula:
tendo uma matriz A, m×n, dizemos que a respetiva matriz nula é uma matriz 0, m×n,
completamente preenchida por zeros, tal que A+0=A.
As noções de simétrico e subtração transitam de igual forma dos reais.
Produto Matricial
O produto de matrizes é uma operação relativamente simples, mas que requer alguma prática
para a sua interiorização.
Considerando duas matrizes A e B, respetivamente m×n e n×p, tal que
A=a11a21⋮am1a12a22⋮am2⋯⋯⋱⋯a1na2n⋮amn e B=b11b21⋮bn1b12b22⋮bn2⋯⋯⋱⋯b1pb2p⋮bnp
temos que o respetivo produto matricial, A×B, corresponde a uma matriz m×p,
onde o valor de cada uma das suas entradas é dada pela soma seguinte:
[AB]ij=k=1∑naikbkj
O excerto apresentado de seguida poderá ajudar a compreender melhor o que está de facto a acontecer:
O produto matricial só pode ser realizado caso o número de colunas da matriz à esquerda
seja igual ao número de linhas da matriz à direita. Isto impede, por exemplo,
que o produto matricial goze da propriedade comutativa.
Podemos, por exemplo, pensar no excerto acima e perceber que só funciona porque o número de colunas
da matriz à esquerda é igual ao número de linhas da matriz à direita: caso a matriz à direita tivesse
três linhas, por exemplo, tentava-se multiplicar cada linha por cada coluna, mas havendo apenas 2
elementos por linha na matriz à esquerda, o terceiro elemento das colunas da matriz à direita
ia ficar "sem par", invalidando assim a operação.
O produto de matrizes goza das propriedades associativa e distributiva:
(AB)C=A(BC)
α(AB)=(αA)(B)=A(αB)
A(B+C)=AB+AC
(A+B)C=AC+BC
Note-se, como foi referido anteriormente, que não goza da propriedade comutativa.
Por fim, é relevante realçar que a lei do anulamento do produto, presente nos reais, não se aplica aqui:
tendo o produto matricial AB, não é obrigatório que pelo menos uma das matrizes corresponda à matriz nula
para o produto também o ser.
Matriz Identidade
Foi referido anteriormente o elemento neutro da soma de matrizes, a matriz nula.
Tal como nos produto dos reais, existe também no produto matricial um elemento neutro, a matriz identidade.
A matriz identidade é dos elementos mais simples que vamos abordar nesta cadeira: uma matriz quadrada,
isto é, m×m, onde todos os elementos são iguais a zero, exceto os elementos na diagonal, que são iguais a um.
Im=10⋮001⋮0⋯⋯⋱⋯00⋮1
Sendo o elemento neutro do produto de matrizes, temos, claro, que Im×A=A×Im=A.
Matriz Elementar
Foi referida anteriormente a noção de transformação elementar,
que nos permitia obter matrizes equivalentes através de pequenas operações intermédias.
O nome "elementar" advém das matrizes elementares, matrizes obtidas
através de uma única operação, as tais transformações elementares. São exemplos as seguintes matrizes:
Temos ainda que, dadas uma matriz elementar E e uma qualquer matriz A, a matriz EA corresponde
precisamente à aplicação da transformação elementar correspondente a E à matriz A:
Podemos daqui retirar que, sendo EA o resultado de aplicar a transformação elementar correspondente a E à matriz A,
Ek⋯E1A=L corresponderá a uma possível sequência de k transformações elementares aplicadas a A,
com resultado L - é isso, aliás, que acontece quando tentamos colocar A sob a forma de escada de linhas!
Exemplo
É frequentemente pedido em exercícios que, dada uma matriz A, cheguemos a uma matriz em escada de linhas
equivalente, L, e que indiquemos a sequência de transformações elementares, B=Ek⋯E1, que
permitiram obter L. Temos, claro, que a sequência Ek⋯E1 terá início na matriz identidade, I,
pelo que podemos resolver o exercício da seguinte forma:
Note-se que à direita vamos formando B, a matriz correspondente à sequência de transformações elementares,
e à esquerda L, a matriz equivalente a A sob a forma de escada de linhas.
Por fim, resta realçar que, dada uma matriz L em escada de linhas, existe uma sequência
de matrizes elementares Ek⋯E1 tal que Ek⋯E1L=I.
Matrizes Invertíveis
Definição
Uma matriz quadradaA diz-se invertível caso exista uma matriz B tal que AB=BA=I. B será, caso exista, única para A, designando-se inversa de A, A−1.
Note-se que a matriz nula é o caso mais simples de uma matriz não invertível, já que o seu produto
por qualquer outra matriz será necessariamente a matriz nula - nunca a matriz identidade.
Mais ainda, qualquer matriz com uma linha ou coluna nula será também não invertível,
já que o seu produto por qualquer outra matriz terá uma linha ou coluna também nula,
impossibilitando assim a obtenção da matriz identidade. A inversa da matriz identidade é a própria matriz identidade.
Propriedades
A matriz inversa de uma qualquer matriz elementar E é a matriz elementar correspondente à
transformação elementar "oposta" à que leva a E. Seguem-se alguns exemplos:
A inversa da inversa é a própria matriz: (A−1)−1=A: sabemos, por definição, que
A−1A=AA−1=I,
pelo que tanto temos A−1 sendo a inversa de A como o contrário.
Por fim, (AB)−1=B−1A−1 é outra propriedade com que vamos contactar bastante
durante a cadeira. Podemos prová-lo da seguinte forma (recorrendo à propriedade associativa):
(B−1A−1)(AB)=B−1(A−1A)B=B−1IB=(B−1I)B=B−1B=I
Generalizando, e utilizando uma prova semelhante, podemos afirmar que:
(A1A2⋯Ak)−1=Ak−1⋯A2−1A1−1
Algoritmo de Gauss-Jordan
Abordámos acima a invertibilidade matricial. Não vimos, contudo, como podemos chegar (algoritmicamente)
à inversa de uma matriz. O algoritmo de Gauss-Jordan vai ajudar-nos nisso mesmo.
O algoritmo de Gauss-Jordan assenta em duas proposições fundamentais:
Proposições
Dada uma matriz A, m×m, caso exista uma sequência de matrizes elementares
E1,⋯,Ek e uma matriz L em escada de linhas com menos de k pivôs tal que
Ek⋯E2E1A=L,
podemos afirmar que A não é invertível. Ora, isto acaba por ser claro considerando
a proposição seguinte: se existir uma sequência E1,⋯,Ek tal que
Ek⋯E2E1A=I,
A será invertível, com a respetiva inversa a corresponder precisamente ao produto
Ek⋯E2E1.
O algoritmo de Gauss-Jordan será, portanto, parecido ao algoritmo apresentado no exemplo mais acima
(onde foi demonstrada a transformação de uma matriz A numa matriz L equivalente em escada de linhas):
aqui, contudo, em vez de querermos transformar A em L arbitrário, vamos querer transformá-la na
matriz identidade: desta forma, à direita vamos obter A−1, seguindo a mesma lógica
apresentada anteriormente.
Caso queiram confirmar os resultados que obtiveram a fazer exercícios, quer seja na inversão de uma matriz
como em outras operações, o site matrixCalc é uma ferramenta muito útil para o efeito.