Espaços Vetoriais
Espaço Vetorial
Dizemos que um conjunto não vazio é um espaço vetorial (ou linear) sobre um conjunto (com ) se e apenas se lhe estiverem associadas duas principais operações (sendo que cada uma verifica um dado conjunto de propriedades):
- Adição: ; note-se que esta operação deve ser comutativa e associativa; deve ainda existir um único elemento neutro, , tal que e ainda um único elemento simétrico, , tal que ;
- Multiplicação por escalar: ; esta operação deve ser associativa e distributiva, devendo ainda existir um elemento neutro (a identidade), tal que .
Extrai-se ainda, para a multiplicação por escalar, que .
A título de exemplo, tem-se que qualquer conjunto é um espaço vetorial sobre , já que, considerando e :
- ;
- .
Note-se, claro, que para todas as outras propriedades supra-referidas são também satisfeitas.
São exemplos, ainda, espaços como , o conjunto de polinómios de grau , , o conjunto das funções reais de variável real , entre muitos outros.
Subespaços Vetoriais
Tendo abordado acima o conceito de espaço vetorial, podemos agora definir o de subespaço vetorial: tendo um espaço vetorial sobre , dizemos que um subconjunto é um subespaço vetorial de se e apenas se satisfaz as mesmas propriedades de - verificando todos os axiomas e propriedades que verifica, podemos então dizer que é também um espaço vetorial sobre .
Podemos, por exemplo, procurar mostrar que , o conjunto de todos os pares de reais que somados dão zero (i.e simétricos), é um subespaço de : para tal, basta verificar que satisfaz todas as propriedades de um espaço vetorial:
- , já que ;
- a adição está definida para este conjunto: considerando e , , pelo que ;
- por fim, a multiplicação por escalar está também definida para : considerando , e , , pelo que .
Note-se que subespaços de são o vetor nulo, retas que passem pela origem, e o próprio , claro.
É igualmente possível provar, através de um contra-exemplo ou por contradição, que um conjunto não é um subespaço vetorial de . Tomemos como exemplo o conjunto , o conjunto de todos os pares de reais que multiplicados dão zero (i.e. ortogonais). Não podemos afirmar que é um subespaço vetorial de , pois, por exemplo, e são elementos de , mas .
Interseção, Soma e União de Subespaços Vetoriais
Dado um conjunto de espaços vetoriais , todos eles subespaços de um espaço vetorial , podemos definir a interseção entre estes espaços vetoriais como sendo o conjunto , o conjunto de todos os elementos comuns a todos os espaços vetoriais do conjunto. Para o provar, consideremos, por exemplo, os conjuntos arbitrários , tal que ambos são subespaços de um espaço . Como já vimos anteriormente, o nosso conjunto terá, por forma a ser um subespaço de , de satisfazer três principais propriedades:
- , já que e obrigatoriamente, sendo ambos subespaços de ;
- a adição está definida para este conjunto: considerando e , ;
- por fim, a multiplicação por escalar está também definida para : considerando , e , .
Se é verdade que podemos afirmar que a interseção de dois espaços vetoriais é também um subespaço vetorial, não é igualmente verdade que o possamos afirmar para a união de dois espaços vetoriais: basta pensar, por exemplo, num cenário com dois subespaços vetoriais, e , tal que corresponde ao conjunto de todos os pontos no eixo das abscissas e corresponde ao conjunto de todos os pontos no eixo das ordenadas. e , mas , pois não pertence a nenhum dos dois subespaços vetoriais. Assim sendo, a soma não se diz fechada para esta operação, pelo que a união de subespaços não é, de forma generalizada, um subespaço vetorial.
Note-se, contudo, que a soma de dois espaços vetoriais é também um subespaço vetorial! A prova é relativamente simples: consideremos os espaços vetoriais e , tal que ambos são subespaços de um espaço . Como já vimos anteriormente, o nosso conjunto terá, por forma a ser um subespaço de , de satisfazer três principais propriedades:
- , já que e obrigatoriamente, sendo ambos subespaços de ;
- a adição está definida para este conjunto: considerando e , ;
- por fim, a multiplicação por escalar está definida para : considerando , e , .
Expansão Linear e Conjunto Gerador
Dado um conjunto de vetores , elementos de um espaço vetorial sobre , podemos dizer que se pode escrever como uma combinação linear desses vetores se e só se existir um conjunto de coeficientes , todos eles elementos de , tal que:
Mais ainda, dizemos que o subconjunto de formado pelos vetores que podem ser escritos como uma combinação linear dos vetores corresponde à expansão linear, vulgo span, de em relação aos vetores :
Um conjunto de vetores diz-se gerador de se e só se .
A título de exemplo temos, claro, que os vetores são geradores do espaço vetorial : podemos escrever qualquer vetor como uma combinação linear dos vetores em questão, através de um simples produto escalar; , por exemplo, pode ser escrito através da combinação linear:
Exemplo
Nem sempre é tão fácil determinar se um conjunto de vetores é gerador de um espaço vetorial como foi acima. Assim sendo, fará sentido considerar casos mais peculiares; consideremos os seguintes vetores de :
Procuremos, primeiro, determinar a forma geral da expansão linear de , e de seguida aferir se os vetores em questão são geradores de .
Ora, como sabemos, um vetor de pertence à expansão linear de se e só se pode ser escrito como uma combinação linear dos vetores em questão - i.e, se e só se pode ser escrito como:
Ora, isto é equivalente a dizer que tal só acontece caso o vetor seja solução do seguinte sistema de equações lineares:
Por eliminação de Gauss, teríamos o seguinte:
Assim sendo, teríamos que . Note-se, claro, que esta expansão linear não é geradora de , precisamente porque existem vetores em que não pertencem a (tal como ).
Neste último exemplo, podíamos ter afirmado que os vetores não são geradores de sem sequer ter de calcular a expansão linear de ; basta, para tal, verificar se o sistema de equações lineares que define a expansão linear de tem alguma linha nula (ou seja, se após transformar o SEL em escada de linhas existe alguma linha sem pivô) - caso tenha, podemos afirmar que não é gerador. Por consequência, todo o conjunto gerador de terá obrigatoriamente dimensão .
Dependência e Independência Linear
A noção de dependência linear está intimamente ligada à de combinação linear; um conjunto de vetores diz-se linearmente dependente caso exista pelo menos um vetor tal que a combinação linear dos restantes vetores seja igual a . Caso contrário, o conjunto de vetores é dito linearmente independente.
Isto é equivalente, claro, a dizer que para ocorrer dependência linear entre um conjunto de vetores terá de existir um conjunto de escalares , não todos nulos, tal que .
Prova
A prova é relativamente simples: considerando um conjunto de vetores linearmente dependente, podemos escrever, para pelo menos um vetor :
Isto significa, claro, que , pelo que garantidamente teremos escalares não todos nulos (já que ) tal que:
Mais ainda, isto corresponderá precisamente a:
Ou seja, o vetor é uma combinação linear dos restantes vetores, pelo que o conjunto de vetores é linearmente dependente.
Note-se, claro, que qualquer conjunto de vetores que contenha pelo menos um vetor nulo é linearmente dependente: basta, para tal, notar que o coeficiente associado ao vetor nulo pode ser qualquer número, e que mantendo todos os outros coeficientes iguais a zero, obrigatoriamente.
Mais ainda, podemos rapidamente notar que a noção de colinearidade de vetores é aqui bastante relevante: se é um conjunto de vetores onde pelo menos dois vetores, e , são colineares, então é linearmente dependente. Isto porque, se e são colineares, então podemos escrever para algum . Assim sendo, temos o seguinte:
Quando não estamos perante um conjunto de vetores onde pelo menos dois vetores são colineares/não estamos na presença do vetor nulo, podemos ainda assim verificar se este é linearmente dependente; para tal, recorreremos, mais uma vez, à representação matricial de um sistema de equações lineares.
Exemplo
Consideremos o seguinte conjunto de vetores:
Caso este conjunto seja linearmente independente, podemos escrever o seguinte:
Como sabemos, isto é equivalente à seguinte representação matricial:
Podemos utilizar eliminação de Gauss para colocar a matriz em escada de linhas, obtendo:
Visto que todas as colunas do sistema possuem pivô, o sistema é consistente e tem solução única, pelo que o conjunto de vetores é linearmente independente. Note-se que, estando na presença de uma matriz quadrada, podíamos ter verificado se o sistema é consistente e tem solução única através da determinante da matriz - caso seja não nulo, o sistema é consistente e tem solução única (e estaríamos na presença de um conjunto linearmente independente).
Generalizando o observado no exemplo anterior, podemos verificar o seguinte:
Teorema
Tendo vetores em , o conjunto diz-se linearmente independente se e só se a matriz abaixo puder ser transformada numa matriz em escada de linhas, com um pivô por coluna, utilizando apenas operações elementares de linha:
Caso , a matriz é dita quadrada, e podemos verificar a (in)dependência linear através da nulidade do determinante da mesma.
Como consequência do supra-definido, temos o seguinte:
- Todo o subconjunto gerador de tem pelo menos vetores;
- Todo o subconjunto de vetores de com dimensão superior a é linearmente dependente (terá mais linhas que colunas, pelo que pelo menos uma coluna terá um pivô nulo);
- Todo o subconjunto de com dimensão diz-se gerador de se e só se for linearmente independente.
- Todo o subconjunto de dimensão gerador de é linearmente independente.
Note-se, por fim, que dizemos que um conjunto gerador de linearmente independente diz-se uma base de . Correspondendo a uma matriz quadrada, e tendo em conta o que já referimos sobre a nulidade do seu determinante anteriormente, podemos afirmar que um conjunto de vetores é uma base de se e só se a matriz correspondente for invertível!