Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

Em um espaço de todos os polinômios \(t\), considere os operadores \(A\) e \(B\). Demonstre que eles são operadores lineares e que \(AB = E\) e \(BA \neq E\). Ademais, mostre que \(A\) não admite inversa e \(B\) tem infinitas inversas a esquerda.

0 votos
35 visitas
perguntada Fev 27 em Economia por Lucas Iantorno Klotz (11 pontos)  

Exercícios 25 e 26 do capítulo 4 do livro "Linear Algebra", de Georgi Shilov.

Compartilhe

1 Resposta

0 votos
respondida Fev 27 por Lucas Iantorno Klotz (11 pontos)  
editado Fev 27 por Lucas Iantorno Klotz

Primeiramente, considere os operadores \(A\): \(R^{n+1} \rightarrow R^{n}\) e \(B\): \(R^{n+1} \rightarrow R^{n+2}\)
\[A[a_0 + a_1t + ... + a_nt^n] = a_1 + a_2t + ... + a_nt^{(n-1)},\]
\[B[a_0 + a_1t + ... + a_nt^n] = a_0t + a_1t^2 + ... + a_nt^{(n+1)}.\]

\(A\) representa o operador da diferenciação, enquanto \(B\) o operador da integração. Vamos demonstrar, em primeiro lugar, que \(A\) e \(B\) são operadores lineares. Para isso, seguiremos a definição de Shilov (1977):
Definição. Operador Linear: \(A(x)\) é chamado de operador linear, mapeando \(X\) em \(Y\), satisfazendo as seguintes condições:
a) \(A(x + y) = Ax + Ay\), para todo \(x\), \(y\) \(\in X\);
b) \(A(\alpha x) = \alpha Ax\), para todo \(x \in X\) e todo \(\alpha \in R\).
As condições a) e b) implicam uma fórmula geral
\[A(\alpha_1 x_1 + ... + \alpha_n x_n) = \alpha_1 Ax_1 + ... + \alpha_n Ax_n ,\]
para \(x_1, ..., x_n \) arbitrários em \(X\) e \(\alpha_1, ..., \alpha_n\) em \(R\).

Pois bem, considere primeiramente o operador \(A\). Suponha que \(t^0, ..., t^{n}\) é base de \(R^{n+1}\) e que \(a_0, ..., a_n\) são elementos arbitrários de \(R\). Então, cada elemento de \(R^{n+1}\) pode ser unicamente escrito na forma de \(a_1 + a_2t + ... + a_nt^{(n-1)}\). Para cada \(i\), tomando \(a_i = 1\) e \(a_{j \neq i} = 0\) sabemos que \(At^i=t^{i-1}\).
Considere \(u,v \in R \) tal que \(u = \sum b_nt^n\), \(v = \sum c_nt^n\) e \((u + v) = \sum a_nt^n\). Então,
\[A[u+v] = A[(b_0 + c_0)t^0 + (b_1 + c_1)t^1 + ... + (b_n + c_n)t^n]\]
\[= (b_1 + c_1)t^0 + (b_2 + c_2)t^1+ ... + (b_n + c_n)t^{n-1}\]
\[= (b_1 + b_2t + ... + b_nt^{n-1}) + (c_1 + c_2t + ... + c_nt^{n-1})\]
\[= A[u] + A[v].\]
Similarmente, tome \(\alpha \in R\) e \( s = \sum a_nt^n\), então,
\[A(\alpha s)= A[\alpha \sum a_nt^n]\]
\[=\alpha a_1t^0 + ... + \alpha a_nt^{n-1}\]
\[=\alpha(a_1t^0 +...+a_nt^{n-1})\]
\[= \alpha A(s).\]
Logo, A é um operador linear. Vamos seguir o mesmo raciocínio para o operador \(B\), sem muita dificuldade, chegaremos na mesma conclusão. Suponha que \(t^0, ..., t^{n+1}\) é base de \(R^{n+2}\) e que \(a_0, ..., a_n\) são elementos arbitrários de \(R\). Tome \(x,y \in R^{n+1}\) tal que \(x= \sum b_nt^n\) ,\(y = \sum c_nt^n\) e \((x + y) = \sum a_nt^n\). Então,
\[B[x+y] = B[(b_0 + c_0)t^0 + (b_1 + c_1)t^1 + ... + (b_n + c_n)t^n]\]
\[= (b_0 + c_0)t^1 + (b_1 + c_1)t^2+ ... + (b_n + c_n)t^{n+1}\]
\[= (b_0t + b_1t + ... + b_nt^{n+1}) + (c_0 + c_1t + ... + c_nt^{n+1})\]
\[= B[x] + B[y].\]
Similarmente, tome \(\gamma\) e \(z=\sum a_nt^n\), então
\[B(\gamma z)= B[\gamma \sum a_nt^n]\]
\[=\gamma a_0t^1+ ... + \gamma a_nt^{n+1}\]
\[=\gamma(a_0t^1 +...+a_nt^{n +1})\]
\[= \gamma B(z).\]
Logo, \(B\) também é um operador linear. Concluimos assim, a primeira parte do problema. Agora vamos demonstrar que \(AB = E\) e \(BA \neq E\), em que \(E\) é a matriz identidade. Considere as matrizes dos operadores \(A\) e \(B\), respectivamente:
\[A=\left[\begin{array}{cc} 0 & 1 & 0 & 0& ... & 0\\ 0 & 0 & 1 & 0& ... & 0\\ 0 & 0 & 0 & 1 & ... & 0 \\ ... & ... & ... & ... & ... & ... \\ 0 & ... & ... & 0 & ... & 1 \end{array}\right]\]
\[ A \times \begin{bmatrix} a_0\\ a_1 \\ \vdots \\ a_n \end{bmatrix} \times \begin{bmatrix} t^0 & t^1 & ... & t^{n} \end{bmatrix} = a_1 + a_2t + ... + a_nt^{(n-1)} \]
\[B=\left[\begin{array}{cc} 0 & 0 & 0 & 0& ... & 0\\ 1& 0 & 0& 0& ... & 0\\ 0 & 1 & 0 & 0& ... & 0 \\ 0& 0 & 1 & ... & ... & 0 \\ ... & ... & ... & ... & ... & ... \\ 0 & ... & ... & ... & ... & 1 \end{array}\right]\]
\[ B \times \begin{bmatrix} a_0\\ a_1 \\ \vdots \\ a_n \end{bmatrix} \times \begin{bmatrix} t^0 & t^1 & ... & t^{n} \end{bmatrix} = a_0t + a_1t^2 + ... + a_nt^{(n+1)} \]

\(A\) é \(n \times n+1\), enquanto que a matriz do operador \(B\) é \(n+1 \times n\). Para continuarmos a demonstração, algumas definições são importantes.
Definição. Inversas a direita e a esquerda: Seja \(A\) uma matriz \(N \times K\). A inversa a direita de \(A\) é uma matriz \(R\), \(K \times N\), tal que \[AR = E,\] a inversa a esquerda de \(A\) é uma matriz \(R\), \(K \times N\), tal que \[RA = E.\]

Considere também o teorema visto em sala,
Teorema: Uma matriz \(A\), \(N \times K\), tem inversa a direita SSE \( posto A = N\) e tem inversa a esquerda SSE \(posto A = K\).
Bem, se observarmos as matrizes dos operadores \(A\) e \(B\), o primeiro tem posto linha cheio (inversa a direita) e o segundo tem posto coluna cheio (inversa a esquerda). Repare que ao realizarmos o produto entre as matrizes, isso se confirma. Em particular,
\[A \times B=\]
\[E=\left[\begin{array}{cc} 1 & 0 & 0 & 0& ... & 0\\ 0& 1 & 0& 0& ... & 0\\ 0 & 0 & 1 & 0& ... & 0 \\ 0& 0 & 0 & 1 & ... & 0 \\ ... & ... & ... & ... & ... & ... \\ 0 & ... & ... & ... & ... & 1 \end{array}\right].\]
Enquanto que,
\[B \times A =\]
\[N=\left[\begin{array}{cc} 0 & 0 & 0 & 0& ... & 0\\ 0& 1 & 0& 0& ... & 0\\ 0 & 0 & 1 & 0& ... & 0 \\ 0& 0 & 0 & 1 & ... & 0 \\ ... & ... & ... & ... & ... & ... \\ 0 & ... & ... & ... & ... & 1 \end{array}\right] \neq E.\]

Portanto, \(AB = E\) e \(BA \neq E\), como queríamos demonstrar. Evidentemente, \(A\) não possui inversa. Para demonstrarmos que \(B\) tem infinitas inversas a esquerda, basta considerarmos o operador \(A_\lambda\):
\[A_\lambda[a_0 + a_1t + ... + a_nt^n] = \lambda a_0 + a_1 + a_2t + ... + a_nt^{(n-1)},\]
para \(\lambda \in R\), cuja matriz é representada por:
\[A_\lambda=\left[\begin{array}{cc} \lambda & 1 & 0 & 0& ... & 0\\ 0 & 0 & 1 & 0& ... & 0\\ 0 & 0 & 0 & 1 & ... & 0 \\ ... & ... & ... & ... & ... & ... \\ 0 & ... & ... & 0 & ... & 1 \end{array}\right]\]
\[ A_\lambda \times \begin{bmatrix} \lambda a_0 + a_1\\ a_2 \\ \vdots \\ a_n \end{bmatrix} \times \begin{bmatrix} t^0 & t^1 & ... & t^{n} \end{bmatrix} = \lambda a_0 + a_1 + a_2t + ... + a_nt^{(n-1)} .\]
Repare que se multiplicarmos \(A_\lambda B\), podemos tomar infinitos valores para \(\lambda\) que ainda assim chegamos na matriz identidade \(E\). Em particular, \[A_\lambda B = E, \forall \lambda \in R\].

Logo, \(B\) admite infinitas inversas a esquerda. Isso encerra o problema.

...