Kernel (álxebra linear)
imaxe inversa de cero baixo un mapa linear From Wikipedia, the free encyclopedia
Remove ads
En matemáticas, o kernel ou núcleo dun mapa linear, tamén coñecido como espazo nulo, é a parte do dominio que se asigna ao vector cero do codominio; o kernel é sempre un subespazo linear do dominio.[1] É dicir, dado un mapa linear L : V → W entre dous espazos vectoriais V e W, o kernel de L é o espazo vectorial de todos os elementos v de V tal que L(v) = 0, onde 0 denota o vector cero en W,[2] ou máis simbólicamente :
Remove ads
Propiedades

O kernel de L é un subespazo linear do dominio V. [3] [2] No mapa linear dous elementos de V teñen a mesma imaxe en W se e só se a súa diferenza reside no kernel de L, é dicir,
A partir disto, despréndese que a imaxe de L é isomorfa ao cociente de V polo kernel:
No caso de que V sexa de dimensión finita, isto implica o teorema do rango:
onde o termo rango indica a dimensión da imaxe de L, mentres que nulidade indica a dimensión do kernel de L, [4]
Isto é,
por tanto o teorema do rango pode reexpresarse como
Cando V é un espazo prehilbertiano (espazo vectorial con produto escalar), o cociente pódese identificar co complemento ortogonal en V de .
En análise funcional
Se V e W son espazos vectoriais topolóxicos tal que W é de dimensión finita, entón un operador linear L: V → W é continuo se e só se o kernel de L é un subespazo pechado de V.
Representación como multiplicación matricial
Considere un mapa linear representado como unha matriz A m × n con coeficientes nun corpo K (normalmente ou ), que está operando en vectores columna x con n compoñentes sobre K. O núcleo deste mapa linear é o conxunto de solucións da ecuación Ax = 0, onde 0 enténdese como o vector cero. A dimensión do núcleo de A chámase nulidade de A. Na notación de xeración de conxuntos, A ecuación matricial é equivalente a un sistema homoxéneo de ecuacións lineares: Así, o núcleo de A é o mesmo que a solución estabelecida para as ecuacións homoxéneas anteriores.
Propiedades do subespazo
O núcleo dunha matriz A m × n sobre un corpo K é un subespazo linear de Kn. É dicir, o núcleo de A, o conxunto Null(A), ten as seguintes tres propiedades:
Remove ads
O espazo de filas dunha matriz
O produto Ax pódese escribir en termos do produto escalar dos vectores do seguinte xeito:
Aquí, a1, ..., am denotan as filas da matriz A. Dedúcese que x está no núcleo de A, se e só se x é ortogonal (ou perpendicular) a cada un dos vectores fila de A (xa que a ortogonalidade defínese como un produto escalar de valor 0).
A dimensión do espazo de filas de A chámase rango de A, e a dimensión do núcleo de A denomínase nulidade de A. Estas cantidades están relacionadas polo teorema do rango[4]
Espazo nulo esquerdo
O espazo nulo esquerdo ou cokernel dunha matriz A consta de todos os vectores columna x tal que xTA = 0T, onde T denota a transposición dunha matriz. O espazo nulo esquerdo de A é o mesmo que o núcleo de AT. O espazo nulo esquerdo de A é o complemento ortogonal do espazo columna de A, e é dual ao cokernel da transformación linear asociada. O núcleo, o espazo de filas, o espazo de columnas e o espazo nulo esquerdo de A son os catro subespazos fundamentais asociados a unha matriz A.
Remove ads
Sistemas non homoxéneos de ecuacións lineares
O núcleo tamén xoga un papel na solución dun sistema non homoxéneo de ecuacións lineares:
Se u e v son dúas posíbeis solucións da ecuación anterior, entón
Así, a diferenza de dúas solucións calquera á ecuación Ax = b reside no núcleo de A.
Do anterior dedúcese que calquera solución da ecuación Ax = b pode expresarse como a suma dunha solución fixa v e un elemento arbitrario do núcleo. É dicir, a conxunto de solucións para a ecuación Ax = b é
Xeométricamente, isto di que o conxunto de solucións para Ax = b é a translación do núcleo de A polo vector v.
Remove ads
Exemplo sinxelo detallado
O seguinte é un exempliño sinxelo do cálculo do núcleo dunha matriz. O exemplo tamén toca o espazo de filas e a súa relación co núcleo.
Considere a matriz
O núcleo desta matriz está formado por todos os vectores (x, y, z) ∈ R3 para os que
que se pode expresar como un sistema homoxéneo de ecuacións lineares que inclúen x, y e z:
As mesmas ecuacións lineares tamén se poden escribir en forma matricial como:
Mediante a eliminación de Gauss-Jordan, a matriz pódese reducir a:
Reescribindo a matriz en forma de ecuación obtemos:
Os elementos do núcleo pódense expresar tamén en forma vectorial paramétrica, como segue:
Dado que c é unha variábel libre que vai sobre todos os números reais, isto pódese expresar igualmente como:
O núcleo de A é precisamente o conxunto de solucións para estas ecuacións (neste caso, unha liña que pasa pola orixe en R3). Aquí, posto que o vector (−1,−26,16)T constitúe unha base do núcleo de A, a nulidade de A vale 1.
Os seguintes produtos escalares son cero:
que ilustra como os vectores do núcleo de A son ortogonais a cada un dos vectores fila de A.
Estes dous vectores fila (linearmente independentes) abranguen o espazo de filas de A, un plano ortogonal ao vector (−1,−26,16)T.
Co rango 2 de A, a nulidade 1 de A e a dimensión 3 de A, temos unha ilustración do teorema do rango.
Outros exemplos
- Se L: Rm → Rn, entón o núcleo de L é o conxunto de solucións nun sistema homoxéneo de ecuacións lineares. Como no exempliño anterior, se L é o operador:
- daquela o núcleo de L é o conxunto de solucións das ecuacións
- Denotamos como C[0,1] o espazo vectorial de todas as funcións continuas de valores reais no intervalo [0,1], e definimos L: C[0,1] → R pola regra
- Entón o núcleo de L consta de todas as funcións f ∈ C[0,1] para as que f(0.3) = 0.
- Sexa C∞(R) o espazo vectorial de todas as funcións infinitamente derivábeis R → R, e sexa D: C∞(R) → C∞(R) o operador de diferenciación:
- Daquela o núcleo de D consta de todas as funcións en C∞(R) cuxas derivadas son cero, é dicir, o conxunto de todas as funcións constantes.
- Sexa R∞ o produto directo de infinitas copias de R, e sexa s: R∞ → R∞ o operador de desprazamento
- Entón o núcleo de s é o subespazo unidimensional que consta de todos os vectores (x1, 0, 0, 0, ...) .
- Se V é un espazo prehilbertiano e W é un subespazo, o núcleo da proxección ortogonal V → W é o complemento ortogonal de W en V.
Cálculo por eliminación gaussiana
Unha base do núcleo dunha matriz pódese calcular mediante eliminación de Gauss.
Para este fin, dada unha matriz A m × n, construímos primeiro a matriz aumentada por filas onde I é a matriz de identidade n × n.
Calculando a súa forma escalonada de columna mediante eliminación gaussiana (ou calquera outro método axeitado), obtemos unha matriz Unha base do núcleo de A consiste nas columnas distintas de cero de C de forma que a columna correspondente de B é unha columna cero.
De feito, o cálculo pode deterse en canto a matriz superior estea en forma de escada: o resto do cálculo consiste en mudar a base do espazo vectorial xerado polas columnas cuxa parte superior é cero.
Por exemplo, supoña que
Entón
Poñendo a parte superior en escada de columnas mediante operacións de columna sobre toda a matriz dá
As tres últimas columnas de B son columnas cerp. Polo tanto, os tres últimos vectores de C,
son unha base do núcleo de A.
Remove ads
Cálculo numérico
O problema de calcular o kernel nun ordenador depende da natureza dos coeficientes.
Coeficientes exactos
Se os coeficientes da matriz son exactamente números dados, a forma escalonada de columnas da matriz pódese calcular co algoritmo de Bareiss de forma máis eficiente que coa eliminación gaussiana. É aínda máis eficiente empregar a aritmética modular e o teorema do resto chinés, o que reduce o problema a varios problemas similares sobre corpos finitos (isto evita a sobrecarga inducida pola non linearidade da complexidade computacional da multiplicación de enteiros).
Para os coeficientes nun corpo finito, a eliminación de Gauss funciona ben, mais para as grandes matrices que ocorren na criptografía e no cálculo base de Gröbner, coñécense mellores algoritmos, que teñen aproximadamente a mesma complexidade computacional, mais son máis rápidos e compórtanse mellor co hardware moderno.
Cálculo en coma flotante
Para matrices cuxas entradas son números en coma flotante, o problema de calcular o kernel só ten sentido para matrices de tal forma que o número de filas é igual ao seu rango: debido aos erros de redondeo, unha matriz en coma flotante ten case sempre un rango completo, mesmo cando se trata dunha aproximación dunha matriz de rango moito menor. Mesmo para unha matriz de rango completo, é posíbel calcular o seu núcleo só se está ben condicionado, é dicir, ten un número de condición baixo.[5]
Un software de última xeración para este fin é a biblioteca Lapack.
Notas
Véxase tamén
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads