Forum Docentis

Buscador

Una aplicación de la diagonalización matricial a la resolución de sistemas de polinomios

Javier Martínez Martínez1, Misael E. Marriaga1*

1Departamento de Matemática Aplicada, Ciencia e Ingeniería de Materiales y Tecnología Electrónica, Universidad Rey Juan Carlos (Spain)

*Autor de correspondencia: misael.marriaga@urjc.es

Resumen

Dado un polinomio p(x), su matriz compañera C es una matriz definida a partir de sus coeficientes que tiene a p(x) como polinomio característico. En este artículo abordamos algunas de sus principales propiedades y su relación con la resolución de sistemas de polinomios en varias variables.

Palabras clave
Matriz compañera – Diagonalización de matrices

© 2023 Los autores. Publicado por URJC. Distribuido en acceso abierto bajo los términos de la licencia CC BY 4.0. Cómo citar este artículo: Javier Martínez Martínez, Misael E. Marriaga; Una aplicación de la diagonalización matricial a la resolución de sistemas de polinomios; Forum Docentis - TF vol. 2023, (1), e14, 2023

Índice

Introducción

1 Matrices compañeras y polinomios

2 Representación en anillos y álgebras finito-dimensionales

3 Extensión a varias variables

Agradecimientos

Referencias

Introducción

Es bien conocido que las matrices tienen muchas aplicaciones en matemóticas y en otros campos de las ciencias exactas. En particular, la diagonalización de matrices es una herramienta cuya utilidad queda probada en otros cursos y asignaturas de matemáticas como, por ejemplo, ecuaciones diferenciales ordinarias (EDOs) para el estudio de sistemas de EDOs lineales de primer orden, en cálculo multivariado para la clasificación de puntos críticos de funciones en varias variables o en geometría analítica para el estudio de cónicas en el plano.

Recordemos que dada una matriz M de tamaño n × n con coeficientes en un cuerpo 𝕂, M tiene autovalor λ si existe un vector no nulo v, llamado autovector, tal que M v = λ v. Dicha matriz M tiene a lo sumo n autovalores distintos y a lo sumo n autovectores linealmente independientes, siendo diagonalizable cuando existe una base de 𝕂n formada por autovectores.

Calcular los autovalores de M equivale a encontrar las soluciones de la ecuación

det(λIM)=0,

donde det(λIM), el polinomio característico de M, es un polinomio de grado exactamente n en la variable λ cuyas raíces son los autovalores λi de M. Dicho polinomio característico se define también en ocasiones como det(MλI ), que coincide con el de nuestra definición salvo signo, luego tiene las mismas raíces y por tanto los mismos autovalores λi. Una vez calculados éstos, los autovectores vi se pueden calcular resolviendo la ecuación homogénea

(λiIM)vi=0.

No es por tanto una sorpresa que el cómputo de los autovalores y autovectores de una matriz está relacionado con el cómputo de raíces de polinomios de una variable. Sin embargo, la extensión a sistemas de polinomios en varias variables es un asunto más delicado. En este artículo exploramos una relación muy interesante entre los autovalores y autovectores de matrices y la solución de sistemas homogéneos de n polinomios en n variables:

f1(x1,,xn)==fn(x1,,xn)=0.

Es importante mencionar que no todos los polinomios f1, … ,fn son de grado uno, ya que de lo contrario, si todos fuesen lineales, podríamos utilizar entonces el método de Gauss-Jordan para resolver el sistema.

Este artículo está organizado de la siguiente manera. La primera seccón está dedicada a describir la matriz companera de un polinomio en una variable y describimos la relación entre los autovalores de la matriz y las raíces del polinomio asociado. En la Sección 2 introducimos conceptos de representaciones en anillos y álgebras de dimensión finita como el mecanismo adecuado para pasar de los polinomios a las matrices en varias variables. Finalmente, en la Sección 3 generalizamos la construcción de las secciones previas y resumimos la relación entre las soluciones de un sistema de polinomios multivariados y los autovalores de ciertas matrices que representan la operación de multiplicación por cada variable.

1. Matrices compañeras y polinomios

Consideremos un polinomio mónico

p(x)=a0+a1x++an1xn1+xn,

que por definición es aquel cuyo coeficiente del monomio de mayor grado es igual a 1, siendo ai escalares en un cuerpo 𝕂. A partir de sus coeficientes, se puede definir entonces la matriz

C=[00a010a101an1].

La matriz C es conocida como la matriz compañera de p(x). Codifica toda la información del polinomio p(x), puesto que sus coeficientes pueden ser recuperados a partir de la última columna. Una propiedad importante e inmediata a partir de la definición es la siguiente:

Proposición 1.1. El polinomio característico de C es p(x).

Demostración. Veómoslo por inducción sobre el grado de p(x), que denotamos por gr(p). Para grado 1, si se parte de p(x) = x + a0, polinomio mónico de grado 1, la matriz compañera C es simplemente el escalar − a0 y det(λ · 1 − C) = λ + a0 = p(λ).

Si suponemos ahora cierto el resultado para todo polinomio mónico de grado n − 1 y tomamos un polinomio mínico p(x) = a0 + a1x + … + an − 1xn − 1 + xn de grado n, se tendrá que:

det(λIC)=[λ0a010a101λ+an1].

Desarrollando por adjuntos por la primera fila, se obtiene que:

det(λIC)=λdet(M1)+(1)n+1a0det(M2),

donde M1 es la matriz obtenida al eliminar la primera fila y la primera columna y M2 es la matriz obtienida al eliminar la primera fila y la última columna. Analizando ambas matrices, M2 es una matriz triangular superior con − 1 en todos los elementos de la diagonal, luego det(M2) = (−1)n−1, y por la hipótesis de inducción, se tiene que

det(M1)=a1+a2 λ++an1λn2+λn1=p(λ)a0λ,

es un polinomio de grado n − 1. Por lo tanto:

det(λIC)=λ(p(λ)a0λ)+(1)(n1)+(n+1)a0=p(λ),

como queríamos probar.

Corolario 1.2. Los autovalores de la matriz compañera de un polinomio p(x) son iguales a las raíces de p(x).

Observación 1.3. Es importante destacar que el Corolario 1.2 transforma el problema de cálculo de raíces de un polinomio en un problema de cálculo de autovalores de una matriz. Existen métodos numéricos de cálculo de autovalores que no requieren hallar las raíces del polinomio característico, como el método de la potencia, que de manera iterativa

vk+1=CvkCvk

aproxima el autovalor dominante v (de mayor módulo), bajo ciertas hipótesis de convergencia (véase [1] para más detalles).

También recordemos que, dados los números reales λ1,…, λn, la matriz de Vandermonde se define como

VV(λ1,λ2,,λn)=[1λ1λ1n11λ2λ2n11λnλnn1].

Además, V es invertible si y solo si los números λ1, λ2,…, λn son distintos. La relación entre las matrices de Vandermonde y las matrices compañeras se establece en la siguiente proposición.

Proposición 1.4. Si p(x) es un polinomio cuyas raíces son distintas, entonces su matriz compañera C es diagonalizable. En ese caso, la matriz de Vandermonde V es la matriz de paso que diagonaliza C, esto es, se tiene la relación:

VCV1=D=[λ100λ20000λn].

Demostración. La primera afirmación es consecuencia directa de la Proposición 1.1: si todos los autovalores son distintos, la matriz será diagonalizable. Por simplicidad en los cálculos, consideremos la traspuesta de C, que en muchos contextos es también tomada como definición de matriz compañera:

Ct=[010001a0a1an1].

Sea λj una raíz de p(x) (es decir, p(λj) = 0) y sea vt una fila de la matriz de Vandermonde tal que vt=[1 λj λj2λjn1]. Entonces,

Ctv=[010001a0a1an1]  [1λjλjn1]=[λjλj2i=1n1aiλji]=[λjλj2λjnp(λj)].

Ya que p(λj) = 0, tenemos

Ctv=[λjλj2λjn]=[λj1λjλjn1].

Por tanto λj es un autovalor de Ct y v es un autovector de Ct. Por tanto, puesto que la matriz es diagonalizable, se tiene que:

(Vt)1Ct(Vt)=[λ100λ20000λn].

Trasponiendo esta identidad se obtiene el resultado deseado para C.

Como consecuencia de la anterior proposición, si definimos la matriz

p(C)=a0In+a1C+a2C2++anCn,

entonces

Vp(C)V1=[p(λ1)p(λ2)p(λn)]=0,

o equivalentemente, p(C) = 0. Este resultado es una instancia particular del famoso Teorema de Cayley-Hamilton, que afirma que toda matriz satisface la ecuación dada por su polinomio característico, o en otras palabras, anula su polinomio característico.

Recordemos que dada una matriz A, se define su polinomio mínimo como el polinomio mónico mA(x) de menor grado que anula a A, esto es, tal que mA(A) = 0 y que dicho polinomio mínimo siempre divide al polinomio característico. En el caso de las matrices compañeras, la relación es más fuerte aún y p(λ) es a la vez el polinomio mínimo y característico de su matriz compañera:

Proposición 1.5. Si C es la matriz compañera del polinomio p(λ), se tiene que

mC(λ)=p(λ).

Demostración. Si consideramos C como aplicación lineal y tomamos la base canónica ξn={e1,,en}, se comprueba directamente que:

Cei=ei+1,para1in1,Cen=a0e1a1e2an1en.                                  (1.1)

Si suponemos la existencia de un polinomio mónico q(x) = b0 + b1x + … + xm de grado m < n tal que q(C) = 0, se tendría que:

0=q(C)e1=b0e1+b1Ce1++Cme1=b0e1+b1e2++em+1,

con no todos los coeficientes bi nulos, lo que contradice el hecho de que ɛn sea un conjunto linealmente independiente. Por tanto, no existen polinomios de grado menor que n que anulen a C y necesariamente mC(λ) = p(λ).

Observación 1.6. Dada una matriz A n × n, se dice que el vector v  𝕂nes un vector cíclico para A si el conjunto {v,Av,A2v,,An1v}es una base del espacio vectorial 𝕂n. La prueba anterior se basa en que e1es un vector cíclico para C, ya que satisface que el conjunto

{e1,Ce1,C2e1,,Cn1e1}

es precisamente ɛn.

De hecho, dada una matriz cualquiera A, es equivalente la existencia de un vector cíclico para A a que su polinomio mínimo y característico coincidan, y en ese caso A será de hecho similar a la matriz compañera de su polinomio característico.

Finalmente, de cara a su generalización a varias variables, es importante reseñar una última interpretación de la matriz compañera como aplicación lineal. Si consideramos un polinomio mónico p(x)K[x] y consideramos el anillo

A:=K[x]/p,                                  (1.2)

donde ⟨p⟩ denota el ideal generado por p, se tiene que A es un álgebra finitamente generada sobre 𝕂. Como espacio vectorial, tiene dimension n := gr(p) y una base viene dada por el conjunto de monomios B={1,x,,xn1}. Si consideramos la aplicación dada por la multiplicación por x:

x:AAf+pxf+p

es inmediato comprobar que su matriz asociada respecto a la base mencionada es precisamente la matriz compañera C de p(x), puesto que

x(xk)=xk+1,0kn2,x(xn1)=xn=a0a1xan1xn1,

que coincide con (1.1).

Observación 1.7. Si consideramos un cuerpo algebraicamente cerrado como ℂ, podemos considerar el conjunto de las n raíces de p(x) como una variedad algebraica compleja

VV(p) := {λ: p(λ) = 0},

que en este caso sencillo es un conjunto finito de puntos. La función x analizada, perteneciente a su anillo de funciones ℂ[x]/⟨p⟩, tiene como autovalores a los puntos de V, que son precisamente las evaluaciones de la función polinoímica x sobre los n puntos de los que consta la variedad.

2. Representación en anillos y álgebras finito-dimensionales

Un ejemplo sencillo pero revelador es el que aparece cuando consideramos el polinomio con coeficientes reales p(x) = x2 + 1. En este caso, la matriz compañera de p(x) es

J=[0110],                                  (2.1)

para la que es inmediato verificar que

det(λIJ)=1+λ2,

y cuyas raíces son las esperadas, λ1 = i y λ2 = i.

En teoría de anillos, se suele ampliar un anillo R añadiendo o adjuntando elementos al mismo. En concreto, si partimos de un anillo R y deseamos adjuntar un nuevo elemento j, podemos construir un nuevo anillo R[j] de la siguiente manera:

R[j]={a0+a1j+a2j2+a3j3++akjk : a0,a1,a2,a3,,akR, k},                                  (2.2)

el anillo de polinomios en j con coeficientes en R. Es sencillo comprobar que R[j] es un anillo, y que todo anillo S que contenga a R y a j contendrá también a R[j], siendo por tanto el menor anillo con esta propiedad.

En el caso de los números complejos, éstos se obtienen al adjuntar la unidad i=1 al anillo ℝ (cuerpo en este caso). Puesto que i anula el polinomio p(x) = 1 + x2, en este caso se sigue directamente que

R[i]={a0+a1i:a0,a1R},

obteniendo de este modo una descripción explícita de ℂ mediante la adjunción del elemento i a ℝ.

Por otro lado, dada una matriz cualquiera M con coeficientes en un anillo R, es posible que ésta no tenga todos sus autovalores en R, por lo que tiene sentido adjuntar los mismos al anillo de partida. Es decir, añadimos a un anillo R aquellos elementos que anulan el polinomio característico de una matriz dada.

Puesto que el Teorema de Cayley-Hamilton establece que p(M) = 0 (donde p es el polinomio característico de la matriz M), tiene también sentido tratar de adjuntar la propia matriz M a R, ya que anula a su polinomio característico. Replicando la construcción dada en (2.2), tendríamos el anillo

R[M]={a0I + a1M + a2M2 +···+ anMn : a0,a1,a2,...,anR}.

Dicho de otro modo, la elección de matriz M define mediante evaluación una aplicación:

ϕM:R[x]R[M]M(R)p(x)p(M)

que lleva cualquier polinomio con coeficientes en R a su evaluacién en M. Además, se tendrá que la imagen de ΦM, R(M), es isomorfa a R[x]/ker(ΦM).

Si adjuntamos a R la matriz J dada en (2.1), puesto que el polinomio mínimo de J es también 1 + λ2, tenemos que ker(ΦJ) = ⟨x2 + 1⟩, de modo que:

CR[x]/x2+1R[J].

El isomorfismo dado por ϕj al cocientar por el núcleo permite definir de modo explícito la representación de cualquier número complejo a0 + a1i en ℝ[J] como una matriz 2 × 2 con coeficientes reales

rep(a0+a1i)=a0I+a1J=[a0a1a1a0].

En efecto, la aplicación rep : ℝ[i] ⟶ ℝ[J] descrita es un isomorfismo entre anillos. Es directo comprobar que la construcción preserva la suma:

rep[(a0+a1i) + (b0+b1i)]=rep[(a0+b0) + (a1+b1)i]=[a0+b0(a1+b1)a1+b1a0+b0]=[a0a1a1a0]+[b0b1b1b0]=rep(a0+a1i)+rep(b0+b1i).

También preserva la multiplicación:

rep[(a0+a1i) (b0+b1i)]=rep[(a0b0a1b1)+(a0b1+a1b0)i]=[a0b0a1b1(a0b1+a1b0)a0b1+a1b0a0b0a1b1]=[a0a1a1a0][b0b1b1b0]=rep(a0+a1i)rep(b0+b1i).

y posee inversa dada por:

rep1([a0a1a1a0])=a0+a1i.

La matriz compañera C de un polinomio p(x) permite por tanto definir un isomorfismo entre R[x]/⟨p⟩ y un subanillo del anillo de matrices con coeficientes en R, R[C], obtenido al adjuntar C. En el caso en que R es un cuerpo 𝕂, ambos anillos poseen estructura de espacio vectorial finito dimensional sobre 𝕂 y son por tanto un álgebra de dimensión finita, en el que la matriz compañera es la matriz de la aplicación multiplicación por x en 𝕂[x]/⟨p⟩.

Concluimos la sección con un segundo ejemplo.

Ejemplo 2.1. Sea p(x) = x5 + 5x3 + x2 +5. La matriz compañera de p(x) es la matriz

C=[0000510000010010010500010].

Se puede comprobar directamente que C5 + 5 C3 + C2 + 5 = 0, y que por tanto el álgebra A=C[x]/pC[C]tiene dimensión 5. La matriz C es la matriz asociada a la operación multiplicación por x respecto a la base {1,x,x2,x3,x4}. Los autovalores de C son {±i5,1/2±i3/2,1}que coinciden con las 5 raíces complejas de p(x).

3. Extensión a varias variables

En el caso en que deseemos generalizar la construcción dada en las secciones anteriores y tratemos de resolver un sistema de ecuaciones dado por polinomios en varias variables:

f1(x1,,xn)=f2(x1,,xn)==fs(x1,,xn)=0,                                  (3.1)

donde fi[x1,,xn], muchas de las ideas expuestas en las secciones anteriores siguen siendo válidas, pero también aparecen nuevas complicaciones al pasar a varias variables. Replicando la construcción hecha, podemos considerar también el ideal I generado por los polinomios fi,I=f1,,fs considerar el algebra asociada

A:=x1,,xn/I.

En primer lugar, las soluciones a (3.1) forman lo que se conoce como variedad algebraica afín, y su naturaleza y dimensión depende del número de variables y de las ecuaciones implicadas. En el caso más sencillo, que es aquel en que las soluciones sean un conjunto finito de puntos en ℂn, la situación es tratable mediante álgebra lineal, ya que es precisamente el caso en el que el álgebra A es de nuevo finito dimensional como espacio vectorial sobre ℂ y se dice que el propio ideal I es finito-dimensional (véase [2], pág.39). Si llamamos d a dicha dimensión, podemos considerar aplicaciones multiplicación por xi:

xi:AAf(x1,,xn)+Ixif(x1,,xn)+I

análogas a las ya expuestas en (1.2) para el caso de una variable. Estas funciones, puesto que la dimensiáon de A es finita, definen matrices MxiMd×d(C). Se tiene entonces el siguiente resultado ([2], Sección 2, Teorema 4.5 y Corolario 4.6), que permite de modo explícito el cálculo de raíces del sistema:

Proposición 3.1. Los autovalores de las matrices Mxison las coordenadas i-ésimas de los puntos de V(I), esto es, de las soluciones del sistema (3.1).

En este sentido, podemos pensar en las matrices {Mxi}i=1n como matrices compañeras del sistema (3.1), que generalizan el caso de una variable. La evaluación de cualquier polinomio en estas matrices permite definir una aplicación

ϕ:[x1,xn][Mx1,,Mxn]Md×d()p(x1,,xn)p(Mx1,,Mxn)                                  (3.2)

cuyo núcleo es I, realizando el álgebra A como una subálgebra del espacio de matrices complejas de orden d × d. Puesto que las matrices Mxi conmutan (consecuencia de [2], Prop. 4.2), es un hecho que pueden ser simultámente diagonalizadas respecto a una misma base, y los autovalores de dichas matrices nos proporcionan las soluciones buscadas.

No obstante, la determinación de una base del álgebra A no es inmediata: requiere establecer un orden en el conjunto de monomios en ℂ[x1,…, xn], así como cambiar de generadores en el ideal I seleccionando una base de Gröbner (veáse [2] para más detalles).

Para concretar todas estas ideas, veamos un ejemplo ilustrativo.

Ejemplo 3.2. Consideremos el siguiente sistema de dos polinomios en dos variables:

f1=x2+y210=0,f2=x2+xy+2y216=0,                                  (3.3)

pertenecientes al anillo ℂ[x,y], y denotemos I=f1,f2.

Una base de Gröbner (para el orden llamado lexicográfico) de dicho ideal viene dada por g1 = y4 − 11y2 + 18, g2 = 3x + y3 − 8y, de modo que:

I=g1,g2.

Con el orden mencionado, se tiene que los monomios directores de ambos polinomios son {y4, 3x} respectivamente, y una base para A = ℂ[x,y]/I viene dada por:

B={[1],[y],[y2],[y3]},

aquellos monomios cuyas clases no son monomios directores de I (veáse [2], Sección 2.2). Además, vistas las ecuaciones de g1 y g2, se tienen en A las siguientes relaciones:

[y4]=11[y2]18[1]                                  (3.4)

[x]=13[y3]+83[y].                                  (3.5)

Con ello in mente, si consideramos la aplicación Mx en A y la base B mencionada, se tiene que:

Mx([1])=[x]=13[y3]+83[y]=(0,83,0,13)B,Mx([y])=[xy]=[x][y]=(83[y]13[y3])[y]=83[y2]13[y4]=[y2]+6[1]=(6,0,1,0)B,Mx([y2])=[xy2]=[xy][y]=([y2]+6[1])[y]=[y3]+6[y]=(0,6,0,1)B,Mx([y3])=[xy3]=[xy2][y]=[y4]+6[y2]=5[y2]+18[1]=(18,0,5,0)B,

donde hemos hecho repetido uso de (3.4) y (3.5). Respecto a la base fijada, se obtiene por tanto la matriz:

Mx=[060188/306001051/3010]

Es más sencillo comprobar que, respecto a la base indicada, la matriz de la aplicación multiplicación por y es:

My=[000181000010110010]

Se puede comprobar que las matrices Mx y My halladas conmutan, así como que satisfacen las ecuaciones f1(Mx,My)=f2(Mx,My)=0.

Los autovalores de Mx son {8,8,1,1}, mientras que los de Myson {2,2,3,3}respectivamente, cuando ambas matrices son diagonalizadas simultáneamente. Se obtienen por tanto cuatro puntos solución al sistema (3.3):

p1=(8,2), p2=(8,2), p3=(1,3), p4=(1,3)                                  (3.6)

como buscábamos.

Observación 3.3. Nótese que la matriz My es precisamente la matriz compañera en una variable del polinomio g1 de la base de Gröbner, lo que evidentemente no es casualidad. El cálculo de una base de Gröbner de un ideal permite en ocasiones eliminar variables de alguna de las ecuaciones implicadas, de modo que el sistema sea más fácilmente resoluble como en este caso: podríamos haber hallado las segundas coordenadas de los puntos mediante las raíces del polinomio univariado g1.

No obstante, de modo general, el cálculo de una base de Gröbner no elimina ninguna de las variables en los polinomios de la nueva base, pero sí facilita computacionalmente el problema: consigue resolver de manera eficiente problemas aparentemente sencillos como determinar si un polinomio pertenece o no a un ideal dado, o problemas relacionados con la división polinómica en varias variables.

Destaquemos también que las matrices Mx y My no son únicas, puesto que dependen de la base de monomios escogida. Cada base escogida realiza el álgebra A como subálgebra conmutativa del álgebra de matrices d × d, mediante el isomorfismo dado en (3.2).

Ejemplo 3.4. Si consideramos de nuevo el sistema (3.3), puede probarse que S={[1],[x],[y],[xy]}es también base del álgebra A. Respecto a esta base,

Mx([1])=[x]=(0,1,0,0)SMx([x])=[x2]=4[1]+[xy]=(4,0,0,1)S                                  (3.7)

Mx([y])=[xy]=(0,0,0,1)SMx([xy])=3[x]+2[y]=(0,3,2,0)S                                  (3.8)

donde las igualdades módulo I en (3.7) y (3.8) se deducen respectivamente de las igualdades polinómicas

x2=4+xy+2f1f2x2y=3x+2y(y+x2)f1+(x+y2)f2,

Se tiene por tanto que:

Mx=[0400100300020110]

Del mismo modo,

My([1])=[y]=(0,0,1,0)SMy([x])=[yx]=(0,0,0,1)SMy([y])=[y2]=[6xy]=(6,0,0,1)SMy([xy])=[xy2]=[3x2y]=(0,3,2,0)S

donde las últimas dos desigualdades se deducen de

y2=6xyf1+f2xy2=3x2y(2y+x2)f1+(x+y2)f2

La matriz obtenida es:

My=[0060000310020110]

Los autovalores de las matrices Mx, Myproporcionan de nuevo los puntos hallados en (3.6)

En este sentido, un método alternativo más clásico para el cálculo de soluciones de sistemas polinómicos es la resultante (véase [3]). En este contexto, existe un algoritmo que combina las ideas anteriores y la conocida como u-resultante, que introduce una ecuación auxiliar f0 = 0 al sistema original. Dicho algoritmo selecciona una base concreta del álgebra A y calcula una matriz que simultáneamente calcula las matrices Mxi de multiplicación por cada variable. Los detalles pueden consultarse en ([2], Sección 2, Teoremas 6.2 y 6.7).

Ejemplo 3.5. Siguiendo con el Ejemplo 3.2, el algoritmo parte del conjunto de monomios

B={1,x,y,x2,x y,y2,x3,x2y,xy2,y3},

y toma como base S = {1, x, y, xy} para A:=C[x,y]/f1,f2, que es la empleada en (3.4). La matriz que proporciona el algoritmo es:

M~=[u0u1u204u1u00u1+u26u20u0u1u203u1+3u22u12u2u0].

Fijando (u0, u1, u2) = (0, 1, 0), y (u0, u1, u2) = (0, 0, 1), se obtienen las matrices Mxty Mytdel Ejemplo 3.4.

Agradecimientos

Queremos agradecer al revisor o revisora los comentarios realizados, que mejoraron y ayudaron a simplificar y clarificar varios puntos del artículo.

Referencias

1 D. Poole, Linear Algebra: A Modern Introduction, 4.a ed., Cengage Learning (2014).

2 D. Cox, J. Little y D. O’Shea, Using Algebraic Geometry, 2.a ed., vol. 185, Springer Series in Mathematics (Springer, New York, 2005).

3 D. Cox, J. Little y D. O’Shea, Ideals, Varieties, and Algorithms. An Introduction to Computational Algebraic Geometry and Commutative Algebra, 3.a ed., Undergraduate Texts in Mathematics (2007).