<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "https://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article article-type="research-article" dtd-version="1.1" specific-use="sps-1.9" xml:lang="es" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink">
	<front>
		<journal-meta>
			<journal-id journal-id-type="publisher-id">remcf</journal-id>
			<journal-title-group>
				<journal-title>Revista mexicana de ciencias forestales</journal-title>
				<abbrev-journal-title abbrev-type="publisher">Rev. mex. de cienc. forestales</abbrev-journal-title>
			</journal-title-group>
			<issn pub-type="ppub">2007-1132</issn>
			<publisher>
				<publisher-name>Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="doi">10.29298/rmcf.v13i74.1269</article-id>
			<article-categories>
				<subj-group subj-group-type="heading">
					<subject>Artículo científico</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>Clasificación de uso del suelo y vegetación con redes neuronales convolucionales</article-title>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author">
					<name>
						<surname>Montiel González</surname>
						<given-names>Rodolfo</given-names>
					</name>
					<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
				</contrib>
				<contrib contrib-type="author">
					<name>
						<surname>Bolaños González</surname>
						<given-names>Martín Alejandro</given-names>
					</name>
					<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
					<xref ref-type="corresp" rid="c1">*</xref>
				</contrib>
				<contrib contrib-type="author">
					<name>
						<surname>Macedo Cruz</surname>
						<given-names>Antonia</given-names>
					</name>
					<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
				</contrib>
				<contrib contrib-type="author">
					<name>
						<surname>Rodríguez González</surname>
						<given-names>Agustín</given-names>
					</name>
					<xref ref-type="aff" rid="aff2"><sup>2</sup></xref>
				</contrib>
				<contrib contrib-type="author">
					<name>
						<surname>López Pérez</surname>
						<given-names>Adolfo</given-names>
					</name>
					<xref ref-type="aff" rid="aff1"><sup>1</sup></xref>
				</contrib>
			</contrib-group>
			<aff id="aff1">
				<label>1</label>
				<institution content-type="original">Colegio de Postgraduados. Campus Montecillo. México.</institution>
				<institution content-type="normalized">Colegio de Postgraduados</institution>
				<institution content-type="orgname">Colegio de Postgraduados</institution>
				<institution content-type="orgdiv1">Campus Montecillo</institution>
				<country country="MX">Mexico</country>
			</aff>
			<aff id="aff2">
				<label>2</label>
				<institution content-type="original">Hidráulica y Agricultura Consultores S.A. México.</institution>
				<institution content-type="orgname">Hidráulica y Agricultura Consultores S.A</institution>
				<country country="MX">México</country>
			</aff>
			<author-notes>
				<corresp id="c1">
					<label>*</label>Autor para correspondencia; correo-e: <email>bolanos@colpos.mx</email>, <email>martinb72@gmail.com</email>
				</corresp>
				<fn fn-type="conflict" id="fn1">
					<label>Conflicto de intereses</label>
					<p> Los autores declaran que no tienen intereses en competencia.</p>
				</fn>
				<fn fn-type="con" id="fn2">
					<label>Contribución por autor</label>
					<p> Rodolfo Montiel González: trabajo de campo, programación de código y elaboración del manuscrito; Martín Alejandro Bolaños González: conceptualización y elaboración del manuscrito; Antonia Macedo Cruz: revisión de código y revisión y corrección del manuscrito; Agustín Rodríguez González: revisión general y corrección del manuscrito; Adolfo López Pérez: revisión general y corrección del manuscrito.</p>
				</fn>
			</author-notes>
			<pub-date date-type="pub" publication-format="electronic">
				<day>31</day>
				<month>10</month>
				<year>2022</year>
			</pub-date>
			<pub-date date-type="collection" publication-format="electronic">
				<season>Nov-Dec</season>
				<year>2022</year>
			</pub-date>
			<volume>13</volume>
			<issue>74</issue>
			<fpage>97</fpage>
			<lpage>119</lpage>
			<history>
				<date date-type="received">
					<day>11</day>
					<month>04</month>
					<year>2022</year>
				</date>
				<date date-type="accepted">
					<day>28</day>
					<month>09</month>
					<year>2022</year>
				</date>
			</history>
			<permissions>
				<license license-type="open-access" xlink:href="https://creativecommons.org/licenses/by-nc/4.0/" xml:lang="es">
					<license-p>Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons</license-p>
				</license>
			</permissions>
			<abstract>
				<title>Resumen</title>
				<p>La clasificación de uso del suelo y vegetación es un ejercicio complejo y difícil de realizar con métodos tradicionales, por lo que los modelos de aprendizaje profundo son una alternativa para su aplicación debido a que son altamente capaces de aprender esta semántica compleja, lo que hace plausible su aplicación en la identificación automática de usos del suelo y vegetación a partir de patrones espacio-temporales extraídos de su apariencia. El objetivo del presente estudio fue proponer y evaluar un modelo de red neuronal convolucional de aprendizaje profundo para la clasificación de 22 clases distintas de cobertura y uso del suelo ubicadas en la cuenca río Atoyac-Salado. El modelo propuesto se entrenó utilizando datos digitales capturados en 2021 por el satélite <italic>Sentinel-2</italic>; se aplicó una combinación diferente de hiperparámetros en la cual la precisión del modelo depende del optimizador, la función de activación, el tamaño del filtro, la tasa de aprendizaje y el tamaño del lote. Los resultados proporcionaron una precisión de 84.57 % para el conjunto de datos. Para reducir el sobreajuste se empleó el método de regularización denominado <italic>Dropout</italic>, que resultó ser muy eficaz. Se comprobó con suficiente precisión que el aprendizaje profundo con redes neuronales convolucionales identifica patrones en los datos de la reflectancia captada por las imágenes del satélite <italic>Sentinel-2</italic> para la clasificación el uso de suelo y vegetación en áreas con una dificultad intrínseca en la cuenca del río Atoyac-Salado.</p>
			</abstract>
			<kwd-group xml:lang="es">
				<title>Palabras clave:</title>
				<kwd>Aprendizaje de máquina</kwd>
				<kwd>clasificación automática</kwd>
				<kwd>cuenca Atoyac-Salado</kwd>
				<kwd>imágenes <italic>Sentinel-2</italic></kwd>
				<kwd>inteligencia artificial</kwd>
				<kwd>sensores remotos</kwd>
			</kwd-group>
			<counts>
				<fig-count count="8"/>
				<table-count count="4"/>
				<equation-count count="0"/>
				<ref-count count="36"/>
				<page-count count="23"/>
			</counts>
		</article-meta>
	</front>
	<body>
		<sec sec-type="intro">
			<title>Introducción</title>
			<p>La información geográfica sobre el Uso del Suelo y Vegetación (USV) es un insumo importante para apoyar los estudios espacio-temporales del comportamiento de las comunidades vegetales presentes en el país, y con ello se contribuye al conocimiento del estado que guarda la cobertura del suelo (<xref ref-type="bibr" rid="B11">Inegi, 2017</xref>), lo cual es fundamental para los investigadores y tomadores de decisiones. A partir de los mapas de USV se deducen escenarios sobre la pérdida del capital natural o biodiversidad, se generan modelos sobre posibles efectos del cambio global y se fundamentan las estrategias de planificación de uso del suelo (<xref ref-type="bibr" rid="B17">Mas <italic>et al</italic>., 2009</xref>).</p>
			<p>En México, de acuerdo a los mapas de USV del Instituto Nacional de Estadística y Geografía (Inegi), la tasa de cambio de uso de suelo en el periodo de 1992 a 2016 para el caso de bosques y selvas fue, en promedio, de -133 000 ha año<sup>-1</sup>, con una evidente disminución de las superficies de vegetación primaria y un incremento de los usos del suelo asociados a las actividades agropecuarias (agricultura de riego, agricultura de temporal, pastizal inducido y pastizal cultivado, principalmente), aunque en los últimos años de análisis, del 2010 a 2016, la tasa de cambio se estabilizó (<xref ref-type="bibr" rid="B21">Paz-Pellat <italic>et al</italic>., 2019</xref>).</p>
			<p>El cambio de cobertura del suelo implica la modificación en ciertas características de la superficie como el tipo de vegetación; mientras que el cambio en el uso del suelo consiste en una alteración en la forma en que los seres humanos usan o gestionan cierta área de la Tierra (<xref ref-type="bibr" rid="B20">Patel <italic>et al</italic>., 2019</xref>). El cambio de la cobertura del suelo tiene numerosas consecuencias ecológicas, físicas y socioeconómicas (<xref ref-type="bibr" rid="B22">Pellikka <italic>et al</italic>., 2013</xref>). A pesar de su importancia, esta se identifica generalmente mediante la clasificación efectuada por un experto, incluso se realiza con una interpretación visual de imágenes satelitales, lo cual es costoso, dispendioso e impreciso. Implementar métodos computacionales permite generar la clasificación de coberturas con imágenes satelitales de manera automática, rápida, precisa y económica (<xref ref-type="bibr" rid="B30">Suárez <italic>et al</italic>., 2017</xref>), por lo que la teledetección de los cambios en la cobertura y el uso del suelo, tiene la ventaja de ofrecer métodos automatizados y repetibles a gran escala para monitorear indicadores de la condición de la vegetación (<xref ref-type="bibr" rid="B14">Lawley <italic>et al</italic>., 2015</xref>).</p>
			<p>En los últimos años, ha aumentado el interés y la necesidad de disponer de información de usos y coberturas del territorio confiable y actualizada (<xref ref-type="bibr" rid="B3">Borràs <italic>et al</italic>., 2017</xref>). Derivar la cobertura terrestre a partir de datos de sensores remotos, es fundamental para la elaboración de mapas, además de proporcionar información básica para respaldar las actividades científicas, ya que las imágenes de satélite son de acceso gratuito y abierto, además de que poseen un mayor almacenamiento y poder computacional (<xref ref-type="bibr" rid="B9">Hermosilla <italic>et al</italic>., 2022</xref>). Sin embargo, la clasificación detallada es una tarea extenuante debido a la ilimitada cantidad de los datos obtenidos por la teledetección y de la complejidad de los patrones y composiciones espaciales de las especies, así como de la falta de enfoques adecuados (<xref ref-type="bibr" rid="B34">Xie <italic>et al</italic>., 2019</xref>).</p>
			<p>Dada esta problemática, se necesitan utilizar nuevas técnicas como la inteligencia artificial que centra la investigación de múltiples conceptos enfocados a imitar las funciones que el humano desarrolla (<xref ref-type="bibr" rid="B24">Ponce <italic>et al</italic>., 2014</xref>). Al respecto, destaca el aprendizaje automático o aprendizaje máquina (<italic>machine learning</italic>) como una herramienta común en la extracción de información de grandes conjuntos de datos (<xref ref-type="bibr" rid="B28">Shalev-Shwartz y Ben-David, 2014</xref>), y en la que se sugiere el uso de una máquina/computadora para aprender de forma análoga cómo el cerebro aprende y predice, con el fin de automatizar operaciones para reducir la intervención humana en la detección automática en los datos de patrones significativos (<xref ref-type="bibr" rid="B31">Theodoridis, 2015</xref>).</p>
			<p>El aprendizaje profundo es una de las técnicas modernas más versátiles para la extracción y clasificación de características (<xref ref-type="bibr" rid="B1">Bhosle y Musande, 2019</xref>), además, analiza de forma inteligente los datos a gran escala (<xref ref-type="bibr" rid="B26">Sarker, 2021</xref>). Los algoritmos de aprendizaje profundo extraen abstracciones complejas de alto nivel (<xref ref-type="bibr" rid="B18">Najafabadi <italic>et al</italic>., 2015</xref>), entre ellos destacan dos tipos que se distinguen por el método de entrada de datos: supervisado y no supervisado. El aprendizaje supervisado se realiza con datos conocidos (datos de entrenamiento) de la clase por identificar (<xref ref-type="bibr" rid="B30">Suárez <italic>et al</italic>., 2017</xref>), mientras que en el aprendizaje no supervisado, no se requiere conocimiento de las clases por determinar (<xref ref-type="bibr" rid="B23">Pérez y Arco, 2016</xref>). La entrada de un algoritmo de aprendizaje son los datos de entrenamiento y la salida suele adoptar la forma de otro programa informático que puede efectuar alguna tarea (<xref ref-type="bibr" rid="B28">Shalev-Shwartz y Ben-David, 2014</xref>).</p>
			<p>En el campo del aprendizaje automático, las redes neuronales convolucionales (CNN, por sus siglas en inglés) han logrado mejoras considerables y han despertado un gran interés en las comunidades académicas e industriales (<xref ref-type="bibr" rid="B13">Krizhevsky <italic>et al</italic>., 2017</xref>) porque utilizan conexiones locales para extraer eficazmente la información espacial y los pesos compartidos (<xref ref-type="bibr" rid="B4">Chen <italic>et al</italic>., 2016</xref>). La CNN puede extraer características más eficaces con la ayuda de información específica de la clase (<xref ref-type="bibr" rid="B4">Chen <italic>et al</italic>., 2016</xref>), por lo que se requieren conjuntos de datos de entrenamiento grandes, y si es un problema de múltiples clases, que los datos estén balanceados (<xref ref-type="bibr" rid="B30">Suárez <italic>et al</italic>., 2017</xref>).</p>
			<p>Existen diversos métodos para clasificar imágenes, pero no todos son aplicables a la clasificación de la cubierta terrestre (<xref ref-type="bibr" rid="B16">Macedo-Cruz <italic>et al</italic>., 2010</xref>). Por eso, y con la finalidad de valorar la precisión con la cual el aprendizaje profundo puede con redes neuronales convolucionales identificar patrones en la clasificación del uso de suelo y vegetación mediante datos de la reflectancia captada por los sensores remotos a bordo de plataformas satelitales, se planteó el estudio en las condiciones de la cuenca del río Atoyac-Salado, que debido a su diversidad de ecosistemas y sistemas productivos, desarrollo urbano, orografía y en particular la gran diversidad de clases de USV que convergen en ella, hacen que sea una zona idónea y desafiante para aplicar métodos de clasificación supervisada con inteligencia artificial. </p>
			<p>El objetivo fue proponer y evaluar el desempeño de un método computacional basado en redes neuronales convolucionales para la clasificación supervisada de 22 clases distintas de USV en la cuenca del río Atoyac-Salado en el estado de Oaxaca.</p>
		</sec>
		<sec sec-type="materials|methods">
			<title>Materiales y Métodos</title>
			<p>La cuenca Río Atoyac-Salado se localiza en la parte central del estado de Oaxaca (<xref ref-type="fig" rid="f1">Figura 1</xref>), entre los paralelos 16°49'25.86&quot; y 17°11'34.09&quot; de latitud norte y 96°17'23.60&quot; y 96°43'41.66&quot; de longitud oeste. Comprende desde el nacimiento del río Salado hasta la estación hidrométrica Oaxaca. Este tiene sus orígenes en San Francisco Telixtlahuaca, donde lleva el nombre de río Nariz, a una altitud aproximada de 2 418 m. Al sur de San Pablo Huitzo se denomina río Atoyac, y cruza la ciudad de Oaxaca de Juárez hasta la estación hidrométrica Oaxaca a una altitud aproximada de 1 500 m (<xref ref-type="bibr" rid="B27">Semarnat, 2017</xref>).</p>
			<p>
				<fig id="f1">
					<label>Figura 1</label>
					<caption>
						<title>Localización de la cuenca del río Atoyac-Salado y principales corrientes de agua.</title>
					</caption>
					<graphic xlink:href="https://cienciasforestales.inifap.gob.mx/index.php/forestales/article/download/1269/3296/20967"/>
				</fig>
			</p>
			<p>La delimitación de la cuenca del río Atoyac-Salado se realizó en <italic>ArcSWAT™</italic> (2012.10_4.21) como una extensión del <italic>software ArcGIS™</italic> (14.4.1), a partir del modelo digital de elevación de alta resolución <italic>LiDAR</italic> de Inegi con resolución de 15 m, proyección Universal Transversa de Mercator (UTM) zona 14. La salida de la cuenca se ubicó en la estación hidrométrica Paso Ancho.</p>
			<p>Las unidades de análisis correspondieron a las distintas coberturas y usos del suelo del conjunto de datos vectoriales Serie VI escala 1:250 000 (<xref ref-type="bibr" rid="B11">Inegi, 2017</xref>). De las 22 clases de USV (<xref ref-type="table" rid="t1">Cuadro 1</xref>), se distinguen dos con mayor extensión: agricultura de temporal anual con 21.41 % de la superficie total y vegetación secundaria arbustiva de bosque de encino con 17.78 %. Se registraron tres tipos de agricultura: temporal, riego y humedad, que por su duración se dividieron en anuales, semipermanentes y permanentes. Con base en esta variabilidad de usos del suelo, la cuenca del río Atoyac-Salado resultó adecuada para aplicar métodos de clasificación supervisada con inteligencia artificial.</p>
			<p>
				<table-wrap id="t1">
					<label>Cuadro 1</label>
					<caption>
						<title>Asignación de clase y clave por tipo de USV.</title>
					</caption>
					<table style="border-collapse: collapse; width: 100%">
						<colgroup>
							<col/>
							<col/>
							<col/>
							<col/>
						</colgroup>
						<thead>
							<tr>
								<th align="center" style="border-bottom: solid thin; border-top: solid thin">Clase</th>
								<th align="center" style="border-bottom: solid thin; border-top: solid thin">Clave</th>
								<th align="center" style="border-bottom: solid thin; border-top: solid thin">Tipo de uso del suelo y vegetación</th>
								<th align="center" style="border-bottom: solid thin; border-top: solid thin">Superficie (ha)</th>
							</tr>
						</thead>
						<tbody>
							<tr>
								<td align="center">0</td>
								<td align="left">AH</td>
								<td align="left">Urbano construido</td>
								<td align="center">21 690.4</td>
							</tr>
							<tr>
								<td align="center">1</td>
								<td align="left">BP</td>
								<td align="left">Bosque de pino</td>
								<td align="center">1 384.1</td>
							</tr>
							<tr>
								<td align="center">2</td>
								<td align="left">BPQ</td>
								<td align="left">Bosque de pino-encino</td>
								<td align="center">10 157.7</td>
							</tr>
							<tr>
								<td align="center">3</td>
								<td align="left">BQP</td>
								<td align="left">Bosque de encino-pino</td>
								<td align="center">630.6</td>
							</tr>
							<tr>
								<td align="center">4</td>
								<td align="left">HS</td>
								<td align="left">Agricultura de humedad semipermanente</td>
								<td align="center">358.6</td>
							</tr>
							<tr>
								<td align="center">5</td>
								<td align="left">PI</td>
								<td align="left">Pastizal inducido</td>
								<td align="center">41 935.9</td>
							</tr>
							<tr>
								<td align="center">6</td>
								<td align="left">RA</td>
								<td align="left">Agricultura de riego anual</td>
								<td align="center">2 915.4</td>
							</tr>
							<tr>
								<td align="center">7</td>
								<td align="left">RAS</td>
								<td align="left">Agricultura de riego anual y semipermanente</td>
								<td align="center">3 836.2</td>
							</tr>
							<tr>
								<td align="center">8</td>
								<td align="left">RS</td>
								<td align="left">Agricultura de riego semipermanente</td>
								<td align="center">1 032.2</td>
							</tr>
							<tr>
								<td align="center">9</td>
								<td align="left">TA</td>
								<td align="left">Agricultura de temporal anual</td>
								<td align="center">79 647.6</td>
							</tr>
							<tr>
								<td align="center">10</td>
								<td align="left">TAP</td>
								<td align="left">Agricultura de temporal anual y permanente</td>
								<td align="center">15 552.3</td>
							</tr>
							<tr>
								<td align="center">11</td>
								<td align="left">VSa/BP</td>
								<td align="left">Vegetación secundaria arbustiva de bosque de pino</td>
								<td align="center">9 473.3</td>
							</tr>
							<tr>
								<td align="center">12</td>
								<td align="left">VSa/BPQ</td>
								<td align="left">Vegetación secundaria arbustiva de bosque de pino-encino</td>
								<td align="center">4 378.7</td>
							</tr>
							<tr>
								<td align="center">13</td>
								<td align="left">VSa/BQ</td>
								<td align="left">Vegetación secundaria arbustiva de bosque de encino</td>
								<td align="center">66 145.4</td>
							</tr>
							<tr>
								<td align="center">14</td>
								<td align="left">VSa/BQP</td>
								<td align="left">Vegetación secundaria arbustiva de bosque de encino-pino</td>
								<td align="center">11 682.1</td>
							</tr>
							<tr>
								<td align="center">15</td>
								<td align="left">VSa/MK</td>
								<td align="left">Vegetación secundaria arbustiva de bosque de mezquite</td>
								<td align="center">772.8</td>
							</tr>
							<tr>
								<td align="center">16</td>
								<td align="left">VSa/SBC</td>
								<td align="left">Vegetación secundaria arbustiva de selva baja caducifolia</td>
								<td align="center">8 138.4</td>
							</tr>
							<tr>
								<td align="center">17</td>
								<td align="left">VSA/BP</td>
								<td align="left">Vegetación secundaria arbórea de bosque de pino</td>
								<td align="center">10 569.2</td>
							</tr>
							<tr>
								<td align="center">18</td>
								<td align="left">VSA/BPQ</td>
								<td align="left">Vegetación secundaria arbórea de bosque de pino-encino</td>
								<td align="center">20 728.7</td>
							</tr>
							<tr>
								<td align="center">19</td>
								<td align="left">VSA/BQ</td>
								<td align="left">Vegetación secundaria arbórea de bosque de encino</td>
								<td align="center">19 473.6</td>
							</tr>
							<tr>
								<td align="center">20</td>
								<td align="left">VSA/BQP</td>
								<td align="left">Vegetación secundaria arbórea de bosque de encino-pino</td>
								<td align="center">6 210.4</td>
							</tr>
							<tr>
								<td align="center">21</td>
								<td align="left">VSh/BQ</td>
								<td align="left">Vegetación secundaria herbácea de bosque de encino</td>
								<td align="center">726.5</td>
							</tr>
							<tr>
								<td align="left" colspan="3" style="border-bottom: solid thin;">Total </td>
								<td align="center" style="border-bottom: solid thin;">372 068.3</td>
							</tr>
						</tbody>
					</table>
				</table-wrap>
			</p>
			<sec>
				<title>Imágenes de satélite</title>
				<p>La misión <italic>Copernicus Sentinel-2</italic> consta de dos satélites idénticos (2A y 2B) en la misma órbita, desarrollados por la Agencia Espacial Europea (ESA, https://www.esa.int/Applications/Observing_the_Earth/Copernicus/Sentinel-2). Equipados con un sensor óptico, el instrumento multiespectral tiene una resolución espacial que varía de 10 a 60 m en función de la banda espectral (<xref ref-type="bibr" rid="B6">Drusch <italic>et al</italic>., 2012</xref>), con 13 bandas en los intervalos visible, infrarrojo cercano e infrarrojo de onda corta del espectro electromagnético, y con un tiempo de revisita de 5 días en el Ecuador (<xref ref-type="bibr" rid="B7">Gascon <italic>et al</italic>., 2017</xref>).</p>
				<p>Las imágenes utilizadas correspondieron a los <italic>Tiles</italic> T14QQD y T14QQE y a las bandas RGB y NIR de escenas multitemporales con resolución espacial de 10 m, adquiridos el 13 de abril de 2021 y el 3 de mayo de 2021, respectivamente. Ambas imágenes fueron capturadas por el satélite <italic>Sentinel-2A</italic>, con un nivel de procesamiento 2-A. Se seleccionaron escenas con poca o ninguna nube o neblina, y se descargaron del portal <italic>Copernicus Open Access Hub</italic> (<ext-link ext-link-type="uri" xlink:href="https://scihub.copernicus.eu/). ">https://scihub.copernicus.eu/). </ext-link>La unidad de muestreo consistió en recortes de 20×20 píxeles. El método de muestreo fue aleatorio estratificado (<xref ref-type="bibr" rid="B5">Congalton y Green, 2009</xref>) mediante conocimiento previo del área de estudio a partir de recorridos de campo para dividir el área en grupos o estratos, los cuales se muestrearon aleatoriamente.</p>
			</sec>
			<sec>
				<title>Muestras de entrenamiento</title>
				<p>Para extraer muestras de entrenamiento y delimitar el área de estudio se usó <italic>QGIS</italic> (3.18.3), las cuales se obtuvieron de 20×20×4 píxeles (alto, ancho y número de bandas) en formato <italic>.tiff</italic>, se consideró que al menos 80 % del recorte pertenecía a una sola clase. Se empleó un conjunto de entrenamiento balanceado para evitar realizar la clasificación con datos desequilibrados (<xref ref-type="bibr" rid="B8">Gnip <italic>et al</italic>., 2021</xref>). De cada clase de USV se extrajeron 6 000 muestras de entrenamiento, con excepción de las clases Agricultura de humedad de ciclo semipermanente con 2 280 y Agricultura de riego de ciclo semipermanente con 4 356 que por tener menor superficie, se evitó el sobremuestreo. En total, se generaron 126 636 muestras de entrenamiento.</p>
			</sec>
			<sec>
				<title>Modelo de CNN</title>
				<p>La programación del algoritmo del modelo de CNN se realizó en lenguaje <italic>Python</italic> en un entorno de desarrollo <italic>Jupyter notebook</italic> en el que se usaron bibliotecas de código abierto como <italic>Tensorflow</italic> y <italic>Keras</italic> para el aprendizaje automático. El modelo aplicado fue de tipo Secuencial, las capas de la red se ordenaron y apilaron linealmente (<xref ref-type="bibr" rid="B33">Xie <italic>et al</italic>., 2020</xref>). Todas las neuronas de una capa conectan con todas las de la capa siguiente, basado en secuencias de tres tipos de capas: convolucionales, de agrupación y totalmente conectadas. La convolución y las capas totalmente conectadas suelen ir seguidas de una función de activación no lineal (<xref ref-type="bibr" rid="B25">Rousset <italic>et al</italic>., 2021</xref>).</p>
				<p>La arquitectura del modelo constó de tres capas convolucionales y tres de agrupación, de acuerdo a las sugerencias de <xref ref-type="bibr" rid="B4">Chen <italic>et al</italic>. (2016)</xref> para equilibrar la complejidad y la solidez de la red. Se usaron en cada capa 128 neuronas, un tamaño de <italic>Kernel</italic> de 3 por 3, con un mismo relleno (<italic>Padding</italic>). Se agregaron ceros alrededor de las imágenes de entrada; las salidas de la capa tuvieron las mismas dimensiones espaciales que sus entradas. Una función de activación denominada como Unidad Rectificada Lineal (<italic>ReLu</italic>) que devuelve 0 por cada valor negativo en la imagen de entrada y regresa el mismo valor por cada valor positivo, seguido de un filtro de submuestreo de agrupación promedio <italic>(Average-Pooling)</italic> que considera la media de los valores de activación de una ventana, además de una capa de regulación (<italic>Dropout)</italic> con 20 % de posibilidades de establecer las entradas en cero.</p>
				<p>A continuación, una capa (<italic>Flatten)</italic> que aplana las salidas multidimensionales de la última capa de convolución en un formato unidimensional, y dos capas densas: una de 512 neuronas ocultas con una activación <italic>ReLu</italic> y capa <italic>Dropout</italic> a 20 %, y la última con 22 neuronas de salida que correspondieron al número de clases por identificar, con función de activación <italic>softmax</italic> para predecir la probabilidad de cada clase.</p>
				<p>El entrenamiento es el proceso para que las entradas produzcan las salidas deseadas. Se lleva a cabo a partir del establecimiento de pesos conocidos con anterioridad (<xref ref-type="bibr" rid="B32">Vinet y Zhedanov, 2011</xref>). Para el ajuste de los pesos de las conexiones, se dividió el conjunto de datos en dos grupos: entrenamiento (80 %) y prueba (20 %). Los primeros, a su vez, se dividieron en entrenamiento (80 %) y evaluación (20 %), los cuales se introdujeron varias veces en la red y se denominó época a cada reiteración. El modelo se entrenó con 100 épocas.</p>
				<p>Durante la fase de aprendizaje, se aplicó una función de transferencia a través de una serie de iteraciones para comparar los valores predichos con los valores observados (<xref ref-type="bibr" rid="B2">Bocco <italic>et al.</italic>, 2007</xref>). El conjunto de pruebas no es visto por el modelo en el entrenamiento y se utiliza después, tras el ajuste de los hiperparámetros para proporcionar una evaluación imparcial del modelo final. Al realizar las épocas y ajustar los pesos, se ingresan los datos de validación. El entrenamiento finaliza cuando se alcanza un error bajo para todos los patrones de aprendizaje (<xref ref-type="bibr" rid="B2">Bocco <italic>et al</italic>., 2007</xref>). En la evaluación y prueba se utilizaron hiperparámetros: tamaño de <italic>Kernel</italic>, la tasa de abandono, las capas ocultas, la profundidad de las capas y las funciones de activación.</p>
				<p>La compilación del modelo incluyó tres parámetros: optimizador, pérdida y métricas. Se usó <italic>Adam</italic> como algoritmo optimizador, ya que es computacionalmente eficiente, tiene pocos requisitos de memoria, es invariable al cambio de escala diagonal de los gradientes y adecuado para problemas grandes en términos de datos o parámetros (<xref ref-type="bibr" rid="B12">Kingma y Ba, 2014</xref>). Se compiló con la función entropía cruzada categórica y la métrica de rendimiento de interés fue la exactitud (<italic>accuracy</italic>), que se relaciona con la observación correctamente predicha y el total de observaciones.</p>
				<p>La clasificación se evaluó con la matriz de confusión, ya que resume la evaluación de la precisión y representa una buena práctica (<xref ref-type="bibr" rid="B19">Olofsson <italic>et al</italic>., 2014</xref>). La matriz de doble entrada confronta los valores reales con los resultados de la clasificación, por lo que es fácil detectar dónde está confundiendo dos clases. Los elementos en la diagonal corresponden a la predicción correcta y los que están fuera de esta corresponden a predicciones incorrectas, tanto en forma horizontal como vertical (<xref ref-type="bibr" rid="B35">Yeturu, 2020</xref>). La proporción de puntos correctamente asignados expresa la confiabilidad (<xref ref-type="bibr" rid="B17">Mas <italic>et al.</italic>, 2003</xref>). Además, se calcularon otras métricas de evaluación: la precisión, la sensibilidad y la puntuación.</p>
				<p>Adicionalmente, el rendimiento del modelo se analizó con las variaciones de su sensibilidad y especificidad mediante la curva de características operativas del receptor (<italic>ROC</italic>), un parámetro para evaluar la bondad de la prueba. La exactitud de la prueba aumenta a medida que la curva se desplaza desde la diagonal hacia el vértice superior izquierdo. Un valor mayor indica que el modelo puede lograr un mejor rendimiento (<xref ref-type="bibr" rid="B15">Liu <italic>et al</italic>., 2022</xref>).</p>
			</sec>
		</sec>
		<sec sec-type="results|discussion">
			<title>Resultados y Discusión</title>
			<p>Los conjuntos de datos de entrenamiento y validación se utilizaron para proporcionar una evaluación insesgada del modelo entrenado, con el ajuste de los hiperparámetros para obtener el mejor rendimiento del modelo de red neuronal desarrollado (<xref ref-type="fig" rid="f2">Figura 2</xref>).</p>
			<p>
				<fig id="f2">
					<label>Figura 2</label>
					<caption>
						<title>Resultados de la precisión del modelo.</title>
					</caption>
					<graphic xlink:href="https://cienciasforestales.inifap.gob.mx/index.php/forestales/article/download/1269/3296/20968"/>
				</fig>
			</p>
			<p>La relación entre el número total de entradas identificadas correctamente y el número total de entradas dio la precisión global de la clasificación, la cual alcanzó un máximo de 89.44 % sobre los datos de entrenamiento y 84.57 % en validación durante 100 épocas.</p>
			<p>Los resultados de la clasificación de imágenes se evaluaron utilizando la matriz de confusión. En la <xref ref-type="fig" rid="f3">Figura 3</xref>, se muestran en color más claro las clases con mayor precisión en la clasificación y también con qué clase se confundió la clase ingresada. En este caso, la red confundió más las etiquetadas como 19 y 20, que correspondieron a vegetación secundaria arbórea de bosque de encino y vegetación secundaria arbórea de bosque de encino-pino debido a que son ecosistemas de vegetación natural similares, con predominio de formas de vida arbóreas, en las cuales cambia parcialmente el componente florístico, lo que puede explicar la confusión entre clases.</p>
			<p>
				<fig id="f3">
					<label>Figura 3</label>
					<caption>
						<title>Matriz de confusión.</title>
					</caption>
					<graphic xlink:href="https://cienciasforestales.inifap.gob.mx/index.php/forestales/article/download/1269/3296/20973"/>
				</fig>
			</p>
			<p>De acuerdo con los resultados, para las métricas de evaluación (<xref ref-type="table" rid="t2">Cuadro 2</xref> y <xref ref-type="fig" rid="f4">Figura 4</xref>), se aprecia un conjunto de puntuaciones medias (macro y ponderada) y exactitud con rendimiento general estimado de 85 % para todas las métricas, por lo que se consideró que el modelo de clasificación de uso del suelo y vegetación fue robusto. Estos resultados indican que el modelo tiene una baja dispersión del conjunto de valores obtenidos, con 85 % de casos positivos que fueron identificados correctamente por el algoritmo.</p>
			<p>
				<table-wrap id="t2">
					<label>Cuadro 2</label>
					<caption>
						<title>Métricas de evaluación del modelo.</title>
					</caption>
					<table style="border-collapse: collapse; width: 100%">
						<colgroup>
							<col/>
							<col/>
							<col/>
							<col/>
						</colgroup>
						<thead>
							<tr>
								<th align="center" style="border-bottom: solid thin; border-top: solid thin">Clase</th>
								<th align="center" style="border-bottom: solid thin; border-top: solid thin">Precisión</th>
								<th align="center" style="border-bottom: solid thin; border-top: solid thin">Sensibilidad</th>
								<th align="center" style="border-bottom: solid thin; border-top: solid thin">Puntuación F1</th>
							</tr>
						</thead>
						<tbody>
							<tr>
								<td align="center">0</td>
								<td align="center">0.89</td>
								<td align="center">1</td>
								<td align="center">0.94</td>
							</tr>
							<tr>
								<td align="center">1</td>
								<td align="center">0.97</td>
								<td align="center">0.96</td>
								<td align="center">0.97</td>
							</tr>
							<tr>
								<td align="center">2</td>
								<td align="center">0.78</td>
								<td align="center">0.79</td>
								<td align="center">0.79</td>
							</tr>
							<tr>
								<td align="center">3</td>
								<td align="center">0.97</td>
								<td align="center">0.99</td>
								<td align="center">0.98</td>
							</tr>
							<tr>
								<td align="center">4</td>
								<td align="center">0.98</td>
								<td align="center">0.98</td>
								<td align="center">0.98</td>
							</tr>
							<tr>
								<td align="center">5</td>
								<td align="center">0.86</td>
								<td align="center">0.77</td>
								<td align="center">0.82</td>
							</tr>
							<tr>
								<td align="center">6</td>
								<td align="center">0.93</td>
								<td align="center">0.93</td>
								<td align="center">0.93</td>
							</tr>
							<tr>
								<td align="center">7</td>
								<td align="center">0.83</td>
								<td align="center">0.79</td>
								<td align="center">0.81</td>
							</tr>
							<tr>
								<td align="center">8</td>
								<td align="center">0.98</td>
								<td align="center">0.99</td>
								<td align="center">0.99</td>
							</tr>
							<tr>
								<td align="center">9</td>
								<td align="center">0.72</td>
								<td align="center">0.82</td>
								<td align="center">0.77</td>
							</tr>
							<tr>
								<td align="center">10</td>
								<td align="center">0.88</td>
								<td align="center">0.77</td>
								<td align="center">0.82</td>
							</tr>
							<tr>
								<td align="center">11</td>
								<td align="center">0.84</td>
								<td align="center">0.85</td>
								<td align="center">0.85</td>
							</tr>
							<tr>
								<td align="center">12</td>
								<td align="center">0.91</td>
								<td align="center">0.90</td>
								<td align="center">0.91</td>
							</tr>
							<tr>
								<td align="center">13</td>
								<td align="center">0.82</td>
								<td align="center">0.74</td>
								<td align="center">0.78</td>
							</tr>
							<tr>
								<td align="center">14</td>
								<td align="center">0.86</td>
								<td align="center">0.81</td>
								<td align="center">0.83</td>
							</tr>
							<tr>
								<td align="center">15</td>
								<td align="center">0.99</td>
								<td align="center">0.98</td>
								<td align="center">0.99</td>
							</tr>
							<tr>
								<td align="center">16</td>
								<td align="center">0.84</td>
								<td align="center">0.89</td>
								<td align="center">0.86</td>
							</tr>
							<tr>
								<td align="center">17</td>
								<td align="center">0.81</td>
								<td align="center">0.82</td>
								<td align="center">0.82</td>
							</tr>
							<tr>
								<td align="center">18</td>
								<td align="center">0.72</td>
								<td align="center">0.78</td>
								<td align="center">0.75</td>
							</tr>
							<tr>
								<td align="center">19</td>
								<td align="center">0.56</td>
								<td align="center">0.51</td>
								<td align="center">0.53</td>
							</tr>
							<tr>
								<td align="center">20</td>
								<td align="center">0.62</td>
								<td align="center">0.69</td>
								<td align="center">0.65</td>
							</tr>
							<tr>
								<td align="center">21</td>
								<td align="center">0.99</td>
								<td align="center">0.98</td>
								<td align="center">0.98</td>
							</tr>
							<tr>
								<td align="left">Exactitud</td>
								<td align="center"> </td>
								<td align="center"> </td>
								<td align="center">0.85</td>
							</tr>
							<tr>
								<td align="left">Media <break/>macro</td>
								<td align="center">0.85</td>
								<td align="center">0.85</td>
								<td align="center">0.85</td>
							</tr>
							<tr>
								<td align="left" style="border-bottom: solid thin;">Media <break/>ponderada</td>
								<td align="center" style="border-bottom: solid thin;">0.85</td>
								<td align="center" style="border-bottom: solid thin;">0.85</td>
								<td align="center" style="border-bottom: solid thin;">0.85</td>
							</tr>
						</tbody>
					</table>
				</table-wrap>
			</p>
			<p>
				<fig id="f4">
					<label>Figura 4</label>
					<caption>
						<title>Curva <italic>ROC</italic> por clase identificada.</title>
					</caption>
					<graphic xlink:href="https://cienciasforestales.inifap.gob.mx/index.php/forestales/article/download/1269/3296/20970"/>
				</fig>
			</p>
			<p>Durante el entrenamiento, la red experimentó un cambio positivo cuando se utilizó una capa de regulación (<italic>Dropout)</italic> con 20 % de posibilidades de establecer las entradas en cero, lo que permitió al modelo el ajuste de los datos minimizando el error producido por estos en cada época. Mientras que, al no usarse, hubo un punto en que el error aumentó y generó sobreentrenamiento.</p>
			<p>En este trabajo, se utilizaron 22 clases distintas cuando habitualmente se emplean alrededor de 10. Por ejemplo, <xref ref-type="bibr" rid="B30">Suárez <italic>et al</italic>. (2017)</xref> usaron cuatro clases con 91.02 % de exactitud, <xref ref-type="bibr" rid="B10">Hu <italic>et al</italic>. (2018)</xref> clasificaron siete clases y 82 % en precisión, <xref ref-type="bibr" rid="B1">Bhosle y Musande (2019)</xref> clasificaron 16 y cuatro clases con precisiones de 97.58 y 79.43 %, respectivamente.</p>
			<p>Los resultados obtenidos en rendimiento fueron altos, presentaron respuestas acertadas y mostraron avances para el procedimiento realizado con CNN en la clasificación automatizada de USV con 22 clases, a pesar de que la escala para crear las series tuvo el problema de generar grandes polígonos de clases de USV no representativas de la escala local (<xref ref-type="bibr" rid="B21">Paz-Pellat <italic>et al</italic>., 2019</xref>). Los resultados del presente trabajo fueron mejores en comparación con otros previos de clasificación con CNN, en los cuales se registró una exactitud de 83.27 % en entrenamiento y 91.02 % en validación para identificar cuatro clases (<xref ref-type="bibr" rid="B30">Suárez <italic>et al</italic>., 2017</xref>), y con precisiones de 90.18 % en clasificación de cobertura vegetal y de 87.92 % para uso del suelo en 12 clases (<xref ref-type="bibr" rid="B36">Zhang <italic>et al</italic>., 2019</xref>).</p>
			<p>El modelo propuesto presentó resultados satisfactorios en un conjunto de datos muy desafiante, aun solo con el uso del aprendizaje supervisado. Una vez entrenado el conjunto de datos, la red experimentó un sobreajuste sustancial cuando se omite <italic>Dropout</italic>, pero no se informó sobreajuste cuando se agregó esta función (<xref ref-type="bibr" rid="B29">Srivastava <italic>et al</italic>., 2014</xref>).</p>
			<p>Cabe destacar que al eliminar cualquiera de las capas intermedias, el rendimiento de la red se degrada (<xref ref-type="bibr" rid="B13">Krizhevsky <italic>et al</italic>., 2017</xref>) y supone una pérdida de alrededor de 5 % si se elimina una sola capa convolucional. La configuración de profundidad de la red CNN es fundamental en la precisión de la clasificación, ya que la calidad de las características aprendidas está influenciada por los niveles de representaciones y abstracciones (<xref ref-type="bibr" rid="B36">Zhang <italic>et al</italic>., 2019</xref>).</p>
			<p>Los resultados muestran la idoneidad de las CNN para clasificar los USV en áreas complejas, sin embargo, su precisión puede variar a medida que se incremente el número de clases, como es el caso de los mapas de USV del Inegi en las que se consideran 70 clases con 15 agrupaciones (<xref ref-type="bibr" rid="B21">Paz-Pellat <italic>et al</italic>., 2019</xref>), por lo que probablemente se tendría que agrupar en clases espectralmente similares para hacer operativo un esquema de clasificación con aprendizaje profundo. En la actualidad, existen muchas otras opciones de aprendizaje profundo con arquitecturas más complejas con las que se podría avanzar en trabajos posteriores. Además, usar solo información de reflectancias de las bandas espectrales independientes puede ser limitante, por lo que se sugiere añadir capas de índices de vegetación.</p>
		</sec>
		<sec sec-type="conclusions">
			<title>Conclusiones</title>
			<p>El modelo detecta correctamente las clases más separadas espectralmente y que poseen características diferenciales. No se afectan las clases con menor número de datos de entrenamiento, aunque clases próximas espectralmente registran índices de reconocimiento bajos. Los resultados mejoran al aumentar la red en número de capas y tiempo de entrenamiento, pero aún quedan órdenes de magnitud por superar para aumentar la precisión en la clasificación.</p>
			<p>Se comprobó con suficiente precisión que el aprendizaje profundo con redes neuronales convolucionales, puede identificar patrones en los datos de la reflectancia captada por las imágenes del satélite <italic>Sentinel-2</italic> para la clasificación del uso de suelo y vegetación en áreas con una dificultad intrínseca en la cuenca del Río Atoyac-Salado.</p>
		</sec>
	</body>
	<back>
		<ack>
			<title>Agradecimientos</title>
			<p> </p>
			<p>Al Colegio de Postgraduados por facilitar los recursos necesarios para realizar esta investigación, y al Consejo Nacional de Ciencia y Tecnología (Conacyt) por la beca otorgada para estudios de Maestría en Ciencias de Rodolfo Montiel González.</p>
		</ack>
		<ref-list>
			<title>Referencias</title>
			<ref id="B1">
				<mixed-citation>Bhosle, K. and V. Musande. 2019. Evaluation of deep learning CNN Model for Land Use Land Cover classification and crop identification using hyperspectral remote sensing images. Journal of the Indian Society of Remote Sensing 47(11):1949-1958. Doi: 10.1007/s12524-019-01041-2.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Bhosle</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Musande</surname>
							<given-names>V.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Evaluation of deep learning CNN Model for Land Use Land Cover classification and crop identification using hyperspectral remote sensing images</article-title>
					<source>Journal of the Indian Society of Remote Sensing</source>
					<volume>47</volume>
					<issue>11</issue>
					<fpage>1949</fpage>
					<lpage>1958</lpage>
					<pub-id pub-id-type="doi">10.1007/s12524-019-01041-2</pub-id>
				</element-citation>
			</ref>
			<ref id="B2">
				<mixed-citation>Bocco, M., G. Ovando, S. Sayago and E. Willington. 2007. Neural network model for land cover classification from satellite images. Agricultura Técnica 67(4):414-421. Doi: 10.4067/S0365-28072007000400009.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Bocco</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Ovando</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Sayago</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Willington</surname>
							<given-names>E.</given-names>
						</name>
					</person-group>
					<year>2007</year>
					<article-title>Neural network model for land cover classification from satellite images</article-title>
					<source>Agricultura Técnica</source>
					<volume>67</volume>
					<issue>4</issue>
					<fpage>414</fpage>
					<lpage>421</lpage>
					<pub-id pub-id-type="doi">10.4067/S0365-28072007000400009</pub-id>
				</element-citation>
			</ref>
			<ref id="B3">
				<mixed-citation>Borràs, J., J. Delegido, A. Pezzola, M. Pereira, G. Morassi y G. Camps-Valls. 2017. Clasificación de usos del suelo a partir de imágenes Sentinel-2. Revista de Teledetección 48:55-66. Doi: 10.4995/raet.2017.7133.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Borràs</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Delegido</surname>
							<given-names>J.</given-names>
						</name>
						<name>
							<surname>Pezzola</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Pereira</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Morassi</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Camps-Valls</surname>
							<given-names>G.</given-names>
						</name>
					</person-group>
					<year>2017</year>
					<article-title>Clasificación de usos del suelo a partir de imágenes Sentinel-2</article-title>
					<source>Revista de Teledetección</source>
					<volume>48</volume>
					<fpage>55</fpage>
					<lpage>66</lpage>
					<pub-id pub-id-type="doi">10.4995/raet.2017.7133</pub-id>
				</element-citation>
			</ref>
			<ref id="B4">
				<mixed-citation>Chen, Y., H. Jiang, C. Li, X. Jia and P. Ghamisi. 2016. Deep feature extraction and classification of hyperspectral images based on Convolutional Neural Networks. IEEE Transactions on Geoscience and Remote Sensing 54(10):6232-6251. Doi: 10.1109/TGRS.2016.2584107.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Chen</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Jiang</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Li</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Jia</surname>
							<given-names>X.</given-names>
						</name>
						<name>
							<surname>Ghamisi</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<article-title>Deep feature extraction and classification of hyperspectral images based on Convolutional Neural Networks</article-title>
					<source>IEEE Transactions on Geoscience and Remote Sensing</source>
					<volume>54</volume>
					<issue>10</issue>
					<fpage>6232</fpage>
					<lpage>6251</lpage>
					<pub-id pub-id-type="doi">10.1109/TGRS.2016.2584107</pub-id>
				</element-citation>
			</ref>
			<ref id="B5">
				<mixed-citation>Congalton, R. G. and K. Green. 2009. Assessing the Accuracy of Remotely Sensed Data: Principles and Practices. CRC Press Taylor &amp; Francis Group. Boca Raton, FL, USA. 192 p.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Congalton</surname>
							<given-names>R. G.</given-names>
						</name>
						<name>
							<surname>Green</surname>
							<given-names>K.</given-names>
						</name>
					</person-group>
					<year>2009</year>
					<source>Assessing the Accuracy of Remotely Sensed Data: Principles and Practices</source>
					<publisher-name>CRC Press Taylor</publisher-name>
					<publisher-name>Francis Group</publisher-name>
					<publisher-loc>Boca Raton, FL, USA</publisher-loc>
					<fpage>192</fpage>
					<lpage>192</lpage>
				</element-citation>
			</ref>
			<ref id="B6">
				<mixed-citation>Drusch, M., U. Del Bello, S. Carlier, O. Colin, … and P. Bargellini. 2012. Sentinel-2: ESA’s Optical High-Resolution Mission for GMES Operational Services. Remote Sensing of Environment 120:25-36. Doi: 10.1016/j.rse.2011.11.026.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Drusch</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Bello</surname>
							<given-names>U. Del</given-names>
						</name>
						<name>
							<surname>Carlier</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Colin</surname>
							<given-names>O.</given-names>
						</name>
						<name>
							<surname>Bargellini</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2012</year>
					<article-title>Sentinel-2: ESA’s Optical High-Resolution Mission for GMES Operational Services</article-title>
					<source>Remote Sensing of Environment</source>
					<volume>120</volume>
					<fpage>25</fpage>
					<lpage>36</lpage>
					<pub-id pub-id-type="doi">10.1016/j.rse.2011.11.026</pub-id>
				</element-citation>
			</ref>
			<ref id="B7">
				<mixed-citation>Gascon, F., C. Bouzinac, O. Thépaut, M. Jung, … and V. Fernandez. 2017. Copernicus Sentinel-2A calibration and products validation status. Remote Sensing 9(6):584-664. Doi: 10.3390/rs9060584.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Gascon</surname>
							<given-names>F.</given-names>
						</name>
						<name>
							<surname>Bouzinac</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Thépaut</surname>
							<given-names>O.</given-names>
						</name>
						<name>
							<surname>Jung</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Fernandez</surname>
							<given-names>V.</given-names>
						</name>
					</person-group>
					<year>2017</year>
					<article-title>Copernicus Sentinel-2A calibration and products validation status</article-title>
					<source>Remote Sensing</source>
					<volume>9</volume>
					<issue>6</issue>
					<fpage>584</fpage>
					<lpage>664</lpage>
					<pub-id pub-id-type="doi">10.3390/rs9060584</pub-id>
				</element-citation>
			</ref>
			<ref id="B8">
				<mixed-citation>Gnip, P., L. Vokorokos and P. Drotár. 2021. Selective oversampling approach for strongly imbalanced data. PeerJ Computer Science 7:e604. Doi: 10.7717/peerj-cs.604.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Gnip</surname>
							<given-names>P.</given-names>
						</name>
						<name>
							<surname>Vokorokos</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Drotár</surname>
							<given-names>P.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>Selective oversampling approach for strongly imbalanced data</article-title>
					<source>PeerJ Computer Science</source>
					<volume>7</volume>
					<elocation-id>e604</elocation-id>
					<pub-id pub-id-type="doi">10.7717/peerj-cs.604</pub-id>
				</element-citation>
			</ref>
			<ref id="B9">
				<mixed-citation>Hermosilla, T., M. A. Wulder, J. C. White and N. C. Coops. 2022. Land cover classification in an era of big and open data: Optimizing localized implementation and training data selection to improve mapping outcomes. Remote Sensing of Environment 268:1-17. Doi: 10.1016/j.rse.2021.112780.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Hermosilla</surname>
							<given-names>T.</given-names>
						</name>
						<name>
							<surname>Wulder</surname>
							<given-names>M. A.</given-names>
						</name>
						<name>
							<surname>White</surname>
							<given-names>J. C.</given-names>
						</name>
						<name>
							<surname>Coops</surname>
							<given-names>N. C.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Land cover classification in an era of big and open data: Optimizing localized implementation and training data selection to improve mapping outcomes</article-title>
					<source>Remote Sensing of Environment</source>
					<volume>268</volume>
					<fpage>1</fpage>
					<lpage>17</lpage>
					<pub-id pub-id-type="doi">10.1016/j.rse.2021.112780</pub-id>
				</element-citation>
			</ref>
			<ref id="B10">
				<mixed-citation>Hu, Y., Q. Zhang, Y. Zhang and H. Yan. 2018. A deep convolution neural network method for land cover mapping: A case study of Qinhuangdao, China. Remote Sensing 10(12):1-17. Doi: 10.3390/rs10122053.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Hu</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Zhang</surname>
							<given-names>Q.</given-names>
						</name>
						<name>
							<surname>Zhang</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Yan</surname>
							<given-names>H.</given-names>
						</name>
					</person-group>
					<year>2018</year>
					<article-title>A deep convolution neural network method for land cover mapping: A case study of Qinhuangdao, China</article-title>
					<source>Remote Sensing</source>
					<volume>10</volume>
					<issue>12</issue>
					<fpage>1</fpage>
					<lpage>17</lpage>
					<pub-id pub-id-type="doi">10.3390/rs10122053</pub-id>
				</element-citation>
			</ref>
			<ref id="B11">
				<mixed-citation>Instituto Nacional de Geografía y Estadística (Inegi). 2017. Guía para la interpretación de cartografía: uso del suelo y vegetación, Escala 1:250 000. Serie VI. Instituto Nacional de Geografía y Estadística, Inegi. Aguascalientes, AGS, México. 200 p. <comment>
						<ext-link ext-link-type="uri" xlink:href="https://books.google.com.mx/books?id=LCHZDwAAQBAJ&amp;printsec=frontcover&amp;hl=es&amp;source=gbs_ge_summary_r&amp;cad=0#v=onepage&amp;q&amp;f=false">https://books.google.com.mx/books?id=LCHZDwAAQBAJ&amp;printsec=frontcover&amp;hl=es&amp;source=gbs_ge_summary_r&amp;cad=0#v=onepage&amp;q&amp;f=false</ext-link>
					</comment>. (20 de abril de 2022).</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<collab>Instituto Nacional de Geografía y Estadística (Inegi)</collab>
					</person-group>
					<year>2017</year>
					<source>Guía para la interpretación de cartografía: uso del suelo y vegetación, Escala 1:250 000</source>
					<series>VI</series>
					<publisher-name>Instituto Nacional de Geografía y Estadística, Inegi</publisher-name>
					<publisher-loc>Aguascalientes, AGS, México</publisher-loc>
					<fpage>200</fpage>
					<lpage>200</lpage>
					<comment>
						<ext-link ext-link-type="uri" xlink:href="https://books.google.com.mx/books?id=LCHZDwAAQBAJ&amp;printsec=frontcover&amp;hl=es&amp;source=gbs_ge_summary_r&amp;cad=0#v=onepage&amp;q&amp;f=false">https://books.google.com.mx/books?id=LCHZDwAAQBAJ&amp;printsec=frontcover&amp;hl=es&amp;source=gbs_ge_summary_r&amp;cad=0#v=onepage&amp;q&amp;f=false</ext-link>
					</comment>
					<date-in-citation content-type="access-date" iso-8601-date="2022-04-20">20 de abril de 2022</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B12">
				<mixed-citation>Kingma, D. P. and J. Ba. 2014. Adam: A Method for Stochastic Optimization. Cornell University. Ithaca, NY, USA. 15 p.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Kingma</surname>
							<given-names>D. P.</given-names>
						</name>
						<name>
							<surname>Ba</surname>
							<given-names>J.</given-names>
						</name>
					</person-group>
					<year>2014</year>
					<source>Adam: A Method for Stochastic Optimization</source>
					<publisher-name>Cornell University</publisher-name>
					<publisher-loc>Ithaca, NY, USA</publisher-loc>
				</element-citation>
			</ref>
			<ref id="B13">
				<mixed-citation>Krizhevsky, A., I. Sutskever and G. E. Hinton. 2017. ImageNet classification with deep Convolutional Neural Networks. Communications of the ACM 60(6):84-90. Doi: 10.1145/3065386.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Krizhevsky</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Sutskever</surname>
							<given-names>I.</given-names>
						</name>
						<name>
							<surname>Hinton</surname>
							<given-names>G. E.</given-names>
						</name>
					</person-group>
					<year>2017</year>
					<article-title>ImageNet classification with deep Convolutional Neural Networks</article-title>
					<source>Communications of the ACM</source>
					<volume>60</volume>
					<issue>6</issue>
					<fpage>84</fpage>
					<lpage>90</lpage>
					<pub-id pub-id-type="doi">10.1145/3065386</pub-id>
				</element-citation>
			</ref>
			<ref id="B14">
				<mixed-citation>Lawley, V., M. Lewis, K. Clarke and B. Ostendorf. 2015. Site-based and remote sensing methods for monitoring indicators of vegetation condition: An Australian review. Ecological Indicators 60:1273-1283. Doi: 10.1016/j.ecolind.2015.03.021.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Lawley</surname>
							<given-names>V.</given-names>
						</name>
						<name>
							<surname>Lewis</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Clarke</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Ostendorf</surname>
							<given-names>B.</given-names>
						</name>
					</person-group>
					<year>2015</year>
					<article-title>Site-based and remote sensing methods for monitoring indicators of vegetation condition: An Australian review</article-title>
					<source>Ecological Indicators</source>
					<volume>60</volume>
					<fpage>1273</fpage>
					<lpage>1283</lpage>
					<pub-id pub-id-type="doi">10.1016/j.ecolind.2015.03.021</pub-id>
				</element-citation>
			</ref>
			<ref id="B15">
				<mixed-citation>Liu, R., X. Yang, C. Xu, L. Wei and X. Zeng. 2022. Comparative study of Convolutional Neural Network and conventional machine learning methods for landslide susceptibility mapping.Remote Sensing 14(2):321-351. Doi: 10.3390/rs14020321.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Liu</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Yang</surname>
							<given-names>X.</given-names>
						</name>
						<name>
							<surname>Xu</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Wei</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Zeng</surname>
							<given-names>X.</given-names>
						</name>
					</person-group>
					<year>2022</year>
					<article-title>Comparative study of Convolutional Neural Network and conventional machine learning methods for landslide susceptibility mapping</article-title>
					<source>Remote Sensing</source>
					<volume>14</volume>
					<issue>2</issue>
					<fpage>321</fpage>
					<lpage>351</lpage>
					<pub-id pub-id-type="doi">10.3390/rs14020321</pub-id>
				</element-citation>
			</ref>
			<ref id="B16">
				<mixed-citation>Macedo-Cruz, A., G. Pajares-Martinsanz y M. Santos-Peñas. 2010. Clasificación no supervisada con imágenes a color de cobertura terrestre. Agrociencia 44(6):711-722. <comment>
						<ext-link ext-link-type="uri" xlink:href="https://agrociencia-colpos.org/index.php/agrociencia/article/view/833/833">https://agrociencia-colpos.org/index.php/agrociencia/article/view/833/833</ext-link>
					</comment>. (25 de enero de 2022).</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Macedo-Cruz</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Pajares-Martinsanz</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Santos-Peñas</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<year>2010</year>
					<article-title>Clasificación no supervisada con imágenes a color de cobertura terrestre</article-title>
					<source>Agrociencia</source>
					<volume>44</volume>
					<issue>6</issue>
					<fpage>711</fpage>
					<lpage>722</lpage>
					<comment>
						<ext-link ext-link-type="uri" xlink:href="https://agrociencia-colpos.org/index.php/agrociencia/article/view/833/833">https://agrociencia-colpos.org/index.php/agrociencia/article/view/833/833</ext-link>
					</comment>
					<date-in-citation content-type="access-date" iso-8601-date="2022-01-25">25 de enero de 2022</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B17">
				<mixed-citation>Mas, J. F., A. Velázquez y S. Couturier. 2009. La evaluación de los cambios de cobertura/uso del suelo en la República Mexicana. Investigación Ambiental 1(1):23-39. <comment>
						<ext-link ext-link-type="uri" xlink:href="https://www.ccmss.org.mx/wp-content/uploads/2014/10/La_evaluacion_de_los_cambios_de_cobertura-uso_de_suelo_en_la_Republica_Mexicana.pdf">https://www.ccmss.org.mx/wp-content/uploads/2014/10/La_evaluacion_de_los_cambios_de_cobertura-uso_de_suelo_en_la_Republica_Mexicana.pdf</ext-link>
					</comment>. (12 de mayo de 2022).</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Mas</surname>
							<given-names>J. F.</given-names>
						</name>
						<name>
							<surname>Velázquez</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Couturier</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<year>2009</year>
					<article-title>La evaluación de los cambios de cobertura/uso del suelo en la República Mexicana</article-title>
					<source>Investigación Ambiental</source>
					<volume>1</volume>
					<issue>1</issue>
					<fpage>23</fpage>
					<lpage>39</lpage>
					<comment>
						<ext-link ext-link-type="uri" xlink:href="https://www.ccmss.org.mx/wp-content/uploads/2014/10/La_evaluacion_de_los_cambios_de_cobertura-uso_de_suelo_en_la_Republica_Mexicana.pdf">https://www.ccmss.org.mx/wp-content/uploads/2014/10/La_evaluacion_de_los_cambios_de_cobertura-uso_de_suelo_en_la_Republica_Mexicana.pdf</ext-link>
					</comment>
					<date-in-citation content-type="access-date" iso-8601-date="2022-05-12">12 de mayo de 2022</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B18">
				<mixed-citation>Najafabadi, M. M., F. Villanustre, T. M. Khoshgoftaar, N. Seliya, R. Wald and E. Muharemagic. 2015. Deep learning applications and challenges in big data analytics. Journal of Big Data 2(1):1-21. Doi: 10.1186/s40537-014-0007-7.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Najafabadi</surname>
							<given-names>M. M.</given-names>
						</name>
						<name>
							<surname>Villanustre</surname>
							<given-names>F.</given-names>
						</name>
						<name>
							<surname>Khoshgoftaar</surname>
							<given-names>T. M.</given-names>
						</name>
						<name>
							<surname>Seliya</surname>
							<given-names>N.</given-names>
						</name>
						<name>
							<surname>Wald</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Muharemagic</surname>
							<given-names>E.</given-names>
						</name>
					</person-group>
					<year>2015</year>
					<article-title>Deep learning applications and challenges in big data analytics</article-title>
					<source>Journal of Big Data</source>
					<volume>2</volume>
					<issue>1</issue>
					<fpage>1</fpage>
					<lpage>21</lpage>
					<pub-id pub-id-type="doi">10.1186/s40537-014-0007-7</pub-id>
				</element-citation>
			</ref>
			<ref id="B19">
				<mixed-citation>Olofsson, P., G. M. Foody, M. Herold, S. V. Stehman, C. E. Woodcock and M. A. Wulder. 2014. Good practices for estimating area and assessing accuracy of land change. Remote Sensing of Environment 148(25):42-57. Doi: 10.1016/j.rse.2014.02.015.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Olofsson</surname>
							<given-names>P.</given-names>
						</name>
						<name>
							<surname>Foody</surname>
							<given-names>G. M.</given-names>
						</name>
						<name>
							<surname>Herold</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Stehman</surname>
							<given-names>S. V.</given-names>
						</name>
						<name>
							<surname>Woodcock</surname>
							<given-names>C. E.</given-names>
						</name>
						<name>
							<surname>Wulder</surname>
							<given-names>M. A.</given-names>
						</name>
					</person-group>
					<year>2014</year>
					<article-title>Good practices for estimating area and assessing accuracy of land change</article-title>
					<source>Remote Sensing of Environment</source>
					<volume>148</volume>
					<issue>25</issue>
					<fpage>42</fpage>
					<lpage>57</lpage>
					<pub-id pub-id-type="doi">10.1016/j.rse.2014.02.015</pub-id>
				</element-citation>
			</ref>
			<ref id="B20">
				<mixed-citation>Patel, S. K., P. Verma and G. S. Singh. 2019. Agricultural growth and land use land cover change in peri-urban India. Environmental Monitoring and Assessment 191(9):600. Doi: 10.1007/s10661-019-7736-1.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Patel</surname>
							<given-names>S. K.</given-names>
						</name>
						<name>
							<surname>Verma</surname>
							<given-names>P.</given-names>
						</name>
						<name>
							<surname>Singh</surname>
							<given-names>G. S.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Agricultural growth and land use land cover change in peri-urban India</article-title>
					<source>Environmental Monitoring and Assessment</source>
					<volume>191</volume>
					<issue>9</issue>
					<fpage>600</fpage>
					<lpage>600</lpage>
					<pub-id pub-id-type="doi">10.1007/s10661-019-7736-1</pub-id>
				</element-citation>
			</ref>
			<ref id="B21">
				<mixed-citation>Paz-Pellat, F., V. M. Romero-Benítez, J. A. Argumedo-Espinoza, M. Bolaños-González, B. de Jong, J. C. de la Cruz-Cabrera y A. Velázquez-Rodríguez. 2019. Dinámica del uso del suelo y vegetación. In: Paz-Pellat, F. , J. M. Hernández-Ayón, R. Sosa-Ávalos y A. S. Velázquez-Rodríguez. (Edits.). Estado del Ciclo del Carbono en México, Agenda Azul y Verde, Primer Reporte. Programa Mexicano del Carbono. Texcoco, Edo. Méx., México. pp. 529-572.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Paz-Pellat</surname>
							<given-names>F.</given-names>
						</name>
						<name>
							<surname>Romero-Benítez</surname>
							<given-names>V. M.</given-names>
						</name>
						<name>
							<surname>Argumedo-Espinoza</surname>
							<given-names>J. A.</given-names>
						</name>
						<name>
							<surname>Bolaños-González</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Jong</surname>
							<given-names>B. de</given-names>
						</name>
						<name>
							<surname>Cruz-Cabrera</surname>
							<given-names>J. C. de la</given-names>
						</name>
						<name>
							<surname>Velázquez-Rodríguez</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<chapter-title>Dinámica del uso del suelo y vegetación</chapter-title>
					<person-group person-group-type="author">
						<name>
							<surname>Paz-Pellat</surname>
							<given-names>F.</given-names>
						</name>
						<name>
							<surname>Hernández-Ayón</surname>
							<given-names>J. M.</given-names>
						</name>
						<name>
							<surname>Sosa-Ávalos</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Velázquez-Rodríguez</surname>
							<given-names>A. S.</given-names>
						</name>
					</person-group>
					<source>Estado del Ciclo del Carbono en México, Agenda Azul y Verde</source>
					<publisher-name>Programa Mexicano del Carbono</publisher-name>
					<publisher-loc>Texcoco, Edo. Méx., México</publisher-loc>
					<fpage>529</fpage>
					<lpage>572</lpage>
				</element-citation>
			</ref>
			<ref id="B22">
				<mixed-citation>Pellikka, P. K. E., B. J. F. Clark, A. G. Gosa, N. Himberg, … and M. Siljander. 2013. Agricultural expansion and its consequences in the Taita Hills, Kenya. In: Paron, P., D. Ochieng O. and C. Thine O. (eds.). Kenya: a Natural Outlook: Geo-Environmental Resources and Hazards. Developments in Earth Surface Processes 16. Elsevier. Amsterdam, AMS, The Netherlands. pp. 65-179.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Pellikka</surname>
							<given-names>P. K. E.</given-names>
						</name>
						<name>
							<surname>Clark</surname>
							<given-names>B. J. F.</given-names>
						</name>
						<name>
							<surname>Gosa</surname>
							<given-names>A. G.</given-names>
						</name>
						<name>
							<surname>Himberg</surname>
							<given-names>N.</given-names>
						</name>
						<name>
							<surname>Siljander</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<year>2013</year>
					<chapter-title>Agricultural expansion and its consequences in the Taita Hills, Kenya</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Paron</surname>
							<given-names>P.</given-names>
						</name>
						<name>
							<surname>Ochieng O.</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Thine O.</surname>
							<given-names>C.</given-names>
						</name>
					</person-group>
					<source>Kenya: a Natural Outlook: Geo-Environmental Resources and Hazards</source>
					<publisher-name>Elsevier</publisher-name>
					<publisher-loc>Amsterdam, AMS, The Netherlands</publisher-loc>
					<fpage>65</fpage>
					<lpage>179</lpage>
				</element-citation>
			</ref>
			<ref id="B23">
				<mixed-citation>Pérez V., I. C. y L. Arco G. 2016. Una revisión sobre aprendizaje no supervisado de métricas de distancia. Revista Cubana de Ciencias Informáticas 10(4):43-67. <comment>
						<ext-link ext-link-type="uri" xlink:href="https://www.redalyc.org/articulo.oa?id=378349316004">https://www.redalyc.org/articulo.oa?id=378349316004</ext-link>
					</comment>. (14 de diciembre de 2021).</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Pérez V.</surname>
							<given-names>I. C.</given-names>
						</name>
						<name>
							<surname>Arco G</surname>
							<given-names>L.</given-names>
						</name>
					</person-group>
					<year>2016</year>
					<article-title>Una revisión sobre aprendizaje no supervisado de métricas de distancia</article-title>
					<source>Revista Cubana de Ciencias Informáticas</source>
					<volume>10</volume>
					<issue>4</issue>
					<fpage>43</fpage>
					<lpage>67</lpage>
					<comment>
						<ext-link ext-link-type="uri" xlink:href="https://www.redalyc.org/articulo.oa?id=378349316004">https://www.redalyc.org/articulo.oa?id=378349316004</ext-link>
					</comment>
					<date-in-citation content-type="access-date" iso-8601-date="2021-12-14">14 de diciembre de 2021</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B24">
				<mixed-citation>Ponce G., J. C., A. Torres S., F. S. Quezada A., A. Silva S., … y O. Pedreño. 2014. Inteligencia Artificial. Iniciativa Latinoamericana de Libros de Texto Abiertos (LATIn). Montevideo, MO, Uruguay. 255 p.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Ponce G.</surname>
							<given-names>J. C.</given-names>
						</name>
						<name>
							<surname>Torres S.</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Quezada A.</surname>
							<given-names>F. S.</given-names>
						</name>
						<name>
							<surname>Silva S.</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Pedreño</surname>
							<given-names>O.</given-names>
						</name>
					</person-group>
					<year>2014</year>
					<source>Inteligencia Artificial</source>
					<publisher-name>Iniciativa Latinoamericana de Libros de Texto Abiertos (LATIn)</publisher-name>
					<publisher-loc>Montevideo, MO, Uruguay</publisher-loc>
					<fpage>255</fpage>
					<lpage>255</lpage>
				</element-citation>
			</ref>
			<ref id="B25">
				<mixed-citation>Rousset, G., M. Despinoy, K. Schindler and M. Mangeas. 2021. Assessment of deep learning techniques for land use land cover classification in Southern New Caledonia. Remote Sensing 13(12):1-22. Doi: 10.3390/rs13122257.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Rousset</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Despinoy</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Schindler</surname>
							<given-names>K.</given-names>
						</name>
						<name>
							<surname>Mangeas</surname>
							<given-names>M.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>Assessment of deep learning techniques for land use land cover classification in Southern New Caledonia</article-title>
					<source>Remote Sensing</source>
					<volume>13</volume>
					<issue>12</issue>
					<fpage>1</fpage>
					<lpage>22</lpage>
					<pub-id pub-id-type="doi">10.3390/rs13122257</pub-id>
				</element-citation>
			</ref>
			<ref id="B26">
				<mixed-citation>Sarker, I. H. 2021. Machine Learning: Algorithms, Real-World applications and research directions. SN Computer Science 2(3):160. Doi: 10.1007/s42979-021-00592-x.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Sarker</surname>
							<given-names>I. H.</given-names>
						</name>
					</person-group>
					<year>2021</year>
					<article-title>Machine Learning: Algorithms, Real-World applications and research directions</article-title>
					<source>SN Computer Science</source>
					<volume>2</volume>
					<issue>3</issue>
					<pub-id pub-id-type="doi">10.1007/s42979-021-00592-x</pub-id>
				</element-citation>
			</ref>
			<ref id="B27">
				<mixed-citation>Secretaría de Medio Ambiente y Recursos Naturales (Semarnat). 2017. Acuerdo por el que se dan a conocer los resultados del estudio técnico de las aguas nacionales superficiales en las cuencas hidrológicas Río Papagayo 1, Río Petaquillas, Río Omitlán, Río Papagayo 2, Río Papagayo 3, Río Papagayo 4, Río Nexpa 1, Río Nexpa 2, Río Quetzala, Río Infiernillo, Río Santa Catarina, Río Ometepec 1, Río Ometepec 2, Río Ometepec 3, Río Cortijos 1, Río Cortijos 2, Río Cortijos 3, Río Cortijos 4, Río Ometepec 4, Río La Arena 1, Río La Arena 2, Río La Arena 3, Río Atoyac-Salado, Río Atoyac-Tlapacoyan, Río Sordo-Yolotepec, Río Atoyac-Paso de la Reina y Río Verde, pertenecientes a la Región Hidrológica número 20 Costa Chica de Guerrero. Diario Oficial de la Federación, Cuarta Sección. <comment>
						<ext-link ext-link-type="uri" xlink:href="https://dof.gob.mx/nota_detalle.php?codigo=5496053&amp;fecha=04/09/2017#gsc.tab=0">https://dof.gob.mx/nota_detalle.php?codigo=5496053&amp;fecha=04/09/2017#gsc.tab=0</ext-link>
					</comment>. (8 de noviembre de 2021).</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<collab>Secretaría de Medio Ambiente y Recursos Naturales (Semarnat)</collab>
					</person-group>
					<year>2017</year>
					<article-title>Acuerdo por el que se dan a conocer los resultados del estudio técnico de las aguas nacionales superficiales en las cuencas hidrológicas Río Papagayo 1, Río Petaquillas, Río Omitlán, Río Papagayo 2, Río Papagayo 3, Río Papagayo 4, Río Nexpa 1, Río Nexpa 2, Río Quetzala, Río Infiernillo, Río Santa Catarina, Río Ometepec 1, Río Ometepec 2, Río Ometepec 3, Río Cortijos 1, Río Cortijos 2, Río Cortijos 3, Río Cortijos 4, Río Ometepec 4, Río La Arena 1, Río La Arena 2, Río La Arena 3, Río Atoyac-Salado, Río Atoyac-Tlapacoyan, Río Sordo-Yolotepec, Río Atoyac-Paso de la Reina y Río Verde, pertenecientes a la Región Hidrológica número 20 Costa Chica de Guerrero</article-title>
					<source>Diario Oficial de la Federación</source>
					<comment>
						<ext-link ext-link-type="uri" xlink:href="https://dof.gob.mx/nota_detalle.php?codigo=5496053&amp;fecha=04/09/2017#gsc.tab=0">https://dof.gob.mx/nota_detalle.php?codigo=5496053&amp;fecha=04/09/2017#gsc.tab=0</ext-link>
					</comment>
					<date-in-citation content-type="access-date" iso-8601-date="2021-11-08">8 de noviembre de 2021</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B28">
				<mixed-citation>Shalev-Shwartz, S. and S. Ben-David. 2014. Understanding machine learning: From theory to algorithms. Cambridge University Press. New York, NY, USA. 449 p.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Shalev-Shwartz</surname>
							<given-names>S.</given-names>
						</name>
						<name>
							<surname>Ben-David</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<year>2014</year>
					<source>Understanding machine learning: From theory to algorithms</source>
					<publisher-name>Cambridge University Press</publisher-name>
					<publisher-loc>New York, NY, USA</publisher-loc>
					<fpage>449</fpage>
					<lpage>449</lpage>
				</element-citation>
			</ref>
			<ref id="B29">
				<mixed-citation>Srivastava, N., G. Hinton, A. Krizhevsky, H. Sutskever and R. Salakhutdinov. 2014. Dropout: A simple way to prevent neural networks from overfitting. Journal of Machine Learning Research 15:1929-1958. <comment>
						<ext-link ext-link-type="uri" xlink:href="https://www.jmlr.org/papers/volume15/srivastava14a/srivastava14a.pdf?utm_content=buffer79b43&amp;utm_medium=social&amp;utm_source=twitter.com&amp;utm_campaign=buffer">https://www.jmlr.org/papers/volume15/srivastava14a/srivastava14a.pdf?utm_content=buffer79b43&amp;utm_medium=social&amp;utm_source=twitter.com&amp;utm_campaign=buffer</ext-link>
					</comment>. (28 de enero de 2022).</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Srivastava</surname>
							<given-names>N.</given-names>
						</name>
						<name>
							<surname>Hinton</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Krizhevsky</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Sutskever</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Salakhutdinov</surname>
							<given-names>R.</given-names>
						</name>
					</person-group>
					<year>2014</year>
					<article-title>Dropout: A simple way to prevent neural networks from overfitting</article-title>
					<source>Journal of Machine Learning Research</source>
					<volume>15</volume>
					<fpage>1929</fpage>
					<lpage>1958</lpage>
					<comment>
						<ext-link ext-link-type="uri" xlink:href="https://www.jmlr.org/papers/volume15/srivastava14a/srivastava14a.pdf?utm_content=buffer79b43&amp;utm_medium=social&amp;utm_source=twitter.com&amp;utm_campaign=buffer">https://www.jmlr.org/papers/volume15/srivastava14a/srivastava14a.pdf?utm_content=buffer79b43&amp;utm_medium=social&amp;utm_source=twitter.com&amp;utm_campaign=buffer</ext-link>
					</comment>
					<date-in-citation content-type="access-date" iso-8601-date="2022-01-28">28 de enero de 2022</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B30">
				<mixed-citation>Suárez L., A. S., A. F. Jiménez L., M. Castro-Franco y A. Cruz-Roa. 2017. Clasificación y mapeo automático de coberturas del suelo en imágenes satelitales utilizando Redes Neuronales Convolucionales. ORINOQIUA 21(1):64-75. Doi: 10.22579/20112629.432.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Suárez L.</surname>
							<given-names>A. S.</given-names>
						</name>
						<name>
							<surname>Jiménez L.</surname>
							<given-names>A. F.</given-names>
						</name>
						<name>
							<surname>Castro-Franco</surname>
							<given-names>M.</given-names>
						</name>
						<name>
							<surname>Cruz-Roa</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<year>2017</year>
					<article-title>Clasificación y mapeo automático de coberturas del suelo en imágenes satelitales utilizando Redes Neuronales Convolucionales</article-title>
					<source>ORINOQIUA</source>
					<volume>21</volume>
					<issue>1</issue>
					<fpage>64</fpage>
					<lpage>75</lpage>
					<pub-id pub-id-type="doi">10.22579/20112629.432</pub-id>
				</element-citation>
			</ref>
			<ref id="B31">
				<mixed-citation>Theodoridis, S. 2015. Introduction. In: Theodoridis, S. Machine Learning A bayesian and optimization perspective. Elsevier. Amsterdam, AMS, Netherlands. pp. 1-8.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Theodoridis</surname>
							<given-names>S.</given-names>
						</name>
					</person-group>
					<year>2015</year>
					<chapter-title>Introduction</chapter-title>
					<person-group person-group-type="author">
						<name>
							<surname>Theodoridis</surname>
							<given-names>S</given-names>
						</name>
					</person-group>
					<source>Machine Learning A bayesian and optimization perspective</source>
					<publisher-name>Elsevier</publisher-name>
					<publisher-loc>Amsterdam, AMS, Netherlands</publisher-loc>
					<fpage>1</fpage>
					<lpage>8</lpage>
				</element-citation>
			</ref>
			<ref id="B32">
				<mixed-citation>Vinet, L. and A. Zhedanov. 2011. A &quot;missing&quot; family of classical orthogonal polynomials. Journal of Physics A Mathematical and Theoretical 44(8):1-16. Doi: 10.1088/1751-8113/44/8/085201.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Vinet</surname>
							<given-names>L.</given-names>
						</name>
						<name>
							<surname>Zhedanov</surname>
							<given-names>A.</given-names>
						</name>
					</person-group>
					<year>2011</year>
					<article-title>A &quot;missing&quot; family of classical orthogonal polynomials</article-title>
					<source>Journal of Physics A Mathematical and Theoretical</source>
					<volume>44</volume>
					<issue>8</issue>
					<fpage>1</fpage>
					<lpage>16</lpage>
					<pub-id pub-id-type="doi">10.1088/1751-8113/44/8/085201</pub-id>
				</element-citation>
			</ref>
			<ref id="B33">
				<mixed-citation>Xie, G., A. Shangguan, R. Fei, W. Ji, W. Ma and X. Hei. 2020. Motion trajectory prediction based on a CNN-LSTM sequential model. Science China Information Sciences 63:1-21. Doi: 10.1007/s11432-019-2761-y.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Xie</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Shangguan</surname>
							<given-names>A.</given-names>
						</name>
						<name>
							<surname>Fei</surname>
							<given-names>R.</given-names>
						</name>
						<name>
							<surname>Ji</surname>
							<given-names>W.</given-names>
						</name>
						<name>
							<surname>Ma</surname>
							<given-names>W.</given-names>
						</name>
						<name>
							<surname>Hei</surname>
							<given-names>X.</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<article-title>Motion trajectory prediction based on a CNN-LSTM sequential model</article-title>
					<source>Science China Information Sciences</source>
					<volume>63</volume>
					<fpage>1</fpage>
					<lpage>21</lpage>
					<pub-id pub-id-type="doi">10.1007/s11432-019-2761-y</pub-id>
				</element-citation>
			</ref>
			<ref id="B34">
				<mixed-citation>Xie, Z., Y. Chen, D. Lu, G. Liand E. Chen. 2019. Classification of land cover, forest, and tree species classes with ZiYuan-3 Multispectral and Stereo Data. Remote Sensing 11(2):164-190. Doi: 10.3390/rs11020164.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Xie</surname>
							<given-names>Z.</given-names>
						</name>
						<name>
							<surname>Chen</surname>
							<given-names>Y.</given-names>
						</name>
						<name>
							<surname>Lu</surname>
							<given-names>D.</given-names>
						</name>
						<name>
							<surname>Li</surname>
							<given-names>G.</given-names>
						</name>
						<name>
							<surname>Chen</surname>
							<given-names>E.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Classification of land cover, forest, and tree species classes with ZiYuan-3 Multispectral and Stereo Data</article-title>
					<source>Remote Sensing</source>
					<volume>11</volume>
					<issue>2</issue>
					<fpage>164</fpage>
					<lpage>190</lpage>
					<pub-id pub-id-type="doi">10.3390/rs11020164</pub-id>
				</element-citation>
			</ref>
			<ref id="B35">
				<mixed-citation>Yeturu, K. 2020. Machine learning algorithms, applications, and practices in data science. In: Srinivasa R., A. S. R. and C. R. Rao (eds.). Handbook of Statistics 43 Principles and Methodsfor Data Science. Elsevier. Amsterdam, AMS, Netherlands. pp. 81-206.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>Yeturu</surname>
							<given-names>K</given-names>
						</name>
					</person-group>
					<year>2020</year>
					<chapter-title>Machine learning algorithms, applications, and practices in data science</chapter-title>
					<person-group person-group-type="editor">
						<name>
							<surname>Srinivasa R.</surname>
							<given-names>A. S. R.</given-names>
						</name>
						<name>
							<surname>Rao</surname>
							<given-names>C. R.</given-names>
						</name>
					</person-group>
					<source>Handbook of Statistics 43 Principles and Methodsfor Data Science</source>
					<publisher-name>Elsevier</publisher-name>
					<publisher-loc>Amsterdam, AMS, Netherlands</publisher-loc>
					<fpage>81</fpage>
					<lpage>206</lpage>
				</element-citation>
			</ref>
			<ref id="B36">
				<mixed-citation>Zhang, C., I. Sargent, X. Pan, H. Li, … and P. M. Atkinson. 2019. Joint deep learning for land cover and land use classification. Remote Sensing of Environment 221:173-187. Doi: 10.1016/j.rse.2018.11.014.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>Zhang</surname>
							<given-names>C.</given-names>
						</name>
						<name>
							<surname>Sargent</surname>
							<given-names>I.</given-names>
						</name>
						<name>
							<surname>Pan</surname>
							<given-names>X.</given-names>
						</name>
						<name>
							<surname>Li</surname>
							<given-names>H.</given-names>
						</name>
						<name>
							<surname>Atkinson</surname>
							<given-names>P. M.</given-names>
						</name>
					</person-group>
					<year>2019</year>
					<article-title>Joint deep learning for land cover and land use classification</article-title>
					<source>Remote Sensing of Environment</source>
					<volume>221</volume>
					<fpage>173</fpage>
					<lpage>187</lpage>
					<pub-id pub-id-type="doi">10.1016/j.rse.2018.11.014</pub-id>
				</element-citation>
			</ref>
		</ref-list>
	</back>
	<sub-article article-type="translation" id="s1" xml:lang="en">
		<front-stub>
			<article-categories>
				<subj-group subj-group-type="heading">
					<subject>Scientific article</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>Classification of land use and vegetation with convolutional neural networks</article-title>
			</title-group>
			<author-notes>
				<fn fn-type="conflict" id="fn3">
					<label>Conflict of interests</label>
					<p> The authors declare that they have no competing interests.</p>
				</fn>
				<fn fn-type="conflict" id="fn4">
					<label>Contribution by author</label>
					<p> Rodolfo Montiel González: field work, code programming and writing of the manuscript; Martín Alejandro Bolaños González: conceptualization and elaboration of the manuscript; Antonia Macedo Cruz: code review, and revision and correction of the manuscript; Agustín Rodríguez González: general revision and correction of the manuscript; Adolfo López Pérez: general revision and correction of the manuscript.</p>
				</fn>
			</author-notes>
			<abstract>
				<title>Abstract</title>
				<p>The classification of land use and vegetation is a complex exercise difficult to perform with traditional methods, thus deep learning models constitute a viable alternative because they are highly capable of learning this complex semantics, a trait which allows their application in the automatic identification of land use and vegetation, based on spatiotemporal patterns derived from their appearance. The objective of this study was to propose and evaluate a deep learning convolutional neural network model for the classification of 22 different land covers and land use classes located in the <italic>Atoyac-Salado</italic> basin. The proposed model was trained using digital data captured in 2021 by the Sentinel-2 satellite; a different combination of hyperparameters was applied in which the accuracy of the model depends on the optimizer, the activation function, the filter size, the learning rate and the batch size. The results provided an accuracy of 84.57 % for the data set. A regularization method called Dropout was used to reduce overadjustment, with great effectiveness. It was proven with sufficient accuracy that deep learning with convolutional neural networks identifies patterns in the reflectance data captured by Sentinel-2 satellite images for land use and vegetation classification in intrinsically difficult areas of the <italic>Atoyac-Salado</italic> basin.</p>
			</abstract>
			<kwd-group xml:lang="en">
				<title>Key Words</title>
				<kwd>Machine learning</kwd>
				<kwd>automatic classification</kwd>
				<kwd><italic>Atoyac-Salado</italic> basin</kwd>
				<kwd>Sentinel-2 images</kwd>
				<kwd>artificial intelligence</kwd>
				<kwd>remote sensing</kwd>
			</kwd-group>
		</front-stub>
		<body>
			<sec sec-type="intro">
				<title>Introduction</title>
				<p>Geographic information on Land Use and Vegetation (LUV) is an important input to support spatiotemporal studies of the behavior of plant communities present in the country. Thus, it contributes to the knowledge of the state of land cover (<xref ref-type="bibr" rid="B11">Inegi, 2017</xref>), which is essential for researchers and decision makers. The USV maps serve as a basis for the deduction of scenarios on the loss of natural capital or biodiversity, the generation of models of potential effects of global change and for the formulation of land use planning strategies (<xref ref-type="bibr" rid="B17">Mas <italic>et al</italic>., 2009</xref>).</p>
				<p>In Mexico, according to the LUV maps of the National Institute of Statistics and Geography (<italic>Instituto Nacional de Estadistica y Geografia</italic>, Inegi), the average rate of land use change in forests and jungles during the 1992-2016 period was -133 000 ha/yr<sup>-1</sup>, with an evident decrease in the areas of primary vegetation and an increase in land uses associated with agricultural activities (irrigated agriculture, rainfed agriculture, induced pasture and cultivated pasture, mainly). However, the change rate stabilized in the last few years of analysis, from 2010 to 2016 (<xref ref-type="bibr" rid="B21">Paz-Pellat <italic>et al</italic>., 2019</xref>).</p>
				<p>Land cover change involves the modification of certain surface characteristics, such as the type of vegetation; whereas, land use change consists of an alteration in the way humans use or manage a certain area of the Earth (<xref ref-type="bibr" rid="B20">Patel <italic>et al</italic>., 2019</xref>). Land cover change has numerous ecological, physical and socioeconomic consequences (<xref ref-type="bibr" rid="B22">Pellikka <italic>et al</italic>., 2013</xref>). Despite its importance, it is generally identified through expert classification, including visual interpretation of satellite images, which is costly, time-consuming and inaccurate. The implementation of computational methods allows for automatic, fast, accurate and cost-effective land cover classification with satellite imagery (<xref ref-type="bibr" rid="B30">Suárez <italic>et al</italic>., 2017</xref>). Thus, remote sensing of land cover and land use change has the advantage of offering automated and repeatable large-scale methods for monitoring indicators of vegetation condition (<xref ref-type="bibr" rid="B14">Lawley <italic>et al</italic>., 2015</xref>).</p>
				<p>In recent years, there has been an increased interest in and need for reliable and updated land use and land cover information (<xref ref-type="bibr" rid="B3">Borràs <italic>et al</italic>., 2017</xref>). Deriving land cover from remotely sensed data is essential for mapping, in addition to providing basic information to support scientific activities, since satellite images are freely and openly accessible and have greater storage and computational power (<xref ref-type="bibr" rid="B9">Hermosilla <italic>et al</italic>., 2022</xref>). However, detailed classification is a strenuous task due to the unlimited amount of remotely sensed data, the complexity of species patterns and spatial compositions, and the lack of suitable approaches (<xref ref-type="bibr" rid="B34">Xie <italic>et al</italic>., 2019</xref>).</p>
				<p>This problem calls for the use of new techniques such as artificial intelligence, which centers on the research of multiple concepts that revolve around the imitation of the functions that humans perform (<xref ref-type="bibr" rid="B24">Ponce <italic>et al</italic>., 2014</xref>). In this regard, machine learning stands out as a common tool for drawing information from large data sets (<xref ref-type="bibr" rid="B28">Shalev-Shwartz y Ben-David, 2014</xref>), suggesting the use of a machine or computer to learn in a manner analogous to the way in which the brain learns and predicts to automate operations in order to reduce human intervention in the automatic detection of meaningful pattern data (<xref ref-type="bibr" rid="B31">Theodoridis, 2015</xref>).</p>
				<p>Deep learning is one of the most versatile modern techniques for feature extraction and classification (<xref ref-type="bibr" rid="B1">Bhosle and Musande, 2019</xref>), furthermore, it intelligently analyzes data on a large scale (<xref ref-type="bibr" rid="B26">Sarker, 2021</xref>). Deep learning algorithms extract complex high-level abstractions (<xref ref-type="bibr" rid="B18">Najafabadi <italic>et al</italic>., 2015</xref>), two types of algorithms ―supervised and unsupervised― can be distinguished according to the data entry method utilized. Supervised learning is performed with known data (training data) of the class to be identified (<xref ref-type="bibr" rid="B30">Suárez <italic>et al</italic>., 2017</xref>), whereas in unsupervised learning, no knowledge of the classes to be determined is required (<xref ref-type="bibr" rid="B23">Pérez y Arco, 2016</xref>). The input to a learning algorithm is training data and the output usually takes the form of another computer software that can perform a certain task (S <xref ref-type="bibr" rid="B28">Shalev-Shwartz y Ben-David, 2014</xref>).</p>
				<p>In the field of machine learning, convolutional neural networks (CNNs) have made considerable improvements and have aroused great interest in the academic and industrial communities (<xref ref-type="bibr" rid="B13">Krizhevsky <italic>et al</italic>., 2017</xref>), because they use local connections to efficiently extract spatial information and shared weights (<xref ref-type="bibr" rid="B4">Chen <italic>et al</italic>., 2016</xref>). CNN can extract more effective features with the help of class-specific information (<xref ref-type="bibr" rid="B4">Chen <italic>et al</italic>., 2016</xref>). This requires large training data sets, and for multi-class issues, the data must be balanced (<xref ref-type="bibr" rid="B30">Suárez <italic>et al</italic>., 2017</xref>).</p>
				<p>There are several methods for classifying images, but not all are applicable to land cover classification (<xref ref-type="bibr" rid="B16">Macedo-Cruz <italic>et al</italic>., 2010</xref>). Therefore, and in order to assess the accuracy with which deep learning can utilize convolutional neural networks to identify patterns in the classification of land use and vegetation based on reflectance data captured by remote sensors on board satellite platforms, we proposed carrying out the study in the conditions of the <italic>Atoyac-Salado</italic> basin. This is because its diversity of ecosystems and productive systems, urban development, orography and in particular the great diversity of LUV classes that converge in it make it a suitable and challenging area for applying classification methods supervised with artificial intelligence.</p>
				<p>The objective was to propose and evaluate the performance of a computational method based on convolutional neural networks for the supervised classification of 22 different classes of LUV in the <italic>Atoyac-Salado</italic> basin in the state of <italic>Oaxaca</italic>.</p>
			</sec>
			<sec sec-type="materials|methods">
				<title>Materials and Methods</title>
				<p>The <italic>Atoyac-Salado</italic> basin is located in the central part of the state of <italic>Oaxaca</italic> (<xref ref-type="fig" rid="f5">Figure 1</xref>), between the parallels 16°49'25.86&quot; and 17°11'34.09&quot; N and the meridians 96°17'23.60&quot; and 96°43 41.66&quot; W. It extends from the source of the <italic>Salado</italic> river to the <italic>Oaxaca</italic> hydrometric station. This source is located in <italic>San Francisco Telixtlahuaca</italic>, where it bears the name of the <italic>Nariz</italic> river, at an altitude of approximately 2 418 masl. South of <italic>San Pablo Huitzo</italic>, it is called the <italic>Atoyac-r</italic>iver, and crosses the city of <italic>Oaxaca de Juárez</italic> up to the <italic>Oaxaca</italic> hydrometric station, at an altitude of approximately 1 500 m above sea level (<xref ref-type="bibr" rid="B27">Semarnat, 2017</xref>).</p>
				<p>
					<fig id="f5">
						<label>Figure 1</label>
						<caption>
							<title>Location of the <italic>Atoyac-Salado</italic> basin and main watercourses.</title>
						</caption>
						<graphic xlink:href="https://cienciasforestales.inifap.gob.mx/index.php/forestales/article/download/1269/3296/20971"/>
					</fig>
				</p>
				<p>The delimitation of the <italic>Atoyac-Salado</italic> basin was carried out in ArcSWAT™ (2012.10_4.21) as an extension of the ArcGIS<italic>™</italic> (14.4.1) software, from Inegi's high resolution digital elevation model LiDAR, 15 m resolution, Universal Transverse Mercator (UTM) Zone 14 projection. The outlet of the watershed is located at the <italic>Paso Ancho</italic> hydrometric station.</p>
				<p>The units of analysis corresponded to the different land covers and land uses of the Series VI vector dataset at a scale of 1:250 000 (<xref ref-type="bibr" rid="B11">Inegi, 2017</xref>). Of the 22 classes of LUV (<xref ref-type="table" rid="t3">Table 1</xref>), two stand out for having the largest surface area: annual rainfed agriculture with 21.41 % of the total surface area, and secondary shrubby oak forest vegetation with 17.78 %. Three types of agricultural land were registered: rainfed, irrigated and humid, which were divided into annual, semi-permanent and permanent, according to their duration. Based on this land use variability, the <italic>Atoyac-Salado</italic> basin was found to be suitable for the application of supervised classification methods with artificial intelligence.</p>
				<p>
					<table-wrap id="t3">
						<label>Table 1</label>
						<caption>
							<title>Assignment of class and key by type of LUV.</title>
						</caption>
						<table style="border-collapse: collapse; width: 100%">
							<colgroup>
								<col/>
								<col/>
								<col/>
								<col/>
							</colgroup>
							<thead>
								<tr>
									<th align="center" style="border-bottom: solid thin; border-top: solid thin">Class</th>
									<th align="center" style="border-bottom: solid thin; border-top: solid thin">Code</th>
									<th align="center" style="border-bottom: solid thin; border-top: solid thin">Type of land use and vegetation</th>
									<th align="center" style="border-bottom: solid thin; border-top: solid thin">Surface area (ha)</th>
								</tr>
							</thead>
							<tbody>
								<tr>
									<td align="center">0</td>
									<td align="left">AH</td>
									<td align="left">Built urban</td>
									<td align="right">21 690.4</td>
								</tr>
								<tr>
									<td align="center">1</td>
									<td align="left">BP</td>
									<td align="left">Pine forest</td>
									<td align="right">1 384.1</td>
								</tr>
								<tr>
									<td align="center">2</td>
									<td align="left">BPQ</td>
									<td align="left">Pine-oak forest</td>
									<td align="right">10 157.7</td>
								</tr>
								<tr>
									<td align="center">3</td>
									<td align="left">BQP</td>
									<td align="left">Oak-pine forest</td>
									<td align="right">630.6</td>
								</tr>
								<tr>
									<td align="center">4</td>
									<td align="left">HS</td>
									<td align="left">Semi-permanent moisture agriculture</td>
									<td align="right">358.6</td>
								</tr>
								<tr>
									<td align="center">5</td>
									<td align="left">PI</td>
									<td align="left">Induced pastureland</td>
									<td align="right">41 935.9</td>
								</tr>
								<tr>
									<td align="center">6</td>
									<td align="left">RA</td>
									<td align="left">Annual irrigated agriculture</td>
									<td align="right">2 915.4</td>
								</tr>
								<tr>
									<td align="center">7</td>
									<td align="left">RAS</td>
									<td align="left">Annual and semi-permanent irrigated farming</td>
									<td align="right">3 8362</td>
								</tr>
								<tr>
									<td align="center">8</td>
									<td align="left">RS</td>
									<td align="left">Semi-permanent irrigated agriculture</td>
									<td align="right">1 032.2</td>
								</tr>
								<tr>
									<td align="center">9</td>
									<td align="left">TA</td>
									<td align="left">Annual rainfed agriculture</td>
									<td align="right">79 647.6</td>
								</tr>
								<tr>
									<td align="center">10</td>
									<td align="left">TAP</td>
									<td align="left">Annual rainfed and permanent agriculture</td>
									<td align="right">15 552.3</td>
								</tr>
								<tr>
									<td align="center">11</td>
									<td align="left">VSa/BP</td>
									<td align="left">Secondary shrub vegetation of pine forest</td>
									<td align="right">9 473.3</td>
								</tr>
								<tr>
									<td align="center">12</td>
									<td align="left">VSa/BPQ</td>
									<td align="left">Secondary shrub vegetation of pine-oak forest</td>
									<td align="right">4 378.7</td>
								</tr>
								<tr>
									<td align="center">13</td>
									<td align="left">VSa/BQ</td>
									<td align="left">Secondary shrub vegetation of oak forest</td>
									<td align="right">66 145.4</td>
								</tr>
								<tr>
									<td align="center">14</td>
									<td align="left">VSa/BQP</td>
									<td align="left">Secondary shrub vegetation of oak-pine forest</td>
									<td align="right">11 682.1</td>
								</tr>
								<tr>
									<td align="center">15</td>
									<td align="left">VSa/MK</td>
									<td align="left">Secondary shrub vegetation of mesquite forest</td>
									<td align="right">772.8</td>
								</tr>
								<tr>
									<td align="center">16</td>
									<td align="left">VSa/SBC</td>
									<td align="left">Secondary shrub vegetation of low deciduous forest</td>
									<td align="right">8 138.4</td>
								</tr>
								<tr>
									<td align="center">17</td>
									<td align="left">VSA/BP</td>
									<td align="left">Secondary arboreal vegetation of pine forest</td>
									<td align="right">10 569.2</td>
								</tr>
								<tr>
									<td align="center">18</td>
									<td align="left">VSA/BPQ</td>
									<td align="left">Secondary arboreal vegetation of pine-oak forest</td>
									<td align="right">20 728.7</td>
								</tr>
								<tr>
									<td align="center">19</td>
									<td align="left">VSA/BQ</td>
									<td align="left">Secondary arboreal vegetation of oak forest</td>
									<td align="right">19 473.6</td>
								</tr>
								<tr>
									<td align="center">20</td>
									<td align="left">VSA/BQP</td>
									<td align="left">Secondary arboreal of oak-pine forest vegetation</td>
									<td align="right">6 210.4</td>
								</tr>
								<tr>
									<td align="center">21</td>
									<td align="left">VSh/BQ</td>
									<td align="left">Secondary herbaceous vegetation of oak forest</td>
									<td align="right">726.5</td>
								</tr>
								<tr>
									<td align="left" colspan="3" style="border-bottom: solid thin;">Total </td>
									<td align="right" style="border-bottom: solid thin;">372 068.3</td>
								</tr>
							</tbody>
						</table>
					</table-wrap>
				</p>
				<sec>
					<title>Satellite imagery</title>
					<p>The Copernicus Sentinel-2 mission consists of two identical satellites (2A and 2B) in the same orbit, developed by the European Space Agency (ESA, https://www.esa.int/Applications/Observing_the_Earth/Copernicus/Sentinel-2). Equipped with an optical sensor, the multispectral instrument has a spatial resolution ranging from 10 to 60 m depending on the spectral band (<xref ref-type="bibr" rid="B6">Drusch <italic>et al</italic>., 2012</xref>), with 13 bands in the visible, near-infrared and short-wave infrared ranges of the electromagnetic spectrum, and with a revisit time of 5 days at the equator (<xref ref-type="bibr" rid="B7">Gascon <italic>et al</italic>., 2017</xref>).</p>
					<p>The images used corresponded to Tiles T14QQD and T14QQE and the RGB and NIR spectral bands of multitemporal scenes with a 10 m spatial resolution, acquired on April 13, 2021, and May 3, 2021, respectively. Both images were captured by the Sentinel-2A satellite, with a 2-A processing level. Scenes with little or no cloud or haze were selected and downloaded from the Copernicus Open Access Hub website (<ext-link ext-link-type="uri" xlink:href="https://scihub.copernicus.eu/">https://scihub.copernicus.eu/</ext-link>). The sampling unit consisted of 20×20 pixel clipping. The sampling method was stratified random (<xref ref-type="bibr" rid="B5">Congalton and Green, 2009</xref>): prior knowledge of the study area from field trips made it possible to divide the area into groups or strata, which were randomly sampled.</p>
				</sec>
				<sec>
					<title>Training samples</title>
					<p>QGIS (3.18.3) was used to extract training samples and delimit the study area. The size of the images, in <italic>.tiff</italic> format, was 20×20×4 pixels (height, width and number of bands), at least 80 % of the clipping were considered to belong to a single class. A balanced training set was used to prevent classification based on unbalanced data (<xref ref-type="bibr" rid="B8">Gnip <italic>et al</italic>., 2021</xref>). 6 000 training samples were extracted from each LUV class; however, in order to prevent oversampling, only 2 280 samples were drawn from the Semi-permanent cycle moisture agriculture class, and 4 356 samples from the Semi-permanent cycle irrigated agriculture, as these two classes cover a smaller surface area. In total, 126 636 training samples were generated.</p>
				</sec>
				<sec>
					<title>CNN Model</title>
					<p>The CNN model algorithm was programmed with the Python language in a Jupyter notebook development environment, using the Tensorflow and Keras open-source libraries for machine learning. The model applied was of the Sequential type, the network layers were ordered and stacked linearly (<xref ref-type="bibr" rid="B33">Xie <italic>et al</italic>., 2020</xref>). All the neurons in one layer connect to all the neurons in the next layer, based on sequences of three types of layers: convolutional, clustering and fully connected. The convolutional and fully connected layers are typically followed by a nonlinear activation function (<xref ref-type="bibr" rid="B25">Rousset <italic>et al</italic>., 2021</xref>).</p>
					<p>The model architecture consisted of three convolutional and three clustering layers, according to the suggestions of <xref ref-type="bibr" rid="B4">Chen <italic>et al</italic>. (2016)</xref>, in order to balance the complexity and robustness of the network. 128 neurons, a Kernel size of 3 by 3, and the same padding were used in each layer. Zeros were added around the input images; the outputs of the layer had the same spatial dimensions as its inputs. Also utilized were an activation function called Rectified Linear Unit (ReLU), which returns 0 for each negative value in the input image and returns the same value for each positive value, and, subsequently, an Average-Pooling subsampling filter that considers the average activation values of a window, plus a Dropout layer with 20 % potentiality of setting the inputs to zero.</p>
					<p>Next, a (Flatten) layer that flattens the multidimensional outputs of the last convolutional layer in a one-dimensional format, and two dense layers: one of 512 hidden neurons with a ReLU activation and Dropout layer at 20 %, and the last one with 22 output neurons corresponding to the number of classes to be identified, with a softmax activation function to predict the potentiality of each class.</p>
					<p>Training is the process of making inputs produce the desired outputs. It operates based on the establishment of previously known weights (<xref ref-type="bibr" rid="B32">Vinet and Zhedanov, 2011</xref>). For the adjustment of the connection weights, the data set was divided into two groups: training (80 %) and test (20 %). The former data, in turn, were divided into training (80 %) and evaluation (20 %), and were entered several times in the network, each repetition was called an epoch. The model was trained with 100 epochs.</p>
					<p>During the learning phase, a transfer function was applied through a series of iterations in order to compare the predicted values with the observed values (<xref ref-type="bibr" rid="B2">Bocco <italic>et al.</italic>, 2007</xref>). The test set is not reviewed by the model in training but is used later, after adjusting the hyperparameters in order to provide an unbiased evaluation of the final model. Once the epochs have been created and the weights have been adjusted, the validation data are entered. The training ends when a low error is reached for all learning patterns (<xref ref-type="bibr" rid="B2">Bocco <italic>et al</italic>., 2007</xref>). The following hyperparameters were used in the evaluation and testing: Kernel size, dropout rate, hidden layers, layer depth, and activation functions.</p>
					<p>The model compilation included three parameters: optimizer, loss and metrics. Adam was used as the optimizing algorithm, as it is computationally efficient, has low memory requirements, is invariant to diagonal gradient scale change and is suitable for large problems in terms of data or parameters (<xref ref-type="bibr" rid="B12">Kingma and Ba, 2014</xref>). The model was compiled with the categorical cross-entropy function, and the performance metric of interest was accuracy, which is related to the correctly predicted observation and to the total observations.</p>
					<p>The classification was evaluated using the confusion matrix, as it summarizes the accuracy assessment and represents good practice (<xref ref-type="bibr" rid="B19">Olofsson <italic>et al</italic>., 2014</xref>). The double-entry matrix confronts the actual values with the results of the classification, making it easy to detect where the two classes are being confused. Elements on the diagonal correspond to the correct prediction and those outside the diagonal correspond to incorrect predictions, both horizontally and vertically (<xref ref-type="bibr" rid="B35">Yeturu, 2020</xref>). The proportion of correctly assigned points expresses reliability (<xref ref-type="bibr" rid="B17">Mas <italic>et al.</italic>, 2003</xref>). In addition, other evaluation metrics were calculated: accuracy, sensitivity, and score.</p>
					<p>In addition, the performance of the model was analyzed with the variations of its sensitivity and specificity using the receiver operating characteristic (<italic>ROC</italic>) curve, a parameter for assessing the goodness of the test. The accuracy of the test increases as the curve moves from the diagonal towards the upper left vertex. A higher value indicates that the model is capable of achieving a better performance (<xref ref-type="bibr" rid="B15">Liu <italic>et al</italic>., 2022</xref>).</p>
				</sec>
			</sec>
			<sec sec-type="results|discussion">
				<title>Results and Discussion</title>
				<p>The training and validation data sets were used to provide an unbiased evaluation of the trained model, with hyperparameter tuning to obtain the best performance of the developed neural network model (<xref ref-type="fig" rid="f6">Figure 2</xref>).</p>
				<p>
					<fig id="f6">
						<label>Figure 2</label>
						<caption>
							<title>Model accuracy results.</title>
						</caption>
						<graphic xlink:href="https://cienciasforestales.inifap.gob.mx/index.php/forestales/article/download/1269/3296/20974"/>
					</fig>
				</p>
				<p>The ratio between the total number of correctly identified entries and the total number of entries determined the overall classification accuracy, which reached a maximum of 89.44 % on training data and 84.57 % in validation over 100 epochs.</p>
				<p>The results of the image classification were evaluated using the confusion matrix. <xref ref-type="fig" rid="f7">Figure 3</xref> shows in lighter color the classes with higher classification accuracy and the class for which the entered class was mistaken. In this case, the classes most often confused by the network were those labeled as 19 and 20, which corresponded to arboreal secondary vegetation of oak forest and arboreal secondary vegetation of oak-pine forest, because they are similar natural vegetation ecosystems, with a predominance of arboreal life forms. The floristic component differs partially between these systems, which may explain the confusion between the two classes.</p>
				<p>
					<fig id="f7">
						<label>Figure 3</label>
						<caption>
							<title>Confusion matrix.</title>
						</caption>
						<graphic xlink:href="https://cienciasforestales.inifap.gob.mx/index.php/forestales/article/download/1269/3296/20975"/>
					</fig>
				</p>
				<p>According to the results for the evaluation metrics (<xref ref-type="table" rid="t4">Table 2</xref> and <xref ref-type="fig" rid="f8">Figure 4</xref>), a set of (macro and weighted) mean scores and accuracy with overall estimated performance of 85 % for all metrics is appreciated. Therefore, the land use and vegetation classification model was considered robust. These results indicate that the model has a low dispersion of the set of values obtained, with 85 % of positive cases that were correctly identified by the algorithm.</p>
				<p>
					<table-wrap id="t4">
						<label>Table 2</label>
						<caption>
							<title>Model assessment metrics.</title>
						</caption>
						<table style="border-collapse: collapse; width: 100%">
							<colgroup>
								<col/>
								<col/>
								<col/>
								<col/>
							</colgroup>
							<thead>
								<tr>
									<th align="center" style="border-bottom: solid thin; border-top: solid thin">Class</th>
									<th align="center" style="border-bottom: solid thin; border-top: solid thin">Accuracy</th>
									<th align="center" style="border-bottom: solid thin; border-top: solid thin">Sensitivity</th>
									<th align="center" style="border-bottom: solid thin; border-top: solid thin">F1 Score</th>
								</tr>
							</thead>
							<tbody>
								<tr>
									<td align="center">0</td>
									<td align="center">0.89</td>
									<td align="center">1</td>
									<td align="center">0.94</td>
								</tr>
								<tr>
									<td align="center">1</td>
									<td align="center">0.97</td>
									<td align="center">0.96</td>
									<td align="center">0.97</td>
								</tr>
								<tr>
									<td align="center">2</td>
									<td align="center">0.78</td>
									<td align="center">0.79</td>
									<td align="center">0.79</td>
								</tr>
								<tr>
									<td align="center">3</td>
									<td align="center">0.97</td>
									<td align="center">0.99</td>
									<td align="center">0.98</td>
								</tr>
								<tr>
									<td align="center">4</td>
									<td align="center">0.98</td>
									<td align="center">0.98</td>
									<td align="center">0.98</td>
								</tr>
								<tr>
									<td align="center">5</td>
									<td align="center">0.86</td>
									<td align="center">0.77</td>
									<td align="center">0.82</td>
								</tr>
								<tr>
									<td align="center">6</td>
									<td align="center">0.93</td>
									<td align="center">0.93</td>
									<td align="center">0.93</td>
								</tr>
								<tr>
									<td align="center">7</td>
									<td align="center">0.83</td>
									<td align="center">0.79</td>
									<td align="center">0.81</td>
								</tr>
								<tr>
									<td align="center">8</td>
									<td align="center">0.98</td>
									<td align="center">0.99</td>
									<td align="center">0.99</td>
								</tr>
								<tr>
									<td align="center">9</td>
									<td align="center">0.72</td>
									<td align="center">0.82</td>
									<td align="center">0.77</td>
								</tr>
								<tr>
									<td align="center">10</td>
									<td align="center">0.88</td>
									<td align="center">0.77</td>
									<td align="center">0.82</td>
								</tr>
								<tr>
									<td align="center">11</td>
									<td align="center">0.84</td>
									<td align="center">0.85</td>
									<td align="center">0.85</td>
								</tr>
								<tr>
									<td align="center">12</td>
									<td align="center">0.91</td>
									<td align="center">0.90</td>
									<td align="center">0.91</td>
								</tr>
								<tr>
									<td align="center">13</td>
									<td align="center">0.82</td>
									<td align="center">0.74</td>
									<td align="center">0.78</td>
								</tr>
								<tr>
									<td align="center">14</td>
									<td align="center">0.86</td>
									<td align="center">0.81</td>
									<td align="center">0.83</td>
								</tr>
								<tr>
									<td align="center">15</td>
									<td align="center">0.99</td>
									<td align="center">0.98</td>
									<td align="center">0.99</td>
								</tr>
								<tr>
									<td align="center">16</td>
									<td align="center">0.84</td>
									<td align="center">0.89</td>
									<td align="center">0.86</td>
								</tr>
								<tr>
									<td align="center">17</td>
									<td align="center">0.81</td>
									<td align="center">0.82</td>
									<td align="center">0.82</td>
								</tr>
								<tr>
									<td align="center">18</td>
									<td align="center">0.72</td>
									<td align="center">0.78</td>
									<td align="center">0.75</td>
								</tr>
								<tr>
									<td align="center">19</td>
									<td align="center">0.56</td>
									<td align="center">0.51</td>
									<td align="center">0.53</td>
								</tr>
								<tr>
									<td align="center">20</td>
									<td align="center">0.62</td>
									<td align="center">0.69</td>
									<td align="center">0.65</td>
								</tr>
								<tr>
									<td align="center">21</td>
									<td align="center">0.99</td>
									<td align="center">0.98</td>
									<td align="center">0.98</td>
								</tr>
								<tr>
									<td align="left">Accuracy</td>
									<td align="center"> </td>
									<td align="center"> </td>
									<td align="center">0.85</td>
								</tr>
								<tr>
									<td align="left">Medium <break/>macro</td>
									<td align="center">0.85</td>
									<td align="center">0.85</td>
									<td align="center">0.85</td>
								</tr>
								<tr>
									<td align="left" style="border-bottom: solid thin;">Weighted <break/>mean</td>
									<td align="center" style="border-bottom: solid thin;">0.85</td>
									<td align="center" style="border-bottom: solid thin;">0.85</td>
									<td align="center" style="border-bottom: solid thin;">0.85</td>
								</tr>
							</tbody>
						</table>
					</table-wrap>
				</p>
				<p>
					<fig id="f8">
						<label>Figure 4</label>
						<caption>
							<title><italic>ROC</italic> curve by identified class.</title>
						</caption>
						<graphic xlink:href="https://cienciasforestales.inifap.gob.mx/index.php/forestales/article/download/1269/3296/20976"/>
					</fig>
				</p>
				<p>During the training, the network experienced a positive change when a regulation layer (Dropout) was used with a 20 % chance of setting the inputs to zero, which allowed the model to fit the data while minimizing the error produced by the data at each epoch. Whereas, when not used, there was a point at which error increased and generated overtraining.</p>
				<p>This research used 22 different classes, when usually approximately 10 are utilized. For example, <xref ref-type="bibr" rid="B30">Suárez <italic>et al</italic>. (2017)</xref> used four classes with 91.02 % of accuracy, <xref ref-type="bibr" rid="B10">Hu <italic>et al</italic>. (2018)</xref> employed seven classes with 82 % in accuracy, <xref ref-type="bibr" rid="B1">Bhosle and Musande (2019)</xref> classified 16 and four classes, respectively, with accuracies of 97.58 and 79.43 %.</p>
				<p>The results obtained for performance were high, exhibited accurate answers and showed progress for the procedure performed with CNN in the automated classification of LUV with 22 classes, although the scale utilized for creating the series had the problem of generating large polygons of LUV classes not representative of the local scale (<xref ref-type="bibr" rid="B21">Paz-Pellat <italic>et al</italic>., 2019</xref>). The results of the present work were better than those of other previous CNN classification studies, in which an accuracy of 83.27 % in training and of 91.02 % in validation was registered for identifying four classes (<xref ref-type="bibr" rid="B30">Suárez <italic>et al</italic>., 2017</xref>), and with accuracies of 90.18 % for vegetation cover classification and 87.92 % for land use in 12 classes (<xref ref-type="bibr" rid="B36">Zhang <italic>et al</italic>., 2019</xref>).</p>
				<p>The proposed model yielded satisfactory results on a very challenging dataset, even with the use of supervised learning alone. Once the data set was trained, the network experienced substantial overfitting when Dropout was omitted; however, no overfitting was reported when Dropout was added (<xref ref-type="bibr" rid="B29">Srivastava <italic>et al</italic>., 2014</xref>).</p>
				<p>It should be noted that the performance of the network becomes degraded when any of the intermediate layers is removed (<xref ref-type="bibr" rid="B13">Krizhevsky <italic>et al</italic>., 2017</xref>), involving a loss of about 5 % when a single convolutional layer is removed. The depth setting of the CNN network is critical to the accuracy of the classification, as the quality of the learned features is influenced by the levels of representations and abstractions (<xref ref-type="bibr" rid="B36">Zhang <italic>et al</italic>., 2019</xref>).</p>
				<p>The results show the suitability of CNNs to classify LUVs in complex areas; however, their accuracy may vary as the number of classes increases, as in the case of Inegi's LUV maps, which consider 70 classes with 15 groupings (<xref ref-type="bibr" rid="B21">Paz-Pellat <italic>et al</italic>., 2019</xref>). Thus, it would probably have to be grouped into spectrally similar classes in order to operationalize a deep learning classification scheme. Today, many other deep learning options with more complex architectures, could allow further advance in future research. In addition, the use of reflectance information exclusively from independent spectral bands can be limiting, therefore, we suggest adding layers of vegetation indices.</p>
			</sec>
			<sec sec-type="conclusions">
				<title>Conclusions</title>
				<p>The model correctly detects those classes that are furthest separated in spectral terms and that exhibit differential characteristics. Classes with less training data are not affected, although spectrally close classes register low recognition rates. Results improve as the network increases in number of layers and training time, but there are still orders of magnitude that must be overcome in order to increase classification accuracy.</p>
				<p>It was proven with sufficient accuracy that deep learning with convolutional neural networks can identify patterns in the reflectance data captured by Sentinel-2 satellite images for land use and vegetation classification in intrinsically difficult areas in the <italic>Atoyac-Salado</italic> basin.</p>
			</sec>
		</body>
		<back>
			<ack>
				<title>Acknowledgments</title>
				<p> </p>
				<p>The authors wish to express their gratitude to the College of Postgraduates (<italic>Colegio de Postgraduados</italic>) for providing the necessary resources to carry out this research, and to the National Council of Science and Technology (<italic>Conacyt</italic>) for the scholarship granted to Rodolfo Montiel González for his master's degree in science.</p>
			</ack>
		</back>
	</sub-article>
</article>