INTELIGENCIA
ARTIFICIAL (IA)
5. Relaciones Entre Algoritmos
Estas relaciones muestran cómo las
técnicas de IA se interconectan y
complementan entre sí,
permitiendo la creación de
soluciones más robustas y eficaces
en diversas aplicaciones.
Aprendizaje No Supervisado y
Aprendizaje Supervisado:
Algoritmos de agrupamiento como
k-Means pueden ayudar a
etiquetar datos no etiquetados que
luego se usan para entrenar
modelos supervisados.
NLP y Redes Neuronales: Los
modelos de lenguaje avanzados
como GPT y BERT se basan en
redes neuronales profundas y se
benefician de técnicas de
aprendizaje transferido y de
atención desarrolladas en el campo
de redes neuronales.
Redes Neuronales y Aprendizaje
por Refuerzo: Las redes neuronales
profundas (como DQN) se utilizan
en el aprendizaje por refuerzo para
aproximar funciones de valor y
políticas complejas.
Aprendizaje Supervisado y No
Supervisado: Algoritmos de
aprendizaje supervisado como
árboles de decisión y SVM pueden
ser combinados con técnicas de
reducción de dimensionalidad
como PCA para mejorar la
eficiencia y la precisión.
5.ALGORITMOS RELEVANTES
Y tambien se pueden
encontrar de esta forma
Transformers: Modelos de
lenguaje avanzados.
Redes Neuronales
Convolucionales (CNN):
Visión por computadora.
k-Means: Agrupamiento en
clústeres.
Árboles de Decisión:
Decisiones basadas en
reglas.
Regresión Lineal: Modelado
de relaciones lineales.
Estos son algunos
algoritmos relevantes
Algoritmos de
procesamiento de lenguaje
natural (PNL)
Redes Bayesianas
Clustering o algoritmos de
agrupamiento
Máquinas de vectores de
soporte (SVM)
Algoritmo genético
Redes neuronales
artificiales (RNA)
El algoritmo o combinación
de algoritmos que se
utilice depende del
problema, los datos y los
requisitos del proyecto
5. Algoritmos de Procesamiento
del Lenguaje Natural (NLP)
Son técnicas y métodos para que
las computadoras puedan
entender, interpretar, y generar el
lenguaje humano de manera
significativa. NLP es una
subdisciplina de la IA que se centra
en la interacción entre las
computadoras y el lenguaje
humano.
Modelos de Lenguaje (e.g., GPT,
BERT
4. Algoritmos de Redes Neuronales
Son técnicas de aprendizaje
automático inspiradas en el
cerebro humano, consisten en
nodos organizados en capas para
reconocer patrones y hacer
predicciones ajustandoEstos
algoritmos se utilizan para
reconocer patrones, clasificar
datos, y hacer predicciones al
ajustar los pesos de las conexiones
entre nodos a través de un proceso
de entrenamiento basado en
datos.Son clave en reconocimiento
de imágenes, procesamiento de
lenguaje y recomendaciones.
Redes Neuronales Recurrentes
(RNN)
Redes Neuronales Convolucionales
(CNN)
Subtópico
Perceptrón
Unidad básica de las redes
neuronales, fundamental para el
desarrollo de redes neuronales
multicapa.
3. Algoritmos de Aprendizaje por
Refuerzo
Técnicas de aprendizaje
automático en las que un agente
toma decisiones mediante la
interacción con el entorno,
recibiendo recompensas o castigos
para mejorar su comportamiento.
Ideal para control de robots y
estrategias en juegos.
Algoritmos Basados en Políticas
(e.g., REINFORCE)
Aprenden políticas directamente y
pueden ser combinados con redes
neuronales para crear políticas más
complejas, como en el caso de los
Algoritmos de Aprendizaje
Profundo por Refuerzo.
Q-Learning
Método basado en valores para
aprender políticas óptimas en
problemas de decisión
secuenciales. Es una base para
algoritmos más avanzados como
Deep Q-Networks (DQN).
2. Algoritmos de Aprendizaje No
Supervisado
Técnicas de aprendizaje
automático sin etiquetas
predefinidas para hallar patrones
en datos y encontrar relaciones
subyacentes entre variables.
Ejemplos: k-means y PCA.
Análisis de Componentes
Principales (PCA)
Reducción de dimensionalidad que
simplifica datos antes de aplicar
otros algoritmos, como el
clustering o las redes neuronales.
k-Means
Algoritmo de agrupamiento
utilizado para segmentar datos en
clústeres. Los resultados pueden
ser usados para inicializar otros
algoritmos, como las Redes
Neuronales.
1. Algoritmos de Aprendizaje
Supervisado
Técnicas de aprendizaje
automático utilizan datos
etiquetados para entrenar modelos
que predicen con precisión valores
desconocidos. Incluyen regresión
lineal, árboles de decisión y SVM
para clasificación y regresión.
Máquinas de Vectores de Soporte
(SVM)
Utiliza técnicas de margen máximo
para clasificación. Las SVM pueden
ser extendidas a problemas no
lineales usando kernels.
Árboles de Decisión
Se utilizan para clasificación y
regresión. Forman la base para
algoritmos más complejos como
los Bosques Aleatorios y los
Gradient Boosting Machines.
Regresión Lineal
Utiliza conceptos de optimización
para predecir valores continuos. Es
un precursor para técnicas más
avanzadas como las redes
neuronales.
4.CONCEPTOS CLAVES
Bot: Es un programa que
realiza tareas
repetitivas, predefinidas
y automatizadas
Algoritmo: Es una
secuencia de pasos bien
definidos que resuelven un
problema.
Data sets: Son conjuntos
de datos organizados en
estructuras rectangulares
en forma de tabla o matri
Big data: Es un término
que se refiere a un gran
volumen de datos.
Ética y Seguridad
Bias: Sesgo en los datos y
algoritmos.
Privacidad: Protección de
datos personales.
Impacto Social:
Desplazamiento de
trabajos, decisiones
automatizadas.
Redes neuronales: Son
estructuras
computacionales inspiradas
en el cerebro humano, que
están compuestas por
unidades llamadas
neuronas.
Perceptrón: Unidad básica.
Redes Neuronales
Convolucionales (CNN):
Procesamiento de imágenes.
Redes Neuronales
Recurrentes (RNN): Datos
secuenciales.
Redes Neuronales
Procesamiento del lenguaje
natural: Es un área de la
IA que se centra en la
capacidad de las máquinas
para comprender el
lenguaje.
Procesamiento del Lenguaje
Natural (NLP)
Modelos de Lenguaje: GPT,
BERT.
Tareas: Análisis de
sentimientos, traducción
automática.
Aprendizaje automático: Es
la capacidad de un
software para aprender por
sí mismo.
Supervisado:
Clasificación, regresión.
No Supervisado:
Agrupamiento, reducción de
dimensionalidad.
Refuerzo: Aprendizaje
basado en recompensas.
Aprendizaje Automático
(Machine Learning)
Datos: Los datos son
fundamentales para la IA,
ya que son la materia
prima para entrenar los
algoritmos.
3. PRESABERES
Teoría de la Información
Entropía y Teorema de Shannon.
Computación
Algoritmos y Estructuras de Datos
Programación: Python, R.
Matemáticas y Estadísticas
Álgebra Lineal: Vectores, matrices.
Cálculo: Derivadas e integrales.
Probabilidad y Estadística:
Teoremas, distribuciones
2. HISTORIA DE LA IA
Resurgimiento y Era Moderna
(2000s-actualidad)
2008: Avances tecnológicos
-Google introduce reconocimiento
de voz en smartphones.
Big Data: Avances en el
procesamiento de grandes
volúmenes de datos.
2012: Deep Learning:
Redescubrimiento y desarrollo de
redes neuronales profundas.
Andrew Ng entrena una red
neuronal con 10 millones de vídeos
de YouTube.
Inverno de la IA (1980s-1990s)
1966: Informe ALPAC en EE.UU.
critica avances en traducción
automática durante la Guerra Fría.
1973: Informe Lighthill en Reino
Unido señala decepciones en IA.
Consecuencia: Recortes y
cancelación de proyectos de
investigación.
Renacimiento (1980-1987)
1980: Creación de R1 (XCON) por
Digital Equipment Corporations.
Impacto: Aumento de inversiones
en sistemas expertos; crecimiento
del sector.
Segundo invierno de la IA (1987)
1987: Colapso del mercado de
máquinas “Lisp” por alternativas
más baratas.
Consecuencia: Disminución del
interés en sistemas expertos;
recortes en proyectos
gubernamentales.
Primera Era Dorada (1970s-1980s)
Sistemas Basados en Reglas:
MYCIN para diagnóstico médico.
Redes Neuronales: Primeros
experimentos con perceptrones.
Orígenes (1950s-1960s)
Las raíces de la IA se remontan a la
década de 1950, cuando los
expertos en informática
comenzaron a imaginar la
posibilidad de crear máquinas que
pudieran simular la inteligencia
humana
Alan Turing: Concepto de la
máquina de Turing y la prueba de
Turing.
(1952): Arthur Samuel creó un
software capaz de aprender a jugar
al ajedrez de forma autónoma.
Primeros Programas: Logic Theorist
(1955) y General Problem Solver
(1957).
1. ¿QUÉ ES LA IA?
Es un campo de la informática que
se encarga de crear sistemas que
puedan realizar tareas que
normalmente requieren
inteligencia humana, como el
aprendizaje, el razonamiento y la
resolución de problemas.