vault backup: 2024-12-05 15:37:58

This commit is contained in:
Jose
2024-12-05 15:37:58 +01:00
6 changed files with 101 additions and 8 deletions

View File

@@ -460,6 +460,32 @@ Las cabeceras se transmiten en 7 bits. Podría ser necesario que en el asunto, F
UIDL: muestra ID persistente
TOP: devuelve sólo cabeceras
- **Actualización:**
![[Pasted image 20241125145544.png]]
![[Pasted image 20241125145544.png]]
Se inicia al ejecutar el comando QUIT. Se borran los mensajes marcados, y aunque puede dar error, se cierra la conexión sí o sí.
## <mark style="background: #ADCCFFA6;">6. IMAP</mark>
- Permite crear varios buzones o carpetas (mailbox). Existe uno principal: INBOX.
- Está diseñado para que los mensajes permanezcan en el servidor, permitiendo el acceso desde varios clientes. También guarda el estado de los mensajes.
- Usa el puerto 143
- Paradigma C-S
- Filosofía comando-respuesta
### <mark style="background: #FFB86CA6;">Funcionamiento</mark>
- El cliente envía comandos precedidas de una etiqueta
- El servidor responde con esta etiqueta junto con el estado (OK/NO/BAD)
- Si existe información adicional, se responde como no etiquetada (etiqueta=\*)
- A veces el cliente puede quedar a la espera de una respuesta asíncrona del servidor (IDLE)
- Existen distintos estados de sesión:
- No autenticado
- Autenticado
- Seleccionado
- Cierre de sesión
### <mark style="background: #FFB86CA6;">Flags</mark>
Se guardan en cada mensaje y permiten señalar si se ha marcado para borrar, si es nuevo, si se ha leído, etc. Forman parte de la especificación del protocolo:
- \Seen
- \Answered
- etc
#### <mark style="background: #ABF7F7A6;">Ejemplo IMAP 1</mark>
![[Pasted image 20241127110759.png]]
#### <mark style="background: #ABF7F7A6;">Ejemplo IMAP 2</mark>
![[Pasted image 20241127111215.png]]
**UID fetch:** permite obtener determinados datos sobre determinados mensajes.
**IDLE:** permite al cliente permanecer a la espera de actualizaciones del buzón.

View File

@@ -521,4 +521,39 @@ I_{DB}=\frac{mean\{d(x,x'):x,x'\in c\}_{c\in C}}{mean\{d(x,x'):x\in c,x'\in c\}_
- Recall: $R=\frac{T_P}{T_P+F_N}$
- F-métrica: $F=\frac{Pr*R}{Pr+R}$
- Pureza: $U=\sum_i{p_i(\max_j{\frac{p_{ij}}{p_i}})}$
# <mark style="background: #FFF3A3A6;">TEMA 10: Árboles de decisión</mark>
Un árbol de decisión está formado por un conjunto de nodos de decisión (interiores) y de nodos-respuesta (hojas):
- Un nodo de decisión se asocia a uno de los atributos y tiene 2 o más ramas hacia sus posibles valores.
- Un nodo-respuesta está asociado a la clasificación que se quiere proporcionar, y devuelve la decisión respecto a la entrada.
## <mark style="background: #ADCCFFA6;">1. ID3</mark>
### <mark style="background: #FFB86CA6;">Entropía</mark>
$$
\begin{equation}
E(S)=-P\log_2(P)-N\log_2(N)
\end{equation}
$$
donde $P$, $N$ y $S$ son la proporción de ejemplos positivos y negativos y el conjunto de muestras respectivamente
### <mark style="background: #FFB86CA6;">Aplicación de la entropía a ID3</mark>
Se puede calcular la entropía asociada a cada atributo $X$ de la siguiente forma:
$$
\begin{equation}
E(T,X)=\sum\limits_{c\in X}{p(c)E(T,D_c)}
\end{equation}
$$
Y la ganancia (atributo que mejor responde) de información que aportaría dividir respecto a los valores de ese atributo viene dada por:
$$
\begin{equation}
Gain(T,X)=E(T,D)-E(T,X)
\end{equation}
$$
## <mark style="background: #ADCCFFA6;">2. Extensiones de ID3</mark>
El algoritmo ID3 tiene algunos problemas:
- Está bien definido para atributos con un rango finito de valores, pero lo está para atributos que tienen, por ejemplo, un rango continuo (infinito).
- No siempre da el mejor árbol posible, ya que el algoritmo es voraz y optimiza cada caso por separado (mejor resultado local).
- No se comporta bien con ejemplos para los que no se conoce algún valor de algún atributo.
### <mark style="background: #FFB86CA6;">Tratamiento de información faltante</mark>
La solución más directa es hacer uso de los ejemplos en los que el atributo que se está estudiando **SI** tiene un valor conocido.
### <mark style="background: #FFB86CA6;">Tratamiento de atributos con datos continuos</mark>
- Si el atributo depende de varias dimensiones, o no es un conjunto ordenado, se puede aplicar clusterización para poder saber en que clusters se puede dividir de forma eficiente y entonces usar como pregunta la pertenencia a un clúster u otro.
- El otro caso, es más sencillo: se consideran $N$ preguntas siendo $N$ el número de ejemplos (y estos toman los valores $\{v_1,\dots v_n\}$).