--- a/INTROD.tex
+++ b/INTROD.tex
@@ -186,11 +186,13 @@
 
 \section{Contribuições da tese}
 
-Nesta tese  exploramos o método das aplicações de difusão para redução de dimensionalidade em especial com a finalidade de
-clusterização, reconhecimento e reconstrução de sinais obtidos pela quantificação de qualidades do sistema físico. 
-Aqui buscamos de forma minuciosa relacionar a técnica da difusão com aquela das autofunções do laplaciano e com o clássico PCA. 
-Tal técnica, que dá a vertente da tese, é estruturada sobre um grafo para o qual toda uma escolha de parâmetros se faz necessária.
- Procuramos fazer uma discussão de tais escolhas 
+Nesta tese  exploramos o método das aplicações de difusão como ferramenta ampla de
+modelagem computacional para redução de dimensionalidade em especial com a finalidade de
+clusterização/agrupamento, reconhecimento e reconstrução de sinais obtidos pela quantificação de qualidades do sistema físico. 
+Aqui buscamos de forma minuciosa relacionar de forma experimental e teorica
+aspectos da técnica da difusão com aquela das autofunções do laplaciano e com o clássico PCA. 
+Tal técnica, que dá a vertente da tese, é estruturada sobre um grafo dos dados para o qual toda uma escolha de parâmetros se faz necessária.
+ Procuramos fazer uma investigação de tais escolhas
  tendo em vista, porém, que não há como uniformizá-las uma vez que dependem de cada aplicação.
 
 Na Figura \ref{arestaHel}, por exemplo, apresentamos um trecho de um grafo formado por pontos de uma hélice onde um importante parâmetro $\varepsilon,$ que dá o tamanho da vizinhança   no processo de difusão, foi utilizado como $\varepsilon=0,001r^2,$   onde $r$ é o diâmetro do conjunto de dados, no caso, do conjunto de pontos da hélice. 
@@ -227,16 +229,15 @@
 O desenvolvimento matemático  aqui proposto é meticuloso e procura preencher lacunas na literatura correspondente. A  reconstrução de sinais através da proposta de pré-imagem aqui apresentada  com a otimização de determinada função custo pretende ser útil em aplicações futuras. 
 
 
- A seguir vamos dar uma visão geral da distribuição dos capítulos.
-
 \section{Organização dos capítulos}
-O próximo capítulo discorre sobre ideias gerais de aprendizagem de máquina e teoria de padrões tópicos com foco em tópicos aos quais esta tese se vincula.
+O próximo capítulo discorre sobre ideias gerais de aprendizagem de máquina e
+teoria de padrões, com foco em tópicos aos quais esta tese se vincula.
     
 Como foi dito na seção \ref{sec1pan}, alguns métodos de redução de dimensionalidade são clássicos e merecem um estudo preliminar para motivar a necessidade de métodos mais gerais. Em especial o método da \emph{análise de componentes principais} (PCA), que estuda a redução da dimensionalidade através de projeções  em subespaços  ditados pelos maiores autovetores da matriz de covariância dos dados, não pode faltar por ser um método que traz grande intuição  para todos os outros.
 Por isso o capítulo \ref{1pca} apresenta um resumo do mesmo. A grande desvantagem deste método é a linearidade que distorce informações sobre dados não-lineares com alto grau de complexidade não permitindo redução eficaz,
  conforme já exemplificado.
 
-Os recentes algoritmos para redução de dimensionalidade nos quais o presente trabalho se baseia utilizam fortemente a \emph{teoria espectral dos grafos}. Para melhor aproveitamento  desta ferramenta indispensável, alguns conceitos básicos sobre a mesma serão dados no capítulo \ref{falando}.
+Os recentes algoritmos para redução de dimensionalidade nos quais o presente trabalho se baseia utilizam fortemente a \emph{teoria espectral dos grafos}. Para melhor aproveitamento  desta ferramenta indispensável, alguns conceitos sobre a mesma serão dados no capítulo \ref{falando}.
 
 
 O capítulo \ref{autolap} apresenta o método não-linear das \emph{autofunções do laplaciano} que no fundo é um caso especial muito utilizado da \emph{aplicação de difusão} \cite{Socher2008}, o método de interesse principal deste trabalho. A aplicação de difusão definida nos dados do problema baseia-se numa cadeia de Markov definida num grafo estruturado a partir dos dados disponíveis. %Este caso especial se aplica quando os dados estão distribuídos uniformemente sobre uma variedade o que raramente acontece nas tarefas reais de aprendizado de máquina.\\