Redes Neurais Recorrentes (RNN) são um tipo de arquitetura neural em que as conexões entre os neurônios formam ciclos, permitindo que a rede armazene informações ao longo de uma sequência de entradas. Isso as torna ideais para tarefas como previsão de séries temporais e processamento de linguagem natural. As RNNs têm limitações em capturar dependências longas, mas extensões como LSTM e GRU foram desenvolvidas para mitigar essas limitações.