En este artículo veremos las diferentes formas de crear un RDD en Apache Spark utilizando Scala. Resilient Distributed Dataset (RDD) es la abstracción principal de Spark. Los RDD son una colección de elementos particionados a través de los nodos del clúster los cuales pueden ser operados en paralelo. Existen tres características vitales asociadas con un […]