Milhojas / Mille-feuille


Aqui va la receta de varias generaciones (mi bisabuela, abuela y mi mama…) para hacer las milhojas.

Ingredientes:

400g de Harina (3/4 taza son aprox 100g)

400g de Manteca

1 pizca de sal

1 taza de agua

Procedimiento:

1) Hacemos una masa branda con 300g de harina, la pizca de sal y el agua. Reservar

2) Cortamos en trozos pequenos la manteca y le vamos agregando los 100g de harina.

Poner a descanzar los dos bollos en la heladera por unos 20 min.

3) Estirar el bollo de harina y envolver con este el de manteca.

IMG_9706

Poner a descanzar el bollo en la heladera por unos 20 min.

4) Estirar y doblar en tres. Se debe estirar siempre del lado donde se ven los dobleces.

IMG_9707

Poner a descanzar.

5) Estirar y doblar en cuatro.

Poner a descanzar.

6) Estirar y doblar en tres.

Poner a descanzar.

7) Estirar.  Cortar en tiras y arrollarlas. Estirar en forma de disco

IMG_9757

8) Colocar la masa estirada en forma de disco en una pizzera del lado de abajo. Tiene que estar fria junto con la masa para que no encoja. Pincharlas con un tenedor.

IMG_9758

9) Llevar a horno medio hasta que esten doradas.

 

Repetir el proceso para todos los discos.

IMG_9761

 

10) Colocar dulce de leche y apilar todos los discos. Decorar con nueces, almendras y si es posible, quinotos en almibar para la tapa de arriba.

IMG_9777.JPG

Secondary NameNode in Hadoop 2


This is a frequent asked question:

In hadoop 2, Secondary Name Node can be implemented in two ways:

1. With HA (High Availability Cluster): if you are setting up HA cluster then you may not need to use Secondary namenode because standby namenode keep its state synchronized with the Active namenode.

The HDFS NameNode High Availability feature enables you to run redundant NameNodes in the same cluster in an Active/Passive configuration with a hot standby.Both NameNode require the same type of hardware configuration.In HA hadoop cluster Active NameNode reads and write metadata information in Separate JournalNode.

In the event of failover, standby NameNode will ensure that its namespace is completely updated according to edit logs before it is changes to active state. So there is no need of Secondary NameNode in this Cluster Setup.

2. Without HA: you can have a hadoop setup without standby node. Then the secondary NameNode will act as you already mentioned in Hadoop 1.x

 

Source: https://stackoverflow.com/questions/37830777/use-of-secondary-namenode-in-hadoop-in-2-x

Paella de Mariscos


paella_de_mariscos

Ingredientes:

  • Aceite de oliva
  • Sal fina
  • Pimienta negra molida
  • Cebollas
  • Morrones de tres colores 3
  • Ajos 1
  • Tomates 3
  • Tubos de calamar 1/2 kilo
  • Arroz doble carolina 1/2 kilo
  • Azafrán 3 cápsulas
  • Caldo de verduras o pollo 2 litros
  • Berberechos 1/2 kilo
  • Mejillones 1/2 kilo
  • Cayos de vieyras 1/2 kilo
  • Langostinos crudos 1/2 kilo
  • Camarones crudos 1/2 kilo
  • Perejil picado 1 tazas
  • Arvejas 2 tazas
  • Limones 1

 

Cortar los tubos de calamar limpios y secos en cuadrados y marcar cuadros en su superficie.

Saltarlos en la paellera con aceite de oliva y ajo, hasta que esten cocidos (cuando están retorcidos como un cubanito). Retirar y reservar.

En la misma paellera con de oliva, transparentar cebolla, morrones, tomate rallado. Salpimentar.

Agregar el arroz y saltearlo hasta que este translúcido. Agregar el azafrán y el caldo de verduras (o de pollo). Reservar para ir rectificando el nivel de caldo de acuerdo al punto del arroz.

Bajar el fuego y evitar mover demasiado el arroz para evitar que se libere el almidón.

Agregar al arroz, los berberechos, mejillones, vieyras, langostinos y los calamares que estaban reservados.

Al probar el arroz y encontrarlo todavía “al dente”, agregar las arvejas, apagar el fuego, tapar la sartén y dejar reposar unos minutos.
Espolvorear con el perejil picado. Cortar los limones en rodajas y distribuirlos en el borde de la paellera. Servir.

 

Adding a mount point to HDFS


Before proceeding:

This procedure considers that you don’t have any current useful data on HDFS. All the data will be lost after adding mount points with this method.

This procedure should be applied to every datanode in the cluster. No intervention in the master node is needed if the framework is configured properly.

#checking available block devices:
[ec2-user@ip-10-0-15-76 media]$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
nvme2n1 259:4 0 2.5T 0 disk
nvme1n1 259:3 0 2.5T 0 disk /media/ebs0
nvme4n1 259:6 0 2.5T 0 disk
nvme0n1 259:0 0 2G 0 disk
├─nvme0n1p1 259:1 0 2G 0 part /
└─nvme0n1p128 259:2 0 1M 0 part
nvme3n1 259:5 0 2.5T 0 disk

#checking formatted filesystem:
[ec2-user@ip-10-0-15-76 media]$ sudo file -s /dev/nvme2n1
/dev/nvme2n1: data

(this filesystem is not formatted)

#formatting to ext4:
[ec2-user@ip-10-0-15-76 media]$ sudo mkfs -t ext4 /dev/nvme2n1
mke2fs 1.42.12 (29-Aug-2014)
Creating filesystem with 655360000 4k blocks and 163840000 inodes
Filesystem UUID: 6d9c997f-d47b-4529-85c8-e56e8ef47a1d
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848, 512000000, 550731776, 644972544

Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

#mounting
[ec2-user@ip-10-0-15-76 media]$ sudo mkdir /media/ebs1
[ec2-user@ip-10-0-15-76 media]$ sudo mount /dev/nvme2n1 /media/ebs1
[ec2-user@ip-10-0-15-76 media]$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
nvme2n1 259:4 0 2.5T 0 disk /media/ebs1
nvme1n1 259:3 0 2.5T 0 disk /media/ebs0
nvme4n1 259:6 0 2.5T 0 disk
nvme0n1 259:0 0 2G 0 disk
├─nvme0n1p1 259:1 0 2G 0 part /
└─nvme0n1p128 259:2 0 1M 0 part
nvme3n1 259:5 0 2.5T 0 disk

#final mount result
[ec2-user@ip-10-0-60-46 ~]$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
nvme2n1 259:4 0 2.5T 0 disk /media/ebs1
nvme1n1 259:3 0 2.5T 0 disk /media/ebs0
nvme4n1 259:6 0 2.5T 0 disk /media/ebs3
nvme0n1 259:0 0 2G 0 disk
├─nvme0n1p1 259:1 0 2G 0 part /
└─nvme0n1p128 259:2 0 1M 0 part
nvme3n1 259:5 0 2.5T 0 disk /media/ebs2

#checking mount points in hdfs-site.xml
[ec2-user@ip-10-0-60-46 media]$ cat /opt/hadoop-2.7.3/etc/hadoop/hdfs-site.xml |grep -A1 dfs.datanode.data.dir
<name>dfs.datanode.data.dir</name>
<value>/media/ebs0/hadoop/datanodes,/media/ebs1/hadoop/datanodes,/media/ebs2/hadoop/datanodes,/media/ebs3/hadoop/datanodes</value>

# create defined directory structure on mount point (for each mount point):
sudo mkdir -p /media/ebs1/hadoop/datanodes

# modify owner to the user that will start DFS (for each mount point):
sudo chown -R ec2-user:ec2-user /media/ebs1/hadoop/datanodes

#format namenode:
hadoop namenode -format

# stop/start DFS:
/opt/hadoop-2.7.3/sbin/stop-dfs.sh
/opt/hadoop-2.7.3/sbin/start-dfs.sh

# check service start status
tail -f /var/log/hadoop/hadoop-ec2-user-datanode-ip-10-0-15-76.log

 

**some ENV variables I usually use on these environments:

export HADOOP_SSH_OPTS="-i /home/ec2-user/.ssh/mykey -o StrictHostKeyChecking=no -o UserKnownHostsFile=/dev/null"
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.151.x86_64/jre

Muffins de Banana


Ingredientes:

  • 100 g de harina
  • 1 cucharada de polvo para hornear
  • 100 g de banana madura
  • 3 huevos
  • 50 g de azúcar blanca
  • 1 cucharada de vainilla
  • 60 ml de leche

Preparacion:

Precalienta el horno a 170°C.

Mezcla en un recipiente pequeño los huevos y el azúcar. Luego añade la banana pisada, la vainilla y la leche. Mezcla todo bien hasta incorporar.

En otro recipiente más grande, mezcla la harina y el polvo para hornear.

Añade los ingredientes húmedos en este recipiente y mezcla hasta integrar bien. No sobrebatir.

Llena los pirotines y hornea por unos 25 minutos o hasta que salga un cuchillo limpio desde el centro y estén ligeramente dorados por encima.

2017-10-29 21.09.59_preview

Cruz asador casera sobre disco/ Homemade Argentine asado cross on fire pit


Cuando cocinamos al asador en otros paises, tenemos que tener cuidado con ciertas medidas de seguridad. Es muy probable que si hicieramos asado o lechon (suckling pig) al asador con la cruz clavada al piso, algun vecino llame a los bomberos.

Por esa razon, donde no hay mucho lugar para cocinar a la cruz o asador, podemos usar un disco (fire pit) adaptandole la cruz.

En este caso, encontre en Home Depot un disco de 31″ que me vino bien para adaptarle la cruz arriba. Este fire pit/disco viene tambien con algunos hierros, espiedo y parrilla additionales que podemos usar para adaptar la cruz.

Con unas barras de acero de 1/4 pasante sobre las manijas del borde, podemos darle angulo de inclinacion a la cruz. Con algunos de los complementos que vienen con el fire pit podemos regular la altura.

vc3kd9pt.jpeg

Aqui las cruces presentadas sobre el disco/fire pit

nPiCFa_4

 

Aqui lo estamos probando con un buen asado argentino:

lehnKfb9

 

Y por supuesto que podemos hacer un lechon (suckling pig) o cordero (lamb):

-8fPIOqU

yjY8N0i_HjaX-zmF

 

Aqui con Eduardo (el picho) Divito, checkeando que todo funcione como debe ser…

62373833_2657675790912521_9027880926725537792_n

Saludos!

 

 

 

 

 

s3:// vs s3n:// vs s3a:// vs EMRFS


s3://

Apache Hadoop implementation of a block-based filesystem backed by S3. Apache Hadoop has deprecated use of this filesystem as of May 2016.

s3n://

A native filesystem for reading and writing regular files on S3. S3N allows Hadoop to access files on S3 that were written with other tools, and conversely, other tools can access files written to S3N using Hadoop. S3N is stable and widely used, but it is not being updated with any new features. S3N requires a suitable version of the jets3t JAR on the classpath.

  • Uses jets3t

s3a://

Hadoop’s successor to the S3N filesystem. S3A uses Amazon’s libraries to interact with S3. S3A supports accessing files larger than 5 GB, and it provides performance enhancements and other improvements. For Apache Hadoop, S3A is the successor to S3N and is backward compatible with S3N. Using Apache Hadoop, all objects accessible from s3n:// URLs should also be accessible from S3A by replacing the URL scheme.

  • Uses AWS SDK.
  • Amazon EMR does not currently support use of the Apache Hadoop S3A file system.

EMRFS:

On Amazon EMR, both the s3:// and s3n:// URIs are associated with the EMR filesystem and are functionally interchangeable in the context of Amazon EMR. For consistency sake, however, it is recommended to use the s3:// URI in the context of Amazon EMR.

EMRFS can be used by invoking the prefix s3n:// or s3:// or s3a:// depending on the client application implementation.

Source: https://aws.amazon.com/premiumsupport/knowledge-center/emr-file-system-s3/

Cruz asador casera / Homemade Argentine asado cross


Estas cruces son dificiles de conseguir afuera de Argentina. O son muy caras si las van a comprar.

Aqui algunos detalles de como contruir una facilmente.

Conseguimos un par the barras planas de acero de 1/4″ x 1″ x 48″.

acero_1-4_1_48

Dejamos una de las barras para el eje vertical de la cruz, y cortamos la otra barra a la mitad (unas 24″), para los dos brazos horizontales.

cruz_asador_ayudantes

Perforamos la barra vertical:

  • a unas 4″ desde la parte superior
  • a unas 10″ desde la parte inferior

Perforamos las barras horizontales:

  • en el centro de cada una para ser atornillada a la barra vertical
  • a una pulgada del borde de cada una para pasar el alambre para atar el cordero o lechon o lo que querramos cocinar con ella.

cruz_asador_perforando_acero

Le damos forma de flecha a la barra vertical en la parte de abajo para que sea mas facil colocarla en la tierra.

Sujetamos las barras horizontales a la barra vertical con tornillo y tuerca (1/4″ x 1/2″ en este caso)

cruz_asador_final

Y finalmente la probamos:

cruz_asador_prueba_cordero.jpeg

“Lástima que quedo crudo…” diria mi abuelo

Screen Shot 2018-05-10 at 6.18.10 AM