Blografia.net

June 21, 2024

Gwolf

A new RISC-V toy... requiring almost no tinkering

Shortly before coming back from Argentina, I got news of a very interesting set of little machines, the MilkV Duo. The specs looked really interesting and fun to play with, particularly those of the “bigger” model, Milk-V DUO S Some of the highlights:

Milk-V Duo S

  • The SG2000 SoC is a Dual-architecture beast. A hardware switch controls whether the CPU is an ARM or a RISC-V.
    • Not only that: It has a second (albeit lesser) RISC-V core that can run independently. They mention this computer can run simultaneously Linux and FreeRTOS!
  • 512MB RAM
  • Sweet form factor (4.2×4.2cm)
  • Peeking around their Web site, it is one of the most open and well documented computers in their hardware range.

Naturally, for close to only US$12 (plus shipping) for the configuration I wanted… I bought one, and got it delivered in early May. The little box sat on my desk for close to six weeks until I had time to start tinkering with it…

I must say I am surprised. Not only the little bugger delivers what it promises, but it is way more mature than what I expected: It can be used right away without much tinkering with! I mean, I have played with it for less than an hour by now, and I’ve even managed to get (almost) regular Debian working.

Milk-V distributes a simple, 58.9MB compressed Linux image, based on Buildroot, a simple Linux image generator mostly used for embedded applications, as well as its source tree. I thought that would be a good starting point to work on setting up a minimal Debian filesystem, as I did with the CuBox-i4Pro ten years ago, and maybe even to grow towards a more official solution, akin to what we currently have for the Raspberry Pi family

…Until I discovered what looks like a friendly and very active online community of Milk-V users! I haven’t yet engaged in it, but I stumbled across a thread announcing the availability of Debian images for the Milk-V family.

And yes, it feels like a very normal Debian system. /etc/apt/sources.list does point to a third-party repository, but it’s for only four packages, all related to pinmux controlfor CVITEK chips. It does feel like a completely normal Debian system! It is not as snappy and fast to load as Buildroot, but given Debian’s generality, that’s completely as expected. Even the wireless network, one of the usual pain points, works just out of the box! The Debian images can be built or downloaded from this Git repository.

In case you wonder how is this system booting or what hardware it detects, I captured two boot logs:

June 21, 2024 05:59 AM

May 25, 2024

Gwolf

How computers make books • from graphics rendering, search algorithms, and functional programming to indexing and typesetting

This post is a review for Computing Reviews for How computers make books • from graphics rendering, search algorithms, and functional programming to indexing and typesetting , a book published in Manning

If we look at the age-old process of creating books, how many different areas can a computer help us with? And how can each of them be used to teach computer science (CS) fundamentals to a nontechnical audience? This is the premise of John Whitington’s enticing book and the result is quite amazing.

The book immediately drew my attention when looking at the titles available for review. After all, my initiation into computing as a kid was learning the LaTeX typesetting system while my father worked on his first book on scientific language and typography [1]. Whitington picks 11 different technical aspects of book production, from how dots of ink are transferred to a white page and how they are made into controllable, recognizable shapes, all the way to forming beautiful typefaces and the nuances of properly addressing white-space to present aesthetically pleasing paragraphs, building it all into specific formats aimed at different ends.

But if we dig beyond just the chapter titles, we will find a very interesting book on CS that, without ever using technical language or notation, presents aspects as varied as anti-aliasing, vector and raster images, character sets such as ASCII and Unicode, an introduction to programming, input methods for different writing systems, efficient encoding (compression) methods, both for text and images, lossless and lossy, and recursion and dithering methods. To my absolute surprise, while the author thankfully spared the reader the syntax usually associated with LISP-related languages, the programming examples clearly stem from the LISP school, presenting solutions based on tail recursion. Of course, it is no match for Donald Knuth’s classic book on this same topic [2], but could very well be a primer for readers to approach it.

The book is light and easy to read, and keeps a very informal, nontechnical tone throughout. My only complaint relates to reading it in PDF format; the topic of this book, and the care with which the images were provided by the author, warrant high resolution. The included images are not only decorative but an integral part of the book. Maybe this is specific to my review copy, but all of the raster images were in very low resolution.

This book is quite different from what readers may usually expect, as it introduces several significant topics in the field. CS professors will enjoy it, of course, but also readers with a humanities background, students new to the field, or even those who are just interested in learning a bit more.

References

  1. Sánchez y Gándara, A.; Magariños Lamas, F.; Wolf, K. B., Manual de lenguaje y tipografía científica en castellano. Trillas, Mexico City, Mexico, 1986, https://www.fis.unam.mx/~bwolf/manual.html

  2. Knuth, D. E. Digital typographyCSLI Lecture Notes: CSLI Lecture Notes. CSLI Publications, Stanford, CA, 1999, https://www-cs-faculty.stanford.edu/~knuth/dt.html

May 25, 2024 12:11 AM

May 09, 2024

Gwolf

Hacks, leaks, and revelations • The art of analyzing hacked and leaked data

This post is a review for Computing Reviews for Hacks, leaks and revelations • The art of analyzing hacked and leaked data , a book published in No Starch Press

Imagine you’ve come across a trove of files documenting a serious deed and you feel the need to “blow the whistle.” Or maybe you are an investigative journalist and this whistleblower trusts you and wants to give you said data. Or maybe you are a technical person, trusted by said journalist to help them do things right–not only to help them avoid being exposed while leaking the information, but also to assist them in analyzing the contents of the dataset. This book will be a great aid for all of the above tasks.

The author, Micah Lee, is both a journalist and a computer security engineer. The book is written entirely from his experience handling important datasets, and is organized in a very logical and sound way. Lee organized the 14 chapters in five parts. The first part–the most vital to transmitting the book’s message, in my opinion–begins by talking about the care that must be taken when handling a sensitive dataset: how to store it, how to communicate it to others, sometimes even what to redact (exclude) so the information retains its strength but does not endanger others (or yourself). The first two chapters introduce several tools for encrypting information and keeping communication anonymous, not getting too deep into details and keeping it aimed at a mostly nontechnical audience.

Something that really sets this book apart from others like it is that Lee’s aim is not only to tell stories about the “hacks and leaks” he has worked with, or to present the technical details on how he analyzed them, but to teach readers how to do the work. From Part 2 onward the book adopts a tutorial style, teaching the reader numerous tools for obtaining and digging information out of huge and very timely datasets. Lee guides the reader through various data breaches, all of them leaked within the last five years: BlueLeaks, Oath Keepers email dumps, Heritage Foundation, Parler, Epik, and Cadence Health. He guides us through a tutorial on using the command line (mostly targeted at Linux, but considering MacOS and Windows as well), running Docker containers, learning the basics of Python, parsing and filtering structured data, writing small web applications for getting at the right bits of data, and working with structured query language (SQL) databases.

The book does an excellent job of fulfilling its very ambitious aims, and this is even more impressive given the wide range of professional profiles it is written for; that being said, I do have a couple critiques. First, the book is ideologically loaded: the datasets all exhibit the alt-right movement that has gained strength in the last decade. Lee takes the reader through many instances of COVID deniers, rioters for Donald Trump during the January 2021 attempted coup, attacks against Black Lives Matter activists, and other extremism research; thus this book could alienate right-wing researchers, who might also be involved in handling important whistleblowing cases.

Second, given the breadth of the topic and my 30-plus years of programming experience, I was very interested in the first part of each chapter but less so in the tutorial part. I suppose a journalist reading through the same text might find the sections about the importance of data handling and source protection to be similarly introductory. This is unavoidable, of course, given the nature of this work. However, while Micah Lee is an excellent example of a journalist with the appropriate technical know-how to process the types of material he presents as examples, expecting any one person to become a professional in both fields is asking too much.

All in all, this book is excellent. The writing style is informal and easy to read, the examples are engaging, and the analysis is very good. It will certainly teach you something, no matter your background, and it might very well complement your professional skills.

May 09, 2024 04:24 AM

April 25, 2024

Victor Martínez

¿Polemica o tal vez no?

Recien vi una polémica porque por ahí se dijo, no se bien en que medio, pero buscando encontre el podcast de Índigo Geek

Que al parecer es este, como no me dejó comentar, pongo aquí el mapa de contenido.

1:10 Jośe Saucedo, bienvenida
1:51 Inicio, no se presentan, lo harán en el minuto 43 con sus redes de contacto
2:21 Rodrigo Chavez, lider de marketing de CCXP
3:21 que es la CCXP 3:50 no queda claro
4:05 Mucho tiempo…
4:22 Cuatro años de planeación…
4:49 Publico mexicano esperando la comicon
5:00 Uds están siendo pioneros…
5:16 Eventos anteriores
6:21 Javier Ibarreche, los urigañis del norte…
6:21 a 8:00 invitados confirmados
8:26 Dos por uno de ocesa
8:38 Todo mundo quiere una ComicCon pero no esta dispuesto a pagar por ello
9:50 Primer año,
22:46 fin de bloque
23:05 Reseña de juego: Outward Definitive Edition
26:22 a 42:50 Segundo bloque, discusión
43:00 Medios de contacto @indogeekmx en todos lados @accres94 @c_bits
43:43 Creditos

Lo que es polémico es tal vez la mención al minuto cinco, lo más curioso es que al final vienen los créditos y al inicio se presenta quien lleva la batuta José Saucedo, quien tiene una larga experiencia en el medio…

Una cosa que les doy lata en la Cobacha es que mencionen quien habla y como contactarlo al menos al inicio y al final, este capítulo es una muestra de porqué se necesita hacer, no sé muy bien quien integra el panel salvo José Saucedo y el invitado Rodrigo Chavez lider de marketing de CCPX, rascandole parece que quien hace la intervención es Axel Amezquita de Reporte Indigo/IGN/Plubimetro/Badgame (https://www.reporteindigo.com/author/axel-amezquita/)

Yo me enteré por esta publicación:

En fin que hasta yendo a la wikipedia a buscar editorial vid uno puede leer lo siguiente:

«Es de destacar que grandes personalidades y autores de la Industria del Cómic y de la Ciencia Ficción se dieron cita en ellas, incluyendo a Dennis O´Neil, entonces el Editor de los títulos de Batman para DC Comics, y dibujantes y escritores como Dan Jurgens (La Muerte de Superman), Jon Bogdanove, Louise Simonson o Todd McFarlane (creador de Spawn).»

Enlace a la versión consultada https://es.wikipedia.org/w/index.php?title=Grupo_Editorial_Vid&oldid=157274740

Pero se me ocurren muchos más, en la CONQUE, leyendo en este mismo blog en Utopia2003 [1], Mole y más, ahora si decimos que panel como los de ComicCon, tampoco es tan cierto en Conque, en la RocaPoca, en la feria de la historieta (al igual que algunas pifias como la saga de hades, cuando era BTx lo que vendían circa 1998) [1.5] y otros eventos ha habido primicias, en el IPN han habido excelentes conferencias [2], en el Colmex  de la cual hay video [3] y por supuesto la propia reseña de la Mecyf [4], Conque [5], Mole 2000 [6]

[1] https://animeproject.org/2003/12/utopia-2003/

[1.5] https://animeproject.org/ap/hades.htm

[2] https://animeproject.org/2016/02/la-gran-revolucion-cultural-invisible-que-fueron-los-anos-80-por-eiji-otsuka/

[3] https://animeproject.org/2004/03/dos-mulas-japonesas-entre-burros-blancos/

[4] https://blografia.net/vicm3/1998/05/la-mecyf/

[5] https://animeproject.org/ap/conque2001.htm y https://animeproject.org/ap/conque99.htm

[6] https://animeproject.org/ap/mole2000.htm

by vicm3 at April 25, 2024 12:13 AM

April 09, 2024

Gwolf

Think outside the box • Welcome Eclipse!

Now that we are back from our six month period in Argentina, we decided to adopt a kitten, to bring more diversity into our lives. Perhaps this little girl will teach us to think outside the box!

Yesterday we witnessed a solar eclipse — Mexico City was not in the totality range (we reached ~80%), but it was a great experience to go with the kids. A couple dozen thousand people gathered for a massive picnic in las islas, the main area inside our university campus.

Afterwards, we went briefly back home, then crossed the city to fetch the little kitten. Of course, the kids were unanimous: Her name is Eclipse.

April 09, 2024 04:38 PM

March 18, 2024

Gwolf

After miniDebConf Santa Fe

Last week we held our promised miniDebConf in Santa Fe City, Santa Fe province, Argentina — just across the river from Paraná, where I have spent almost six beautiful months I will never forget.

Around 500 Kilometers North from Buenos Aires, Santa Fe and Paraná are separated by the beautiful and majestic Paraná river, which flows from Brazil, marks the Eastern border of Paraguay, and continues within Argentina as the heart of the litoral region of the country, until it merges with the Uruguay river (you guessed right — the river marking the Eastern border of Argentina, first with Brazil and then with Uruguay), and they become the Río de la Plata.

This was a short miniDebConf: we were lent the APUL union’s building for the weekend (thank you very much!); during Saturday, we had a cycle of talks, and on sunday we had more of a hacklab logic, having some unstructured time to work each on their own projects, and to talk and have a good time together.

We were five Debian people attending: {santiago|debacle|eamanu|dererk|gwolf}@debian.org. My main contact to kickstart organization was Martín Bayo. Martín was for many years the leader of the Technical Degree on Free Software at Universidad Nacional del Litoral, where I was also a teacher for several years. Together with Leo Martínez, also a teacher at the tecnicatura, they contacted us with Guillermo and Gabriela, from the APUL non-teaching-staff union of said university.

We had the following set of talks (for which there is a promise to get electronic record, as APUL was kind enough to record them! of course, I will push them to our usual conference video archiving service as soon as I get them)

Hour Title (Spanish) Title (English) Presented by
10:00-10:25 Introducción al Software Libre Introduction to Free Software Martín Bayo
10:30-10:55 Debian y su comunidad Debian and its community Emanuel Arias
11:00-11:25 ¿Por qué sigo contribuyendo a Debian después de 20 años? Why am I still contributing to Debian after 20 years? Santiago Ruano
11:30-11:55 Mi identidad y el proyecto Debian: ¿Qué es el llavero OpenPGP y por qué? My identity and the Debian project: What is the OpenPGP keyring and why? Gunnar Wolf
12:00-13:00 Explorando las masculinidades en el contexto del Software Libre Exploring masculinities in the context of Free Software Gora Ortiz Fuentes - José Francisco Ferro
13:00-14:30 Lunch    
14:30-14:55 Debian para el día a día Debian for our every day Leonardo Martínez
15:00-15:25 Debian en las Raspberry Pi Debian in the Raspberry Pi Gunnar Wolf
15:30-15:55 Device Trees Device Trees Lisandro Damián Nicanor Perez Meyer (videoconferencia)
16:00-16:25 Python en Debian Python in Debian Emmanuel Arias
16:30-16:55 Debian y XMPP en la medición de viento para la energía eólica Debian and XMPP for wind measuring for eolic energy Martin Borgert

As it always happens… DebConf, miniDebConf and other Debian-related activities are always fun, always productive, always a great opportunity to meet again our decades-long friends. Lets see what comes next!

March 18, 2024 04:00 AM

March 14, 2024

Victor Martínez

Blogs en seminario especializado

No hace mucho un día que tuvimos asamblea y luego movilización me pidieron apoyar con una clase de maestría, con un tema que he tratado durante bastante tiempo y mi recomendación fue un tanto aprovechar la cámara del teléfono para añadir un toque personal a sus entradas en lugar de imágenes prediseñadas.

Ese día no había red, así que una hora y cuarto de datos con el cel en teams me sorprendió lo bien que van los estudiantes (algunos que ya había escuchado en el seminario de la línea).

Mis notas para la sesión

Mi escritorio

by vicm3 at March 14, 2024 11:17 PM

March 13, 2024

Victor Martínez

Porque seguir

Esta entrada ya existe con todo y foto se llama mañana tal vez.

Y la puse en 2016, hoy me parece tan importante como entonces

«Mañana tal vez tenga que sentarme frente a mis hijos y decirles que fuimos derrotados, que no supimos como hacer para ganar. Pero no podría mirarlos a los ojos y decirles que ellos viven así. Porque yo no me anime a luchar.»

Y usted perdone, pero hay muchas cosas que no se arreglan solo pidiendolas de buen modo… hay ocasiones que hay que incomodar y moverse y mover a los demás para poder resolver lo que no tendria porque estar mal en primer lugar.

Tambien lo pensé recien… hay quien dedica la vida a apagar incendios y no se lleva ni un gracias y son los bomberos que son voluntarios… y pensando en mi propia historia, casi que soy bombero y voluntario, aunque no este en una estación…

 

by vicm3 at March 13, 2024 03:23 AM

Mas consignas

Alarma, alarma,

De este a oeste, de norte a sur ganaremos esta lucha, cueste lo que cueste

No que no, si que si ya volvimos a salir…

No somos uno, no somos diez, autoridad cuéntanos bien

Sectores unidos, jamás serán vencidos

Estudiante (docente|trabajador|ciudadano|miron) consciente se une al contingente

Ese apoyo si se ve!

PPSA, PPSA, EI EA, Educar para transformar, educar para liberar, !Pedagogica Nacional! (que recién cambiaron pero me gusta más esta porque ya no tenemos EA, Educación de Jóvenes y Adultos)

by vicm3 at March 13, 2024 03:16 AM

March 07, 2024

Gwolf

Constructed truths — truth and knowledge in a post-truth world

This post is a review for Computing Reviews for Constructed truths — truth and knowledge in a post-truth world , a book published in Springer Link

Many of us grew up used to having some news sources we could implicitly trust, such as well-positioned newspapers and radio or TV news programs. We knew they would only hire responsible journalists rather than risk diluting public trust and losing their brand’s value. However, with the advent of the Internet and social media, we are witnessing what has been termed the “post-truth” phenomenon. The undeniable freedom that horizontal communication has given us automatically brings with it the emergence of filter bubbles and echo chambers, and truth seems to become a group belief.

Contrary to my original expectations, the core topic of the book is not about how current-day media brings about post-truth mindsets. Instead it goes into a much deeper philosophical debate: What is truth? Does truth exist by itself, objectively, or is it a social construct? If activists with different political leanings debate a given subject, is it even possible for them to understand the same points for debate, or do they truly experience parallel realities?

The author wrote this book clearly prompted by the unprecedented events that took place in 2020, as the COVID-19 crisis forced humanity into isolation and online communication. Donald Trump is explicitly and repeatedly presented throughout the book as an example of an actor that took advantage of the distortions caused by post-truth.

The first chapter frames the narrative from the perspective of information flow over the last several decades, on how the emergence of horizontal, uncensored communication free of editorial oversight started empowering the “netizens” and created a temporary information flow utopia. But soon afterwards, “algorithmic gatekeepers” started appearing, creating a set of personalized distortions on reality; users started getting news aligned to what they already showed interest in. This led to an increase in polarization and the growth of narrative-framing-specific communities that served as echo chambers for disjoint views on reality. This led to the growth of conspiracy theories and, necessarily, to the science denial and pseudoscience that reached unimaginable peaks during the COVID-19 crisis. Finally, when readers decide based on completely subjective criteria whether a scientific theory such as global warming is true or propaganda, or question what most traditional news outlets present as facts, we face the phenomenon known as “fake news.” Fake news leads to “post-truth,” a state where it is impossible to distinguish between truth and falsehood, and serves only a rhetorical function, making rational discourse impossible.

Toward the end of the first chapter, the tone of writing quickly turns away from describing developments in the spread of news and facts over the last decades and quickly goes deep into philosophy, into the very thorny subject pursued by said discipline for millennia: How can “truth” be defined? Can different perspectives bring about different truth values for any given idea? Does truth depend on the observer, on their knowledge of facts, on their moral compass or in their honest opinions?

Zoglauer dives into epistemology, following various thinkers’ ideas on what can be understood as truth: constructivism (whether knowledge and truth values can be learnt by an individual building from their personal experience), objectivity (whether experiences, and thus truth, are universal, or whether they are naturally individual), and whether we can proclaim something to be true when it corresponds to reality. For the final chapter, he dives into the role information and knowledge play in assigning and understanding truth value, as well as the value of second-hand knowledge: Do we really “own” knowledge because we can look up facts online (even if we carefully check the sources)? Can I, without any medical training, diagnose a sickness and treatment by honestly and carefully looking up its symptoms in medical databases?

Wrapping up, while I very much enjoyed reading this book, I must confess it is completely different from what I expected. This book digs much more into the abstract than into information flow in modern society, or the impact on early 2020s politics as its editorial description suggests. At 160 pages, the book is not a heavy read, and Zoglauer’s writing style is easy to follow, even across the potentially very deep topics it presents. Its main readership is not necessarily computing practitioners or academics. However, for people trying to better understand epistemology through its expressions in the modern world, it will be a very worthy read.

March 07, 2024 01:08 AM

February 23, 2024

Gwolf

10 things software developers should learn about learning

This post is a review for Computing Reviews for 10 things software developers should learn about learning , a article published in Communications of the ACM

As software developers, we understand the detailed workings of the different components of our computer systems. And–probably due to how computers were presented since their appearance as “digital brains” in the 1940s–we sometimes believe we can transpose that knowledge to how our biological brains work, be it as learners or as problem solvers. This article aims at making the reader understand several mechanisms related to how learning and problem solving actually work in our brains. It focuses on helping expert developers convey knowledge to new learners, as well as learners who need to get up to speed and “start coding.” The article’s narrative revolves around software developers, but much of what it presents can be applied to different problem domains.

The article takes this mission through ten points, with roughly the same space given to each of them, starting with wrong assumptions many people have about the similarities between computers and our brains. The first section, “Human Memory Is Not Made of Bits,” explains the brain processes of remembering as a way of strengthening the force of a memory (“reconsolidation”) and the role of activation in related network pathways. The second section, “Human Memory Is Composed of One Limited and One Unlimited System,” goes on to explain the organization of memories in the brain between long-term memory (functionally limitless, permanent storage) and working memory (storing little amounts of information used for solving a problem at hand). However, the focus soon shifts to how experience in knowledge leads to different ways of using the same concepts, the importance of going from abstract to concrete knowledge applications and back, and the role of skills repetition over time.

Toward the end of the article, the focus shifts from the mechanical act of learning to expertise. Section 6, “The Internet Has Not Made Learning Obsolete,” emphasizes that problem solving is not just putting together the pieces of a puzzle; searching online for solutions to a problem does not activate the neural pathways that would get fired up otherwise. The final sections tackle the differences that expertise brings to play when teaching or training a newcomer: the same tools that help the beginner’s productivity as “training wheels” will often hamper the expert user’s as their knowledge has become automated.

The article is written with a very informal and easy-to-read tone and vocabulary, and brings forward several issues that might seem like commonsense but do ring bells when it comes to my own experiences both as a software developer and as a teacher. The article closes by suggesting several books that further expand on the issues it brings forward. While I could not identify a single focus or thesis with which to characterize this article, the several points it makes will likely help readers better understand (and bring forward to consciousness) mental processes often taken for granted, and consider often-overlooked aspects when transmitting knowledge to newcomers.

February 23, 2024 01:56 AM

February 12, 2024

Gwolf

Heads up! A miniDebConf is approaching in Santa Fe, Argentina

I realize it’s a bit late to start publicly organizing this, but… better late than never 😉 I’m happy some Debian people I have directly contacted have already expressed interest. So, lets make this public!

For all interested people who are reasonably close to central Argentina, or can be persuaded to come here in a month’s time… You are all welcome!

It seems I managed to convince my good friend Martín Bayo (some Debian people will remember him, as he was present in DebConf19 in Curitiba, Brazil) to get some facilities for us to have a nice Debian get-together in Central Argentina.

Where?

We will meet at APUL — Asociación de Personal no-docente de la Universidad Nacional del Litoral, in downtown Santa Fe, Argentina.

When?

Saturday, 2024.03.09. It is quite likely we can get some spaces for continuing over Sunday if there is demand.

What are we planning?

We have little time for planning… but we want to have a space for Debian-related outreach (so, please think about a topic or two you’d like to share with general free software-interested, not too technical, audience). Please tell me by mail (gwolf@debian.org) about any ideas you might have.

We also want to have a general hacklab-style area to hang out, work a bit in our projects, and spend a good time together.

Logistics

I have briefly commented about this with our dear and always mighty DPL, and Debian will support Debian-related people interested in attending; please check personally with me for specifics on how to handle this case by case. My intention is to cover costs for travel, accomodation (one or two nights) and food for whoever is interested in coming over.

More information

As I don’t want to direct people to keep an eye on my blog post for updates, I’ll copy this information (and keep it updated!) at the Debian Wiki / DebianEvents / ar / 2024 / MiniDebConf / Santa Fe — please refer to that page!

Contact

Codes of Conduct

DebConf and Debian Code of Conduct apply.

See the DebConf Code of Conduct and the Debian Code of Conduct.

Registration

Registration is free, but needed. See the separate Registration page.

Talks

Please, send your proposal to gwolf@debian.org

February 12, 2024 12:03 AM

February 08, 2024

Victor Martínez

Estafas y WhatsApp

WhatsApp

¿Por qué alguien se interesa en comprometer una cuenta de whats?, porque una estafa común es el pedir una trasferencia de dinero por la noche argumentando que están en problemas económicos, en otra ciudad o como favor personal, este dinero por supuesto una vez transferido esta perdido.

Pero a continuación nos dicen que recibamos una llamada de Amazon/DHL/Estafeta u otra por whats o sms porque no lo puede recibir en ese momento por cualquier razón, esta llamada o mensaje nos mandara un número, este es el de autorización para mover nuestro whats a otro teléfono, para poder realizar de nuevo la estafa a nuevos contactos y repetir el proceso nuevamente.

Un par de consejos, si nos pide alguno de nuestros contactos que le prestemos dinero, confirmar por teléfono y no llamada de WhatsApp que nos está solicitando y la razón.

Si recibimos números por sms o por parte de WhatsApp o por llamada no compartirlo con terceros, aunque afirmen trabajar para WhatsApp /banci/servicio de salud.

Una forma de evitar este tipo de estafa  es activar la autentificación en dos pasos de preferencia con un nip para que aun si perdiera mos el control de nuestro whats no pueda ser utilizado por un tercero y de esta fir. A lo podamos recuperar.

Es mejor prevenir qué lamentar para apoyar qué hacer en caso de cuenta robada (1), autentificación en dos pasos (2) seguridad (3) buenas practicas (4).

1. https://faq.whatsapp.com/1131652977717250/

2. https://faq.whatsapp.com/1278661612895630/?helpref=faq_content

3. https://faq.whatsapp.com/1095301557782068/?helpref=faq_content

4. https://faq.whatsapp.com/1313491802751163/?helpref=faq_content

 

by vicm3 at February 08, 2024 06:42 PM

January 20, 2024

Gwolf

Ruffle helps bring back my family history

Probably a trait of my family’s origins as migrants from East Europe, probably part of the collective trauma of jews throughout the world… or probably because that’s just who I turned out to be, I hold in high regard the preservation of memory of my family’s photos, movies and such items. And it’s a trait shared by many people in my familiar group.

Shortly after my grandmother died 24 years ago, my mother did a large, loving work of digitalization and restoration of my grandparent’s photos. Sadly, the higher resolution copies of said photos is lost… but she took the work of not just scanning the photos, but assembling them in presentations, telling a story, introducing my older relatives, many of them missing 40 or more years before my birth.

But said presentations were built using Flash. Right, not my choice of tool, and I told her back in the day — but given I wasn’t around to do the work in what I’d chosen (a standards-abiding format, naturally), and given my graphic design skills are nonexistant… Several years ago, when Adobe pulled the plug on the Flash format, we realized they would no longer be accessible. I managed to get the photos out of the preentations, but lost the narration, that is a great part of the work.

Three days ago, however, I read a post on https://www.osnews.com that made me jump to action: https://www.osnews.com/story/138350/ruffle-an-open-source-flash-player-emulator/.

Ruffle is an open source Flash Player emulator, written in Rust and compiled to WASM. Even though several OSnews readers report it to be buggy to play some Flash games they long for, it worked just fine for a simple slideshow presentator.

So… I managed to bring it back to life! Yes, I’d like to make a better index page, but that will come later 😉

I am now happy and proud to share with you:

Acariciando la ausencia: Familia Iszaevich Fajerstein, 1900–2000

(which would be roughly translated as Caressing the absence: Iszaevich Fajerstein family, 1900-2000).

January 20, 2024 06:17 PM

A deep learning technique for intrusion detection system using a recurrent neural networks based framework

This post is a review for Computing Reviews for A deep learning technique for intrusion detection system using a recurrent neural networks based framework , a article published in Computer Communications

So let’s assume you already know and understand that artificial intelligence’s main building blocks are perceptrons, that is, mathematical models of neurons. And you know that, while a single perceptron is too limited to get “interesting” information from, very interesting structures–neural networks–can be built with them. You also understand that neural networks can be “trained” with large datasets, and you can get them to become quite efficient and accurate classifiers for data comparable to your dataset. Finally, you are interested in applying this knowledge to defensive network security, particularly in choosing the right recurrent neural network (RNN) framework to create an intrusion detection system (IDS). Are you still with me? Good! This paper might be right for you!

The paper builds on a robust and well-written introduction and related work sections to arrive at explaining in detail what characterizes a RNN, the focus of this work, among other configurations also known as neural networks, and why they are particularly suited for machine learning (ML) tasks. RNNs must be trained for each problem domain, and publicly available datasets are commonly used for such tasks. The authors present two labeled datasets representing normal and hostile network data, identified according to different criteria: NSL-KDD and UNSW-NB15. They proceed to show a framework to analyze and compare different RNNs and run them against said datasets, segmented for separate training and validation phases, compare results, and finally select the best available model for the task–measuring both training speed as well as classification accuracy.

The paper is quite heavy due to both its domain-specific terminology–many acronyms are used throughout the text–and its use of mathematical notation, both to explain specific properties of each of the RNN types and for explaining the preprocessing carried out for feature normalization and selection. This is partly what led me to start the first paragraph by assuming that we, as readers, already understand a large body of material if we are to fully follow the text. The paper does begin by explaining its core technologies, but quickly ramps up and might get too technical for nonexpert readers.

It is undeniably an interesting and valuable read, showing the state of the art in IDS and ML-assisted technologies. It does not detail any specific technology applying its findings, but we will probably find the information conveyed here soon enough in industry publications.

January 20, 2024 05:42 PM

January 01, 2024

Diario de un Mexicano en Japon

Certificación en kanji

Seguramente muchos de ustedes conocen o han escuchado hablar de la prueba de aptitud en el idioma japonés, mejor conocida como JLPT por sus siglas en inglés. Para los estudiantes de ese idioma, aprobar el nivel 1 es al mismo tiempo una meta y un sueño.

Aquí no me refiero a ésa.

Existe una prueba para certificarse en conocimiento de kanji, llamada 漢字検定 (Kanji Kentei) que los japoneses pueden presentar para tener un certificado que avala el conocimiento hasta el nivel aprobado.

La prueba tiene 12 niveles, siendo el 10 el más bajo y el 1 el más alto; entre el 3 y el 2 hay un nivel intermedio llamado 準2級 (jun 2 kyu), que se puede traducir como “semi-nivel 2”, y otro entre el 2 y el 1 llamado 準1級 (jun 1 kyu). Para ponerlos en contexto, en Japón se usan cotidianamente 2136 kanji, llamados 常用漢字 (jouyou kanji, “kanji de uso común”), y esos son cubiertos hasta el nivel 2 de la certificación. El nivel 1 requiere un conocimiento extenso de kanji, incluidos los poco comunes, los raramente utilizados, y otros que en mi vida había visto, pues la certificación abarca un total de 6000 kanji. Huelga decir que es extremadamente difícil aun para los japoneses.

En la escuela de mi hijo mayor abrieron la convocatoria para presentar el examen de certificación ahí mismo, y para alentar a mi hijo a qué la tomara, también yo le entré. Sé que mi nivel de kanji es bueno, pero hay muchas expresiones, palabras, refranes y modismos que todavía no conozco, por lo que aunque en lectura y escritura estoy seguro de aprobar, no es lo único que preguntan. Así que decidí presentar un nivel que fuera un reto aceptable, y el nivel 4 cumplía ese objetivo.

Me puse a estudiar en serio durante un par de meses. Compré un par de libros para prepararme y también me puse a usar un software para Nintendo 3DS especial para prepararse para el examen. Incluso hice transmisiones en vivo de mis sesiones de estudio en mi canal de YouTube. Acá la última:

Presenté el examen, y el resultado fue:

Aprobado 😀

No hay prisa. Sé que puedo leer y escribir kanji a más alto nivel, pero para la certificación tengo que estudiar y tener todo “al tiro”, así que para la próxima, me lanzaré por el nivel 3. Curiosamente, fue una buena manera de motivarme a volver a estudiar japonés en forma, porque aunque desde hace mucho tiempo realmente no tengo problemas con el idioma, la verdad es que de vez en cuando sí se me van kanji al momento de escribir porque estoy más acostumbrado a usar la computadora o el teléfono, y ahí se muestran las diferentes opciones que hay cuando escribes una palabra, lo cual facilita el proceso de escribir porque solamente tienes que reconocer los kanji que quieres usar, sin necesidad de escribirlos a mano.

Otro reto más para este 2024

The post Certificación en kanji first appeared on ¡Un mexicano en Japón!.

by Manuel at January 01, 2024 06:52 AM

December 31, 2023

Diario de un Mexicano en Japon

¡Feliz 2024!

El año del dragón según el calendario chino.

Mucho que hacer este año, y muchos cambios ya planeados y decididos para el primer trimestre. Se va a poner bueno el reto.

Deseo que este año sea mucho mejor que todos los anteriores. Vamos a echarle ganas para que las cosas no queden por nosotros.

A darle pues.

The post ¡Feliz 2024! first appeared on ¡Un mexicano en Japón!.

by Manuel at December 31, 2023 03:00 PM

El 2023 en un kanji

El año se pasó volando. La vida de adulto me alcanzó a agarrar por completo este año y no pude actualizar este sitio como habría querido. Al menos sé que fue por mis responsabilidades y no por flojera o decidia.

Dicho lo anterior, hasta hace un par de meses mi selección de kanji para este año era una, pero después de ciertos eventos que ya mencionaré aquí un poco más adelante, hubo que hacer muchos cambios y tomar muchas decisiones. Por ello, el kanji que mejor describe mi 2023 es el siguiente:

Lecturas: 決(き)める、けつ

El kanji significa “decidir”, y por ello está en palabras como 決心、決断、決意. Y es que de plano los últimos dos meses fueron de muchas decisiones que tuvieron que ser tomadas bajo circunstancias no del todo planeadas. No fueron decisiones malas o precipitadas, pero sí fueron hechas antes de tiempo. Ya hablaré más al respecto cuando llegue el momento (nada más que termine los escritos). Además, refleja también la decisión que tomé sobre cómo enfrentar al 2024 y los retos que me presentará.

El kanji del 2023 en Japón

El kanji elegido este año por los japoneses fue:

Con decirles el significado se imaginarán por qué fue seleccionado. Significa “impuesto”. Y es que este año estuvo lleno de modificaciones a impuestos, con las que muchos japoneses no están del todo de acuerdo.

Así termina el 2023. Para mí, fue año tranquilo a excepción de noviembre y diciembre, que fueron una montaña rusa de emociones, esfuerzo y mucha fuerza de voluntad.

Pasen todos un excelente fin de año. Nos leemos en el 2024

The post El 2023 en un kanji first appeared on ¡Un mexicano en Japón!.

by Manuel at December 31, 2023 12:00 AM

December 29, 2023

Diario de un Mexicano en Japon

Recapitulando 2023 – Parte 1

¡Hola blog! Tanto tiempo sin leernos.

Vamos directo al grano. ¿Qué ha pasado en todo este tiempo? Creo que es el periodo más largo que he dejado de escribir desde que inició este sitio hace poco más de 19 años, así que me toca exponer en detalle.

La vida de adulto. Sí, eso fue lo que pasó y ha estado pasando. Parece meme, mentira o excusa barata, pero ya había hablado al respecto antes, solamente que ahora se puso en modo jarcor, y casi casi andaba pariendo chayotes.

Híjole, ¿por dónde comenzar?

Mis hijos están creciendo, lo cual es normal, pero la atención que el menor demanda es infinitamente mayor a la que el mayor requería cuando tenía esa edad. Yo era de las personas que decían que me había tocado suerte con mi hijo mayor porque en general nunca sentí que me pidiera ese nivel de atención (y vaya que pasaba mucho tiempo con él)… Bueno, pues parece que todo se juntó para con el menor. Sí, no voy a negar que la edad me ha hecho también no tener el mismo nivel de paciencia que hace 5 años, pero cuando me pongo a pensar que hasta a mi esposa la ha sacado de quicio y cada uno de nosotros ahora sí pide, o mejor dicho, exige “tiempo fuera” para al menos respirar un rato sin tener al lado al menor diciendo “mamá” o “papá”, me doy cuenta que ambos estamos totalmente exhaustos, y que sí, necesitamos vacaciones sin niños.

Obviamente el crecimiento de los niños ha traído nuevas y maravillosas experiencias que, aun con el cansancio expresado anteriormente, me recuerdan la dicha que es ser padre, y al mismo tiempo me hace respetar al 100% a las personas que deciden no serlo, y también me hacen entender por completo lo chido que es ser tío (o lo que será ser abuelo en su momento) ya que nada más tienes que ver el lado “bonito” de los chamacos, y cuando se portan mal o hay que regañarlos, le pasas la batuta a los papás y te quitas del apuro.

El caso es que debido a esa demanda de atención de ambos de mis hijos, he tenido que ser todavía más selectivo en las actividades que hago, y a la que no le di mucha prioridad fue precisamente al blog, no porque no quisiera, sino porque sabía que me costaría trabajo sentarme a escribir sabiendo que un solo escrito me tomaría varios días, si no es que semanas, en poder concluirlo, y como que, al menos durante el verano y parte del otoño, nomás no se me antojaba del todo. En contraste, le di mucha más atención a los videojuegos, que se volvieron a convertir en la válvula de escape para todo el estrés generado por los altibajos de la vida cotidiana.

Pero, huelga decir, eso no fue lo único. Y aquí vienen los chismes. Y ya ni conté las veces en las que intenté escribir lo que sigue y terminé borrándolo porque no me gustaba el resultado, el tono, o simplemente decía “no, creo que todavía no”. Con todo, hay partes que no terminaron de gustarme, pero si seguía así definitivamente nunca iba a terminar.

Trabajo

Ah, la situación laboral. La gente de México en la actualidad se enfrenta a la horrible tradición de “ponerse la camiseta” y a lidiar con jefes o empresas que definitivamente no valen la pena, pero que terminan siendo muchas veces la única opción viable en lo que a trabajar se refiere. Y miren que después de haber estado 20 años ya por acá he visto desde fuera cómo las empresas y patrones mexicanos han cambiado la cultura laboral del país y se han prácticamente institucionalizado las horas nalga, las horas extra gratis, la exigencia de propinas, la disponibilidad 24/7, etc., etc. Sin embargo, en todos lados se cuecen habas, y Japón no es la excepción. Ya lo expresé de forma por demás detallada en el escrito titulado “Luz”, y hay incontables historias en internet sobre lo excesivo de la cultura laboral japonesa y las peripecias por las que uno pasa por provenir de otra cultura.

Por razones más personales que otra cosa, rara vez comento sobre la empresa en la que estoy actualmente trabajando. No se trata ni de ocultar, ni de vanagloriar, ni de quemar a nadie. Es simplemente parte de la vida personal que no necesariamente tengo que compartir, y al mismo tiempo es por respeto a la misma compañía, pero secreto no es. Incluso con todo lo que me pasó en la empresa para la que trabajaba en la que pasó todo lo que comento en el escrito “Luz” arriba mencionado, no escribí al respecto hasta tiempo después, y miren que tuve mucho, pero mucho que contar, y preferí hacerlo de un jalón (nada más dense una vuelta para que vean qué tan largo es ese escrito). 

En esta primera de dos partes voy a hablar un poco sobre el trabajo anterior al actual. En la siguiente voy a detallar sobre el trabajo actual.

Para no perder la costumbre, vamos a llamar a las empresas con letras griegas. Las letras del abecedario, al menos en este blog, están destinadas solamente para personas (ver “Amor en los tiempos del sushi” para referencia).

  • Empresa del escrito “Luz”: Eta. Y no, no es albur
  • Empresa anterior a la actual: Theta
  • Empresa actual: Iota

La historia en Theta, resumida lo más brevemente posible

Después de prácticamente huir de Eta (en serio, no es albur), esperaba que el trato a recibir en Theta fuera al menos un poco mejor. Total, había tocado fondo ya, y nada parecía poder acercarse siquiera a lo que viví en Eta.

Para mi buena fortuna, la cultura laboral en Theta resultó ser muchísimo mejor de lo que pude haber imaginado, sobre todo por el hecho de ser una empresa 100% japonesa, y de tener a muy pocos extranjeros trabajando. Desde el simple hecho de respetar las horas de salida, de pedir horas extra solamente cuando era realmente necesario, hasta la camaradería que sentía en el equipo, Theta resultó ser el cielo que buscaba después del infierno vivido en Eta (última vez que repito que no es albur :P).

Ahora bien, como la gran mayoría de los lectores se puede imaginar, el lugar no era perfecto. Uno de los principales problemas de los que acaecían en Theta eran de administración, pero no de un departamento en específico, sino en el trabajo que se supone que querían que hiciera. Y no era el único: dentro de la empresa estaba otro doctor, de origen finlandés, que ya había vivido la falta de administración hacia él. Siendo mucho más específico, más que falta de administración era falta de conocimiento de lo que querían que nosotros dos hiciéramos. El finlandés, a quien llamaré M, tenía ya varios años laborando ahí; pertenecía al equipo de investigación, y yo entré al equipo de desarrollo. Fui contratado con la idea de que haría trabajo de procesamiento de lenguaje natural (al que denominaré NLP, por sus siglas en inglés) porque la empresa tenía historia de hacerlo en conjunto con profesores de diferentes universidades de Japón, además de tener varios papers publicados en diferentes revistas especializadas, pero la mayoría de esos papers eran en cuestiones estadísticas, y esto era porque el equipo de investigación era precisamente sobre estadística aplicada a datos referentes a educación. M no venía específicamente de NLP ni de estadística, pero sí de una carrera referente a computación, y además de haber acudido a diversas conferencias nacionales e internacionales, había estado como co-autor de un paper relativo a NLP publicado cuando ya era él parte de Theta.

En resumen: la empresa no sabía realmente dónde ponerme. Mis conocimientos y experiencia en programación me ayudaban mucho para estar en el equipo de desarrollo y hacerla de ingeniero en sistemas, pero, aunque ya me habían dicho que habría trabajo como tal desde antes de contratarme,  la verdad es que yo había entrado ahí con una idea un poco diferente: pensaba que estaría con el equipo de investigación, y de vez en cuando ayudaría al área de desarrollo. Cuando entré, me pusieron inmediatamente en el equipo de desarrollo.

Ni modo. Venía huyendo de una empresa bastante estricta y de un jefe totalmente tóxico, así que lo menos que podía hacer era no quejarme. Ya habría oportunidad después de intentar cambiar de equipo.

Entre otras cosas que hice al inicio, la que más recuerdo es trabajar con un código ESPANTOSO en C#, hecho por un contratista. El código es de lo peor que he visto en todos los años que tengo desde la universidad hasta la actualidad: un spaghetti de más de 12,000 líneas de código que lo único que tenía estructurado eran los nombres de las funciones y las clases, porque el contenido de ellas era como para que mis maestros de la universidad le dijeran que tenía que repetir el semestre. Al principio no entendía por qué nadie quería meterse con ese código, hasta que me lo aventaron a mí y no tuve opción de decir que no. Descubrí la misteriosa causa que hacía que el código “a veces” tronara como ejote y “a veces” funcionara “”””bien”””” (noten el número de comillas), reporté el problema y lo arreglé (si les interesa saber más a detalle, déjenme un comentario y con gusto les respondo), además de darle forma al programa para que al menos fuera posible navegar a través de él sin perder cabello de la desesperación de no entender ni una pizca de lo que se supone que tenía que hacer. ¿Documentación en el código? 99% inexistente. No, no, no. Palabras no me alcanzan para describir el horror de haber visto, y sobre todo trabajado, con esa monstruosidad. Es más, si me hubieran dicho que el código fue hecho por un becario que todavía estaba en la universidad, le habría dado comentarios positivos por el esfuerzo realizado y me habría ofrecido a ayudarlo a mejorar. Pero lo que me parecía totalmente inexplicable es el hecho de que NADIE en la empresa había sido capaz de alzar la voz, reportar problemas con el código o de plano entrarle a arreglarlo; muchos lo vieron y todos corrieron. No culpo al contratista: nadie le dijo nada nunca y él seguía haciendo su chamba; las cosas salían, con un programa no optimizado y después de varios intentos, pero salían, y mientras hubiera resultados, la empresa estaba “feliz” y le continuaba pagando.

Después, mi conocimiento de Java hizo que me metieran al desarrollo y mantenimiento del sistema principal de la compañía, el cual tenía un código claro y conciso, además de tener suficiente documentación como para entender por qué habían elegido hacer tal o cual cosa. El problema era que mucho del código base había sido creado por los que ahora eran los mánagers en la empresa, y aunque todos tenían conocimientos sólidos en programación, ninguno lo tenía concretamente en Java, por lo que se aventaban “a pata” funciones o algoritmos para los que Java ya tenía una librería especializada o mejores y más robustas funciones; por ejemplo: el manejo de String. El código parecía más bien C, pero estaba bien hecho y estructurado, y salvo pequeñas optimizaciones, realmente hacerle un refactoring era innecesario.

Estuve 2 años trabajando exclusivamente con la gente de desarrollo, en los cuales tuve que trabajar con un equipo de contratistas que muy celosamente guardaban su “secreto” de un framework de PHP que habían creado ellos mismos y del que la empresa dependía enormemente. Mis jefes quisieron que “educara” en él, pero los contratistas se portaron por demás herméticos, no respondían mis preguntas, o si lo hacían, era de forma vaga. No los culpo: era su mina de oro. Era evidente cuando no tenían trabajo porque se la pasaban leyendo noticias en internet sin importar que todos los demás vieran que no estaban haciendo nada. Sacaban la chamba, y eso era lo que importaba.

Después de eso, fue un periodo más raro: eran pocas las tareas que me, o contando a mi colega finlandés, nos asignaban, lo que nos puso en una posición bastante extraña y cómoda a la vez: prácticamente nos pagaban por no hacer nada. Las juntas semanales eran nada más para escuchar a los que sí hacían investigación. ¿Nosotros? Nada que reportar, nada que nos fuera asignado. Es más, era tan evidente la forma en la que nos ignoraban que una vez me pidieron que investigara la forma de implementar un motor de búsqueda para uso interno de la compañía. Levanté un prototipo usando Apache Solr y le dije a la entonces mi mánager que lo revisara… Bueno, es momento en el que todavía sigo esperando esa revisión.

Creo que duré así más o menos un año. Literalmente me pagaban por ir a sentarme. Pero eso no significa que me la pasé todo el año sin hacer nada: aproveché el tiempo para tomar cursos en línea, actualizarme en mi área y ver las nuevas tendencias en ella.

Tiempo después, nos llevaron a un lugar donde había muchísima gente calificando exámenes (la empresa manejaba datos referentes a educación), y cuando vi lo que estaban haciendo, comenté que podrían ahorrar mucho dinero si automatizaban eso, porque la tecnología para reconocer escritos a mano ya existía. Alguien de “arriba” tomó el comentario en serio y se pusieron a investigar, y dado que teníamos muchos, pero muchos datos, no tomó mucho tiempo en que crearon una empresa subsidiaria que se dedicaría a aplicar inteligencia artificial a esos datos. El primer proyecto, como se pueden imaginar, era precisamente el de crear un sistema de reconocimiento de texto escrito a mano, y comenzó con un viaje que hice a Singapur para conocer a los otros miembros del equipo con el que trabajaría.

Lo que pasó después de eso y hasta que me cambié de trabajo lo dejo para otro escrito, porque definitivamente merece especial detalle. Solamente mencionaré que estuve en Theta por espacio de 6 años y medio.

Iota

Entré a trabajar en Iota en abril de 2019, en medio de mucha, pero exageradamente mucha incertidumbre y ansiedad de mi parte. Los últimos meses en Theta fueron por demás estresantes, por lo que comencé a buscar trabajo, a tener entrevistas y a rechazar ofertas en las que me pagarían menos de lo que percibía en ese entonces. La verdad no pensé dar el ancho cuando vi que en Iota buscaban personal con mi perfil, pero decidí de todas formas intentar, y al final fui el elegido entre un número de candidatos que nunca supe cuántos fueron (pero según la empresa había varios). Y digo “incertidumbre” y “ansiedad” precisamente porque pensé que era un fraude, que en pocos meses me despedirían por incompetente, y todo lo que el famoso “síndrome del impostor” conlleva.

Iota representaba un gran reto para mí, especialmente porque es una empresa de capital extranjero, lo que significaba que tendría que volverme a acostumbrar al estilo de trabajo “no japonés”. No era una tarea fácil: en Japón te acostumbran a que los superiores (léase “jefes”) siempre tienen la razón, a que la productividad es generalmente muy baja y a que tardan eternidades en tomar decisiones porque se pasan la bolita unos a otros para evitar tener responsabilidades. Pero a la vez, como trabajador, tienes mucha protección una vez que te conviertes en “Seishain”, es decir, en empleado de tiempo completo; una de ellas es que es muy difícil que te despidan (por lo general te presionan para que tú renuncies). Total, que tenía miedo, y poco a poco se comenzaba a “cocinar” el estado mental que me llevó a caer en depresión.

La empresa realmente ofrecía múltiples ventajas en comparación con las compañías japoneses que conocía y en las que había trabajado: 

  • Muchos más días de vacaciones al año
  • Horario relativamente flexible
  • “Snacks” y bebidas gratis
  • Comida gratis cada viernes (todo el equipo salía a comer y la cuenta la pagaba la empresa)
  • Facilidad para tomar días libres
  • Flexibilidad en las herramientas a utilizar

Obviamente había altibajos, y me tomó una buena cantidad de tiempo acostumbrarme. La empresa siempre se mostró comprensiva con las situaciones de cada empleado, y yo no era la excepción: se portaron muy bien con lo que tuve que vivir durante el embarazo de mi segundo hijo, recibí mucho apoyo moral cuando estuve en el peor momento de la depresión, no había problema en cambiar las horas de trabajo para poder atender pendientes de la casa. En fin, la verdad parecía que estaba viviendo un sueño, y lo mejor era que, en teoría, iba a estar en mi área, pues fui contratado bajo el título de Senior NLP Researcher.

Todo estuvo bien durante 4 años y medio… hasta octubre de este año.

En la siguiente parte relataré lo sucedido en los últimos meses.

The post Recapitulando 2023 – Parte 1 first appeared on ¡Un mexicano en Japón!.

by Manuel at December 29, 2023 07:05 AM

December 27, 2023

Victor Martínez

Migrando mi disco de arranque

No tengo conectado el SSD que tenía como arranque para compararlo, mi home lo tengo en sdb y mi almacenamiento masivo en sda ambos HDD el primero de 7200RPM y el segundo de 5425RPM todo movido usando Clonezilla [1], que en realidad pude usar dd o gparted pero me dio fiaca, este es mi desktop en casa.

tostador:~# hdparm -tT /dev/sda

/dev/sda:
Timing cached reads: 18472 MB in 1.99 seconds = 9295.67 MB/sec
Timing buffered disk reads: 566 MB in 3.01 seconds = 188.27 MB/sec

tostador:~# hdparm -tT /dev/sdb

/dev/sdb:
Timing cached reads: 19562 MB in 1.99 seconds = 9850.27 MB/sec
Timing buffered disk reads: 446 MB in 3.01 seconds = 148.21 MB/sec

tostador:~# hdparm -tT /dev/nvme0

/dev/nvme0n1p1:
Timing cached reads: 19778 MB in 1.99 seconds = 9958.08 MB/sec
Timing buffered disk reads: 5676 MB in 3.00 seconds = 1891.21 MB/sec

tostador:~# smartctl -i /dev/nvme0
smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.0-16-amd64] (local build)
Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Number: KINGSTON SNV2S500G
Firmware Version: SBI02102
PCI Vendor/Subsystem ID: 0x2646
IEEE OUI Identifier: 0x0026b7
Controller ID: 1
NVMe Version: 1.4
Number of Namespaces: 1
Namespace 1 Size/Capacity: 500,107,862,016 [500 GB]
Namespace 1 Formatted LBA Size: 512
Local Time is: Wed Dec 27 17:14:15 2023 CST

tostador:~# smartctl -i /dev/sda
smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.0-16-amd64] (local build)
Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family: Seagate BarraCuda 3.5 (CMR)
Device Model: ST2000DM006-2DM164
LU WWN Device Id: 5 000c50 0a2e1f4fd
Firmware Version: CC26
User Capacity: 2,000,398,934,016 bytes [2.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 7200 rpm
Form Factor: 3.5 inches
Device is: In smartctl database 7.3/5319
ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Dec 27 17:14:34 2023 CST
SMART support is: Available – device has SMART capability.
SMART support is: Enabled

tostador:~# smartctl -i /dev/sdb
smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.0-16-amd64] (local build)
Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family: Seagate BarraCuda 3.5 (SMR)
Device Model: ST8000DM004-2CX188
LU WWN Device Id: 5 000c50 0c2b452d2
Firmware Version: 0001
User Capacity: 8,001,563,222,016 bytes [8.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5425 rpm
Form Factor: 3.5 inches
Device is: In smartctl database 7.3/5319
ATA Version is: ACS-3 T13/2161-D revision 5
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Dec 27 17:14:37 2023 CST
SMART support is: Available – device has SMART capability.
SMART support is: Enabled

[1] http://www.clonezilla.org/

by vicm3 at December 27, 2023 11:20 PM