<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>Forem: Fátima I.S</title>
    <description>The latest articles on Forem by Fátima I.S (@kumichin).</description>
    <link>https://forem.com/kumichin</link>
    <image>
      <url>https://media2.dev.to/dynamic/image/width=90,height=90,fit=cover,gravity=auto,format=auto/https:%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Fuser%2Fprofile_image%2F3372473%2F3fce32eb-21b2-4cf5-adf1-7f3bac7331ac.jpg</url>
      <title>Forem: Fátima I.S</title>
      <link>https://forem.com/kumichin</link>
    </image>
    <atom:link rel="self" type="application/rss+xml" href="https://forem.com/feed/kumichin"/>
    <language>en</language>
    <item>
      <title>Analisis de ofertas de empleos relacionado con la IA (EE.UU, 2025)</title>
      <dc:creator>Fátima I.S</dc:creator>
      <pubDate>Fri, 01 Aug 2025 15:08:43 +0000</pubDate>
      <link>https://forem.com/kumichin/analisis-de-ofertas-de-empleos-relacionado-con-la-ia-eeuu-2025-4aal</link>
      <guid>https://forem.com/kumichin/analisis-de-ofertas-de-empleos-relacionado-con-la-ia-eeuu-2025-4aal</guid>
      <description>&lt;h1&gt;
  
  
  &lt;strong&gt;Imputación de salarios en datos de portales de empleo de IA con Random Forest&lt;/strong&gt;
&lt;/h1&gt;

&lt;p&gt;🐢 Hoy quiero compartir un proyecto en el que he estado trabajando últimamente. &lt;/p&gt;

&lt;p&gt;Me he propuesto ir mostrando proyectos de vez en cuando para mejorar mis habilidades y aprender nuevas cosas. Además, ¡un feedback me vendría genial para seguir creciendo!&lt;/p&gt;

&lt;p&gt;Soy consciente de que esto puede sonar directo, pero estoy en plena fase de mejora. Quien se dedica a lo técnico sabe que esto es un proceso constante de evolución, ¿no?&lt;/p&gt;

&lt;h2&gt;
  
  
  &lt;strong&gt;Contexto y objetivo&lt;/strong&gt;
&lt;/h2&gt;

&lt;p&gt;En este proyecto analicé una base de datos scrapeada de portales de empleo de EE.UU (obtenida de kaggle), centrada en puestos relacionados con IA (ingenieros de ML, científicos de datos, ingenieros de investigación, científicos aplicados, entre otros).&lt;/p&gt;

&lt;p&gt;La mayoría de los puestos tenían un seniority alto y especializaciones muy nicho.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;El objetivo principal&lt;/strong&gt; era analizar y sacar conclusiones sobre la tendencia de los empleos relacionados con la IA, los sueldos, los conocimientos técnicos que se están pidiendo en las ofertas y en definitiva tener una visión panorámica de a donde va evolucionando los empleos ligados a la IA. Pero me topé con 2 columnas importantes para el análisis pero con muchos nulos (cerca del 32%): tipo de jornada y salario. &lt;/p&gt;

&lt;h3&gt;
  
  
  Desafío: imputar jornada laboral
&lt;/h3&gt;

&lt;p&gt;Convertí todos los salarios a sueldo diario para estandarizar, y solo imputé salarios faltantes cuando &lt;strong&gt;la jornada dominante era clara (≥70%),&lt;/strong&gt; dejando el resto como desconocidos.&lt;/p&gt;

&lt;p&gt;Aqui muestro el bucle que usé para imputar por &lt;strong&gt;jornada dominante clara&lt;/strong&gt;&lt;br&gt;
&lt;/p&gt;

&lt;div class="highlight js-code-highlight"&gt;
&lt;pre class="highlight plaintext"&gt;&lt;code&gt;dominant_jobtypes ={}
threshold = 0.7

for position, row in jobtype_by_position.iterrows():
  top_jobtype = row.idxmax()
  top_freq = row.max()
  if top_freq &amp;gt;= threshold:
    dominant_jobtypes[position] = top_jobtype
&lt;/code&gt;&lt;/pre&gt;

&lt;/div&gt;



&lt;h3&gt;
  
  
  &lt;strong&gt;Desafío: imputar salarios faltantes&lt;/strong&gt;
&lt;/h3&gt;

&lt;p&gt;El 32% de los salarios estaban ausentes y formatos variados ( por dia, año, por contrato, intervalos...)&lt;br&gt;
Primero los unifique todo a un solo formato, busque el formato mayoritario para no manipular demaciado los datos y así evitar introducir demaciado ruido y una vez limpios, en formato numérico y en el mismo formato tocó solucionar los nulos.&lt;br&gt;
Tras barajar varias posibilidades al final me decidí por usar un modelo &lt;strong&gt;Random Forest&lt;/strong&gt; para imputarlos. Elegí este modelo porque:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Maneja bien relaciones no lineales&lt;/li&gt;
&lt;li&gt;Resiste outliers&lt;/li&gt;
&lt;li&gt;Permite obtener una visión aproximada, ya que no pretendía exactitud extrema (los sueldos dependen de muchos factores que no estaban en el dataset, como experiencia o especialización)
Entre otras ventajas que tiene&lt;/li&gt;
&lt;/ul&gt;

&lt;h3&gt;
  
  
  &lt;strong&gt;Proceso (resumido para no alargar mucho)&lt;/strong&gt;
&lt;/h3&gt;

&lt;ul&gt;
&lt;li&gt;Separé los datos en dos grupos: salarios conocidos y faltantes.&lt;/li&gt;
&lt;li&gt;Del grupo de conocidos, reservé un subconjunto para validación.&lt;/li&gt;
&lt;li&gt;Codifiqué variables categóricas usando ordinal encoding y target encoding con validación cruzada para evitar fugas de datos.&lt;/li&gt;
&lt;li&gt;Optimizé hiperparámetros con RandomizedSearchCV para mejorar el modelo.&lt;/li&gt;
&lt;li&gt;Evalué con métricas de regresión: MAE, RMSE y R². Dado que el salario es muy variable, estas métricas sirvieron para validar que el modelo capturaba tendencias generales.&lt;/li&gt;
&lt;li&gt;Finalmente, imputé los valores faltantes con las predicciones del modelo.&lt;/li&gt;
&lt;/ul&gt;

&lt;h3&gt;
  
  
  &lt;strong&gt;Lo que aprendí en este proyecto&lt;/strong&gt;
&lt;/h3&gt;

&lt;p&gt;Este proyecto fue una gran oportunidad para practicar:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Limpieza y preparación de datos&lt;/li&gt;
&lt;li&gt;Feature engineering&lt;/li&gt;
&lt;li&gt;Modelado con datos reales y complejos&lt;/li&gt;
&lt;li&gt;Manejo de incertidumbre en la imputación&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Además, el tema del dataset es muy interesante y relevante para entender el mercado laboral en IA.&lt;/p&gt;

&lt;p&gt;Puedes ver el proyecto completo y el código en mi &lt;a href="https://github.com/kumichin/Analisis-empleos-ia-2025/tree/main" rel="noopener noreferrer"&gt;Analisis empleos ia EE.UU, 2025&lt;/a&gt;.&lt;/p&gt;

&lt;p&gt;Os dejo un par de las gráficas que obtuve para el análisis:&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F57wwf0o2tazpwuf2kte0.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F57wwf0o2tazpwuf2kte0.png" alt=" " width="800" height="468"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Ffgvojiz5hc3sjw5s94ie.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Ffgvojiz5hc3sjw5s94ie.png" alt=" " width="800" height="468"&gt;&lt;/a&gt;&lt;/p&gt;

</description>
      <category>spanish</category>
      <category>datascience</category>
      <category>database</category>
      <category>programming</category>
    </item>
    <item>
      <title>10 Things I Thought Before Starting Data Science (And What I Really Learned)</title>
      <dc:creator>Fátima I.S</dc:creator>
      <pubDate>Wed, 23 Jul 2025 12:17:48 +0000</pubDate>
      <link>https://forem.com/kumichin/10-things-i-thought-before-starting-data-science-and-what-i-really-learned-55l5</link>
      <guid>https://forem.com/kumichin/10-things-i-thought-before-starting-data-science-and-what-i-really-learned-55l5</guid>
      <description>&lt;h3&gt;
  
  
  When &lt;strong&gt;I started learning Data Science&lt;/strong&gt;, I had a lot of preconceived ideas. Some of them helped me move forward, others left me quite confused. This path is fascinating, but it's also full of noise, myths, and oversimplifications that aren't always helpful.
&lt;/h3&gt;

&lt;p&gt;Today I’m sharing &lt;strong&gt;&lt;em&gt;10 beliefs&lt;/em&gt;&lt;/strong&gt; I had at the beginning, and what I learned as I moved forward. It's not a list of “mistakes”, but rather key learning moments. Because in the end, messing up is part of growing as a data scientist.&lt;/p&gt;

&lt;h4&gt;
  
  
  1. &lt;code&gt;I believed I had to master everything before starting to practice&lt;/code&gt;
&lt;/h4&gt;

&lt;p&gt;I was paralyzed by the feeling of not knowing enough. I thought I had to master &lt;strong&gt;Python&lt;/strong&gt;, &lt;strong&gt;statistics&lt;/strong&gt;, &lt;strong&gt;visualization&lt;/strong&gt;,** machine learning**… all of it, before tackling real projects.&lt;/p&gt;

&lt;p&gt;What I learned is that you learn way faster by doing than by waiting to “feel ready.” Practicing from day one—even with doubts—is what actually turns you into a professional.&lt;/p&gt;

&lt;h4&gt;
  
  
  2. &lt;code&gt;I thought a good model was the most important thing&lt;/code&gt;
&lt;/h4&gt;

&lt;p&gt;I focused on algorithms, accuracy, techniques… believing that was the core of my value.&lt;/p&gt;

&lt;p&gt;What I learned is &lt;strong&gt;that the model is just a part of the puzzle&lt;/strong&gt;. Truly understanding the problem, cleaning and transforming the data with intention, and communicating insights clearly is what really makes the difference.&lt;/p&gt;

&lt;h4&gt;
  
  
  3. &lt;code&gt;I believed plots were just visual extras&lt;/code&gt;
&lt;/h4&gt;

&lt;p&gt;I made charts because “you had to,” without really thinking about their purpose.&lt;/p&gt;

&lt;p&gt;I learned that &lt;strong&gt;&lt;em&gt;visualization is analysis&lt;/em&gt;&lt;/strong&gt;. Being able to see patterns, anomalies, correlations, or errors in charts changes your understanding of the problem entirely.&lt;/p&gt;

&lt;h4&gt;
  
  
  4. &lt;code&gt;I thought machine learning and AI were the same thing&lt;/code&gt;
&lt;/h4&gt;

&lt;p&gt;I used both terms interchangeably. They seemed like synonyms.&lt;/p&gt;

&lt;p&gt;What I learned is that &lt;strong&gt;&lt;em&gt;machine learning is only a part of AI&lt;/em&gt;&lt;/strong&gt;. There’s symbolic AI, logic-based systems, expert systems… and now LLMs. Understanding the difference gives you valuable perspective.&lt;/p&gt;

&lt;h4&gt;
  
  
  5. &lt;code&gt;I believed a data scientist was just someone who could code and build models&lt;/code&gt;
&lt;/h4&gt;

&lt;p&gt;I focused only on the technical side, thinking that was enough.&lt;/p&gt;

&lt;p&gt;What I learned is that you also need &lt;strong&gt;good judgment&lt;/strong&gt;, b*&lt;em&gt;usiness context&lt;/em&gt;&lt;em&gt;, **critical thinking&lt;/em&gt;&lt;em&gt;, and the **ability to explain complexity with clarity&lt;/em&gt;*. A true data scientist connects data with decisions.&lt;/p&gt;

&lt;h4&gt;
  
  
  6. &lt;code&gt;I thought complex models were always better&lt;/code&gt;
&lt;/h4&gt;

&lt;p&gt;I was fascinated by powerful models like &lt;strong&gt;XGBoost&lt;/strong&gt; or &lt;strong&gt;neural nets&lt;/strong&gt;, thinking they would always beat the simple ones.&lt;/p&gt;

&lt;p&gt;I learned that sometimes a well-thought-out &lt;strong&gt;regression&lt;/strong&gt; or a &lt;strong&gt;decision tree&lt;/strong&gt; can be more useful, more interpretable, and even more accurate—especially if your data doesn’t justify the complexity.&lt;/p&gt;

&lt;h4&gt;
  
  
  7. &lt;code&gt;I believed more data = better model&lt;/code&gt;
&lt;/h4&gt;

&lt;p&gt;I saw large datasets as an automatic advantage.&lt;/p&gt;

&lt;p&gt;What I learned is that if your data is messy, biased, or irrelevant, more volume only amplifies the problems. Quality matters more than quantity.&lt;/p&gt;

&lt;h4&gt;
  
  
  8. &lt;code&gt;I thought machine learning was just statistics&lt;/code&gt;
&lt;/h4&gt;

&lt;p&gt;I believed that if I understood statistics, I was halfway there.&lt;/p&gt;

&lt;p&gt;What I learned: you also need &lt;strong&gt;engineering&lt;/strong&gt;, &lt;strong&gt;software skills&lt;/strong&gt;, &lt;strong&gt;validation&lt;/strong&gt;, &lt;strong&gt;pipelines&lt;/strong&gt;, &lt;strong&gt;reproducibility&lt;/strong&gt;… and a whole lot of things that go beyond theory.&lt;/p&gt;

&lt;h4&gt;
  
  
  9. &lt;code&gt;I didn’t know what data leakage was&lt;/code&gt;
&lt;/h4&gt;

&lt;p&gt;When I got unrealistically good results, I just celebrated them.&lt;/p&gt;

&lt;p&gt;What I learned: if you train with information you shouldn’t have used, your model is useless. Knowing how to separate train, validation, and test isn’t a technical detail—it’s critical.&lt;/p&gt;

&lt;h4&gt;
  
  
  10. &lt;code&gt;I thought cross-validation always worked&lt;/code&gt;
&lt;/h4&gt;

&lt;p&gt;I used it by default without considering the type of data.&lt;/p&gt;

&lt;p&gt;What I learned is that, for example, with time series data, cross-validation can lead to totally wrong conclusions. Choosing the right validation strategy for your problem is part of the craft.&lt;/p&gt;

&lt;h3&gt;
  
  
  The bottom line is that every one of these points helped me grow, even if they frustrated me at first. And I’m sure I’ll keep changing my mind about many things, because that’s part of deep learning too.
&lt;/h3&gt;

&lt;p&gt;&lt;a href="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fe03ynrvlatb7fyyk6vk1.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media2.dev.to/dynamic/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fe03ynrvlatb7fyyk6vk1.png" alt=" " width="800" height="436"&gt;&lt;/a&gt;I’m not sharing this to give advice, but to show that even missteps—if you reflect on them—can bring you closer to your best self as a data professional.&lt;/p&gt;

</description>
      <category>ai</category>
      <category>datascience</category>
      <category>programming</category>
      <category>learning</category>
    </item>
  </channel>
</rss>
