11 - Uberização e plataformização; IA e big data.


Onde está a tecnologia em meu cotidiano?

Como já mencionado múltiplas vezes nos outros artigos, sou um jovem que faz parte da geração Z, a primeira considerada “nativa digital”. Além disso, sou programador, então também sou mais imerso em tecnologia (no que se refere a aspectos técnicos) do que a maior parte da minha geração.

Com o conhecimento técnico básico, surgem as noções básicas de quais dados são geralmente úteis, bem como noções sobre quais dados provavelmente são coletados ao interagir com a tecnologia em meu cotidiano. É notável, entretanto, uma escalada vertiginosa na coleta de dados abusiva e de forma invasiva cometida por empresas nos últimos anos, tendencia iniciada sobretudo durante a pandemia - período no qual o distanciamento social aumentou significantemente a interação diária entre pessoas e dispositivos conectados.

Este aumento serviu para diversos propósitos, mas uma das consequências principais foi o aumento da influência social/política/econômica das big-techs, como era de se esperar, devido ao influxo em níveis nunca antes vistos de dados. Neste contexto, as big techs aumentaram em suas práticas abusivas de coleta de dados de tal forma que a privacidade e a não-coleta de dados de maneira invasiva se tornou um diferencial entre produtos, ao invés de algo tido como norma. O motivo disso é simples: dados são lucrativos.

Precarização do emprego e de código

Dados, no entanto, não se coletam sozinhos. Por trás de cada byte de informação coletado, existe um trabalho humano de um programador para que seja feita essa coleta (em anos mais recentes, IAs se desenvolveram muito, então é possível que em algumas ocasiões, IAs sejam responsáveis pela coleta de dados).

Não apenas em virtude da mais recente necessidade da coleta de dados, o trabalho de programação torna-se cada vez mais precarizado, em parte por conta da forma que estes dados são utilizados. A IA não apenas ocasiona em precarização profissional na área de desenvolvimento, e isso se dá em dois frontes.

Por um lado: líderes e gestores incompetentes e incapazes de conceber a noção de que um modelo matemático não é um ser humano, que tentam forçar uma substituição incabível de profissionais qualificados por máquinas - que não pensam, e não podem ser responsabilizadas pelas decisões que são tomadas. Um exemplo de decisão tomada por IA de forma indevida é o caso da demissão em massa no Itaú por baixa eficiência, eficiência essa que foi detectada por uma IA que detecatava cliques do mouse, sendo que existem editores de textos cujos diferenciais inteiros são o foco total obtido, por não utilizar o mouse, apenas o teclado, como o caso do neovim e do emacs. Também existem sistemas de janelas inteiros que são feitos para utilizar o mouse o mínimo possível, como é o caso do i3 e do Hyprland. Isso sem falar em scripts de automação que estes funcionários poderiam utilizar e que tornam um mouse obsoleto.

No fim, o uso de IA para tomada de decisão no lugar de uma pessoa apenas ocasionou em um layoff de aproximadamente 1000 pessoas, muitas das quais são alguns dos profissionais mais eficientes da empresa responsável pela demissão em massa, já que a métrica de eficiência é algo que eles optam por não fazer justamente para serem mais eficientes.

Por outro: a adoção da IA age como um câncer para a área da programação. Especialmente no que tange o quesito da segurança da informação, uma vez que o uso de inteligências artificiais é conhecido por ocasionar em falhas de segurança, como vazamento de chaves de API em código utilizado para o treinamento das IAs. Como elas nada mais são do que máquinas que replicam padrões, elas também replicam as falhas que são frequentes em códigos.

Some a isso o fato de que segundo os relatórios do github, responsáveis pelo copilot, cerca de 50% do código no github hoje em dia é escrito pelo copilot. Relatórios que comparam o cenário antes e depois da adoção em massa da IA explicitam uma clara redução na qualidade de código. O da gitclear, que adotou a maior codebase conhecida para fazer uma análise entre 2021 e 2023 do impacto da IA na qualidade do código revela que a quantidade de código que é disruptivo quanto às boas práticas (como DRY) aumentou, assim como o volume de código que apresenta vulnerabilidades.

Um resultado ainda mais alarmante pode ser retirado da mesma pesquisa: a quantidade de linhas de código que continham mudanças eram desfeitas ou alteradas menos de duas semanas após serem implementadas quase dobrou, quando observando o início da amostra de dados (janeiro de 2020) com o fim (dezembro de 2023), com a quantidade atingindo o dobro em 2024. Um claro indício de redução significativa na qualidade.

## Fontes https://www.jusbrasil.com.br/artigos/itau-demite-cerca-de-mil-funcionarios-apos-monitorar-cliques-ate-onde-vai-o-controle-do-empregador-no-home-office/4830594556

https://www.gitclear.com/coding_on_copilot_data_shows_ais_downward_pressure_on_code_quality

https://github.blog/news-insights/research/research-quantifying-github-copilots-impact-on-code-quality/