{"id":24332,"date":"2024-12-17T17:29:57","date_gmt":"2024-12-17T20:29:57","guid":{"rendered":"https:\/\/cofecon.org.br\/cofecon\/?p=24332"},"modified":"2024-12-17T17:29:59","modified_gmt":"2024-12-17T20:29:59","slug":"expansao-da-ia-corrida-regulatoria-e-responsabilidade-socioambiental","status":"publish","type":"post","link":"https:\/\/cofecon.org.br\/cofecon\/?p=24332","title":{"rendered":"Expans\u00e3o da IA, corrida regulat\u00f3ria e responsabilidade socioambiental"},"content":{"rendered":"\n<p><em>Artigo de opini\u00e3o escrito pelo economista Antonio Corr\u00eaa de Lacerda* e pela professora Mar\u00edlia Bassetti Marcato**, publicado originalmente no Jornal dos Economistas<\/em><\/p>\n\n\n\n<p>O r\u00e1pido crescimento do mercado de Intelig\u00eancia Artificial ocorre simultaneamente ao ressurgimento da pol\u00edtica de grandes pot\u00eancias, ao aprofundamento da crise na ordem global multilateral e \u00e0 influ\u00eancia crescente das gigantes da tecnologia nas rela\u00e7\u00f5es internacionais. A este cen\u00e1rio, soma-se uma quest\u00e3o premente: a expans\u00e3o da IA dever\u00e1 vir acompanhada de um amplo compromisso com a responsabilidade socioambiental.<\/p>\n\n\n\n<p>At\u00e9 o ano de 2030, o mercado global de Intelig\u00eancia Artificial deve superar a marca de US$ 1 trilh\u00e3o. As principais estimativas indicam que o mercado global gastou US$ 46 bilh\u00f5es em servidores de alto desempenho e servidores de IA generativa (aquela capaz n\u00e3o apenas de produzir textos, imagens e v\u00eddeos, mas tamb\u00e9m de fingir emo\u00e7\u00f5es e intimidade) em 2023, com previs\u00e3o de chegar a US$ 77,6 bilh\u00f5es em 20271.<\/p>\n\n\n\n<p>A busca pelo desenvolvimento de IA aut\u00f3ctone ressalta o papel cr\u00edtico da IA no refor\u00e7o da soberania tecnol\u00f3gica dos pa\u00edses e na redu\u00e7\u00e3o das depend\u00eancias estrat\u00e9gicas. No entanto, paira um grande ceticismo quanto \u00e0s estruturas de governan\u00e7a globais no campo da IA, tendo em vista as considera\u00e7\u00f5es \u00e9ticas e implica\u00e7\u00f5es de uso dual da tecnologia, bem como o comportamento predat\u00f3rio das big techs em um mercado cada vez mais concentrado.<\/p>\n\n\n\n<p>Big tech \u00e9 o termo amplamente utilizado para se referir \u00e0s gigantes da tecnologia, como Meta, Amazon, Apple, Google (Alphabet) e Microsoft, que exercem enorme poder econ\u00f4mico e cultural. Grande parte dessas empresas foi fundada a partir da d\u00e9cada de 1970: a Microsoft (1975), a Apple (1976), a Google (1998) \u2014 que mais tarde passou a integrar a Alphabet (2015) \u2014 e a Meta, que surgiu como Facebook no ano de 2004.<\/p>\n\n\n\n<p>Algo que chama a aten\u00e7\u00e3o no desenvolvimento e desempenho das big techs \u00e9 a disparidade entre a sua valoriza\u00e7\u00e3o de mercado relativamente \u00e0s empresas de setores tradicionais. O valor de mercado da Apple, por exemplo, conhecida pela concep\u00e7\u00e3o, design, desenvolvimento e comercializa\u00e7\u00e3o dos iPhones e perif\u00e9ricos, atingiu cerca de US$ 3,5 trilh\u00f5es, enquanto o valor de mercado da Foxconn, principal respons\u00e1vel pelas etapas manufatureiras dos mesmos aparelhos, chega a US$ 110 bilh\u00f5es.<br><\/p>\n\n\n\n<p>A atua\u00e7\u00e3o de tais empresas em mercados altamente concentrados tem levantado uma s\u00e9rie de discuss\u00f5es a respeito da facilita\u00e7\u00e3o de comportamentos predat\u00f3rios e dos potenciais danos associados. Nesse sentido, pode-se dizer que h\u00e1 uma maior consci\u00eancia dos riscos associados ao dom\u00ednio das plataformas digitais, ainda que n\u00e3o seja poss\u00edvel avistar atualmente uma converg\u00eancia em termos das propostas de pol\u00edtica para regulamentar as big techs e confrontar os problemas da economia digital.<br><br>O extraordin\u00e1rio crescimento da economia digital e a concentra\u00e7\u00e3o dos mercados de atua\u00e7\u00e3o das big techs tornaram a prote\u00e7\u00e3o de dados e a privacidade uma preocupa\u00e7\u00e3o central dos cidad\u00e3os e das autoridades reguladoras, internacionalmente. A relev\u00e2ncia emergente dos dados pessoais tornou-os um ativo de mercado. Embora reconhecido como direito fundamental, o uso de dados pessoais implica a prem\u00eancia de aprimoramento do aparato regulat\u00f3rio envolvido. Nesse sentido, a regula\u00e7\u00e3o da atua\u00e7\u00e3o das big techs, al\u00e9m de evitar o abuso de poder de mercado por parte das empresas, pode ser uma aliada como instrumento de prote\u00e7\u00e3o da privacidade e uso de dados nos mercados digitais.<br><br><\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"947\" height=\"578\" src=\"https:\/\/cofecon.org.br\/cofecon\/wp-content\/uploads\/2024\/12\/image.png\" alt=\"\" class=\"wp-image-24334\" style=\"width:619px;height:auto\"\/><\/figure><\/div>\n\n\n<p class=\"has-text-align-left\">                        <em>Fonte: CompaniesMarketCap.com.<\/em><\/p>\n\n\n\n<p>Atualmente, h\u00e1 uma corrida internacional para regulamentar o uso de IA. Nesse sentido, \u00e9 latente a necessidade de construir uma IA confi\u00e1vel e abordar os riscos gerados por usos espec\u00edficos de IA, tendo em vista que os sistemas de IA est\u00e3o em incessante transforma\u00e7\u00e3o e podem amplificar riscos ou desafios sociais de maneiras imprevistas. Dentre esses, est\u00e3o a exacerba\u00e7\u00e3o de desigualdades socioecon\u00f4micas, a exposi\u00e7\u00e3o de vulnerabilidades de seguran\u00e7a e a restri\u00e7\u00e3o do acesso a benef\u00edcios tecnol\u00f3gicos, al\u00e9m da monopoliza\u00e7\u00e3o do desenvolvimento tecnol\u00f3gico e inovativo de sistemas de IA.<\/p>\n\n\n\n<p>Em 2023, mais de sessenta pa\u00edses publicaram estrat\u00e9gias nacionais de IA. No n\u00edvel nacional, de acordo com um relat\u00f3rio da Universidade de Stanford de 2023, foram 37 projetos de lei relacionados \u00e0 IA aprovados por diferentes pa\u00edses em 2022. A maioria dessas regulamenta\u00e7\u00f5es n\u00e3o apenas exige melhor an\u00e1lise e compreens\u00e3o da IA e seus riscos e benef\u00edcios potenciais, mas tamb\u00e9m exige que os desenvolvedores de IA sejam responsabilizados pelas a\u00e7\u00f5es de suas inven\u00e7\u00f5es.<br><br>Nos Estados Unidos, v\u00e1rios documentos de orienta\u00e7\u00e3o e estruturas volunt\u00e1rias surgiram nos \u00faltimos anos, como a <em>Estrutura de Gerenciamento de Riscos de IA do Instituto Nacional de Padr\u00f5es e Tecnologia dos EUA (National Institute of Standards and Technology, Nist)<\/em>, publicada em janeiro de 2023, e o Projeto da Casa Branca para uma Declara\u00e7\u00e3o de Direitos de IA, um conjunto de princ\u00edpios de alto n\u00edvel emitido em outubro de 2023. Em fevereiro de 2024, Joe Biden nomeou Elizabeth Kelly como diretora do novo Instituto de Seguran\u00e7a de IA dos EUA (Usaisi) no Nist. Biden tamb\u00e9m anunciou a cria\u00e7\u00e3o do U.S. AI Safety Institute Consortium. Este cons\u00f3rcio reunir\u00e1 desenvolvedores de IA, pesquisadores, funcion\u00e1rios do governo, especialistas da ind\u00fastria e representantes da sociedade civil em apoio ao avan\u00e7o do desenvolvimento e implementa\u00e7\u00e3o de IA segura e confi\u00e1vel.<\/p>\n\n\n\n<p>A China demonstrou seu engajamento ativo na formula\u00e7\u00e3o de princ\u00edpios e regulamenta\u00e7\u00f5es para governar a IA, desde o Plano de Desenvolvimento de IA de Nova Gera\u00e7\u00e3o de 2017 e iniciativas conduzidas por especialistas, como os Princ\u00edpios de Governan\u00e7a para IA de Nova Gera\u00e7\u00e3o de 2019 at\u00e9, mais notavelmente, as Medidas de 2023 para a Gest\u00e3o de Servi\u00e7os de IA Generativa. Na Uni\u00e3o Europeia, a Lei de IA da Uni\u00e3o Europeia (UE) busca regular o uso de sistemas de IA com base em n\u00edveis de risco, refletindo um compromisso com o desenvolvimento respons\u00e1vel e centrado no ser humano da IA2. Com a Lei de IA, a UE visa a abordar tais riscos por meio de um conjunto de regras complementares, proporcionais e flex\u00edveis. A estrutura legal definida pela lei \u00e9 baseada em quatro n\u00edveis de risco e introduz regras dedicadas para modelos de IA de prop\u00f3sito geral.<\/p>\n\n\n\n<p>A UE v\u00ea o estabelecimento de um padr\u00e3o global por meio da Lei de IA da Uni\u00e3o Europeia como um objetivo fundamental, provocando discuss\u00f5es sobre uma corrida regulat\u00f3ria. Apesar da natureza inovadora da Lei de IA, ainda n\u00e3o se sabe como a UE navegar\u00e1 na intera\u00e7\u00e3o entre princ\u00edpios volunt\u00e1rios, c\u00f3digos de conduta, leis brandas, normas e regulamenta\u00e7\u00f5es vinculativas.<br><\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"774\" height=\"528\" src=\"https:\/\/cofecon.org.br\/cofecon\/wp-content\/uploads\/2024\/12\/image-1.png\" alt=\"\" class=\"wp-image-24335\" style=\"width:506px;height:auto\"\/><\/figure><\/div>\n\n\n<p>No \u00e2mbito da governan\u00e7a internacional, o desenvolvimento de IA Generativa levou a uma s\u00e9rie de novas iniciativas, incluindo o Processo de Hiroshima do G7 de 2023 da OCDE sobre IA Generativa. Em outubro de 2023, a ONU anunciou a cria\u00e7\u00e3o de um \u00d3rg\u00e3o Consultivo de IA para emitir orienta\u00e7\u00f5es sobre riscos, oportunidades e governan\u00e7a internacional da IA. Em novembro de 2023, o Reino Unido sediou a C\u00fapula de Seguran\u00e7a de IA, para estabelecer as bases para um regime global de seguran\u00e7a de IA. Como resultado, estabeleceu-se a Declara\u00e7\u00e3o de Bletchley, um compromisso conjunto de 28 governos e empresas l\u00edderes de IA que exigiu que modelos avan\u00e7ados de IA passassem por verifica\u00e7\u00f5es de seguran\u00e7a antes da implanta\u00e7\u00e3o.<\/p>\n\n\n\n<p>Para al\u00e9m do esfor\u00e7o internacional para avan\u00e7ar na regulamenta\u00e7\u00e3o da IA, a expans\u00e3o da IA possui um efeito imediato que deve ser observado com muito cuidado: o crescimento exponencial do volume de processamento de dados exige muita energia. Estima-se que, em 2022, os data centers tenham demandado entre 240 e 500 terawatts-hora de eletricidade, cerca de 1% a 2% do consumo mundial, segundo a The Economist. Somente as quatro big techs (Amazon, Google, Meta e Microsoft), respons\u00e1veis por 80% da capacidade de data centers de hiperescala em 2022, utilizaram 72 terawatt-horas de eletricidade em 2021, mais que o dobro do seu uso em 2017, segundo a Ag\u00eancia Internacional<br>de Energia (IEA).<\/p>\n\n\n\n<p>Portanto, criar a infraestrutura no entorno para abrigar esses data centers \u00e9 um problema global. Vale lembrar que muitos projetos tiveram de ser interrompidos por falta de capacidade para fornecimento de eletricidade. Diante desse quadro, as big techs querem ser protagonistas de iniciativas de descarboniza\u00e7\u00e3o. Com a expans\u00e3o da IA aliada \u00e0 necessidade de estabelecer um compromisso com a responsabilidade socioambiental, h\u00e1 uma grande oportunidade para o Brasil.<\/p>\n\n\n\n<p>No governo Lula 3, h\u00e1 um avan\u00e7o consider\u00e1vel no desenho das pol\u00edticas p\u00fablicas para transforma\u00e7\u00e3o digital que buscam induzir o desenvolvimento produtivo e tecnol\u00f3gico com responsabilidade socioambiental. Um exemplo relevante \u00e9 justamente a linha de financiamento para data centers lan\u00e7ada pelo BNDES, com cerca de R$ 2 bilh\u00f5es para apoiar a cria\u00e7\u00e3o de data centers alimentados com fontes de energia renov\u00e1veis e tendo em vista um par\u00e2metro de uso de recursos h\u00eddricos, priorizando as regi\u00f5es Norte e Nordeste.<br><br>Dada sua matriz energ\u00e9tica predominantemente limpa e renov\u00e1vel, o Brasil possui uma vantagem estrat\u00e9gica para liderar o desenvolvimento de uma infraestrutura de computa\u00e7\u00e3o mais sustent\u00e1vel para dar suporte ao desenvolvimento de IA. Dessa forma, a gera\u00e7\u00e3o distribu\u00edda mais sustent\u00e1vel \u00e9 seguramente um dos grandes apelos da economia brasileira. Resta saber, ainda, se o pa\u00eds conseguir\u00e1 se posicionar na corrida internacional para regulamentar o uso de IA.<\/p>\n\n\n\n<p><em>*  \u00c9 professora do IE\/UFRJ, vice-presidente da Associa\u00e7\u00e3o Keynesiana Brasileira e assessora da presid\u00eancia do BNDES. O artigo reflete a vis\u00e3o dos autores e n\u00e3o necessariamente a da institui\u00e7\u00e3o.<br><br>** \u00c9 economista, doutor pelo IE\/Unicamp, professor doutor do Programa de<br>P\u00f3s-gradua\u00e7\u00e3o em Economia da PUCSP, ex-presidente do Cofecon e assessor da<br>presid\u00eancia do BNDES. O artigo reflete a vis\u00e3o dos autores e n\u00e3o necessariamente<br>a da institui\u00e7\u00e3o.<\/em><br><br><em>1 <a href=\"https:\/\/ised-isde.canada.ca\/site\/ised\/en\/public-consultations\/consultations-artificial-intelligence-ai-compute\">https:\/\/ised-isde.canada.ca\/site\/ised\/en\/public-consultations\/consultation-artificialintelligence-<br>ai-compute<\/a>.<br>2 <a href=\"https:\/\/carnegieendowment.org\/research\/2024\/03\/charting-the-geopolitics-and-european-governance-of-artificial-intelligence?lang=en&amp;center=europe\">https:\/\/carnegieendowment.org\/research\/2024\/03\/charting-the-geopolitics-andeuropean-<br>governance-of-artificial-intelligence?lang=en&amp;center=europe<\/a>.<\/em><\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Artigo de opini\u00e3o escrito pelo economista Antonio Corr\u00eaa de Lacerda* e pela professora Mar\u00edlia Bassetti Marcato**, publicado originalmente no Jornal dos Economistas O r\u00e1pido crescimento do mercado de Intelig\u00eancia Artificial ocorre simultaneamente ao ressurgimento da pol\u00edtica de grandes pot\u00eancias, ao<\/p>\n<p><a class=\"more-link\" href=\"https:\/\/cofecon.org.br\/cofecon\/?p=24332\">Leia Mais<\/a><\/p>\n","protected":false},"author":3,"featured_media":24333,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[6],"tags":[],"class_list":["post-24332","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artigo"],"_links":{"self":[{"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=\/wp\/v2\/posts\/24332"}],"collection":[{"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=24332"}],"version-history":[{"count":1,"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=\/wp\/v2\/posts\/24332\/revisions"}],"predecessor-version":[{"id":24336,"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=\/wp\/v2\/posts\/24332\/revisions\/24336"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=\/wp\/v2\/media\/24333"}],"wp:attachment":[{"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=24332"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=24332"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cofecon.org.br\/cofecon\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=24332"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}