El futuro de la IA no tiene por qué ser distópico
La
IA puede utilizarse para aumentar la productividad humana, crear empleo
y prosperidad compartida, y proteger y reforzar las libertades
democráticas, pero sólo si modificamos nuestro enfoque.
Daron Acemoglu
- https://www.bostonreview.net/forum/ais-future-doesnt-have-to-be-dystopian/
Traducido despues....
Artificial Intelligence (AI) is not likely to make humans redundant. Nor will it create superintelligence anytime soon. But like it or not, AI technologies and intelligent systems will make huge advances in the next two decades—revolutionizing medicine, entertainment, and transport; transforming jobs and markets; enabling many new products and tools; and vastly increasing the amount of information that governments and companies have about individuals. Should we cherish and look forward to these developments, or fear them?
There are reasons to be concerned. Current AI research is too narrowly focused on making advances in a limited set of domains and pays insufficient attention to its disruptive effects on the very fabric of society. If AI technology continues to develop along its current path, it is likely to create social upheaval for at least two reasons. For one, AI will affect the future of jobs. Our current trajectory automates work to an excessive degree while refusing to invest in human productivity; further advances will displace workers and fail to create new opportunities (and, in the process, miss out on AI’s full potential to enhance productivity). For another, AI may undermine democracy and individual freedoms.
Each of these directions is alarming, and the two together are ominous. Shared prosperity and democratic political participation do not just critically reinforce each other: they are the two backbones of our modern society. Worse still, the weakening of democracy makes formulating solutions to the adverse labor market and distributional effects of AI much more difficult. These dangers have only multiplied during the COVID-19 crisis. Lockdowns, social distancing, and workers’ vulnerability to the virus have given an additional boost to the drive for automation, with the majority of U.S. businesses reporting plans for more automation.
None of this is inevitable, however. The direction of AI development is not preordained. It can be altered to increase human productivity, create jobs and shared prosperity, and protect and bolster democratic freedoms—if we modify our approach. In order to redirect AI research toward a more productive path, we need to look at AI funding and regulation, the norms and priorities of AI researchers, and the societal oversight guiding these technologies and their applications.
Our modern compact
The postwar era witnessed a bewildering array of social and economic changes. Many social scientists in the first half of the twentieth century predicted that modern economies would lead to rising inequality and discontent, ultimately degenerating into various types of authoritarian governments or endless chaos.
The events of the interwar years seemed to confirm these gloomy forecasts. But in postwar Western Europe and North America—and several other parts of the globe that adopted similar economic and political institutions—the tide turned. After 1945 industrialized nations came to experience some of their best decades in terms of economic growth and social cohesion—what the French called Les Trente Glorieuses, the thirty glorious years. And that growth was not only rapid but also broadly shared. Over the first three decades after World War II, wages grew rapidly for all workers in the United States, regardless of education, gender, age, or race. Though this era was not without its political problems (it coincided with civil rights struggles in the United States), democratic politics worked: there was quite a bit of bipartisanship when it came to legislation, and Americans felt that they had a voice in politics. These two aspects of the postwar era were critical for social peace—a large fraction of the population understood that they were benefiting from the economic system and felt they had a voice in how they were governed.
How did this relative harmony come about? Much of the credit goes to the trajectory of technological progress. The great economist John Maynard Keynes, who recognized the fragility of social peace in the face of economic hardship more astutely than most others, famously predicted in 1929 that economic growth would create increasing joblessness in the twentieth century. Keynes understood that there were tremendous opportunities for industrial automation—replacing human workers with machines—and concluded that declining demand for human labor was an ineluctable consequence of technological progress. As he put it: “We are being afflicted with a new disease of which . . . [readers] . . . will hear a great deal in the years to come—namely, technological unemployment.”
Yet the technologies of the next half century turned out to be rather different from what Keynes had forecast. Demand for human labor grew and then grew some more. Keynes wasn’t wrong about the forces of automation; mechanization of agriculture—substituting harvesters and tractors for human labor—caused massive dislocation and displacement for almost half of the workforce in the United States. Crucially, however, mechanization was accompanied by the introduction of new tasks, functions, and activities for humans. Agricultural mechanization was followed by rapid industrial automation, but this too was counterbalanced by other technological advances that created new tasks for workers. Today the majority of the workforce in all industrialized nations engages in tasks that did not exist when Keynes was writing (think of all the tasks involved in modern education, health care, communication, entertainment, back-office work, design, technical work on factory floors, and almost all of the service sector). Had it not been for these new tasks, Keynes would have been right. They not only spawned plentiful jobs but also generated demand for a diverse set of skills, underpinning the shared nature of modern economic growth.
Labor market institutions—such as minimum wages, collective bargaining, and regulations introducing worker protection—greatly contributed to shared prosperity. But without the more human-friendly aspects of technological change, they would not have generated broad-based wage growth. If there were rapid advances in automation technology and no other technologies generating employment opportunities for most workers, minimum wages and collective wage demands would have been met with yet more automation. However, when these institutional arrangements protecting and empowering workers coexist with technological changes increasing worker productivity, they encourage the creation of “good jobs”—secure jobs with high wages. It makes sense to build long-term relationships with workers and pay them high wages when they are rapidly becoming more productive. It also makes sense to create good jobs and invest in worker productivity when labor market institutions rule out the low-wage path. Hence, technologies boosting human productivity and labor market institutions protecting workers were mutually self-reinforcing.
Indeed, good jobs became a mainstay of many postwar economies, and one of the key reasons that millions of people felt they were getting their fair share from the growth process—even if their bosses and some businessmen were becoming fabulously rich in the process.
Why was technology fueling wage growth? Why didn’t it just automate jobs? Why was there a slew of new tasks and activities for workers, bolstering wage and employment growth? We don’t know for sure. Existing evidence suggests a number of factors that may have helped boost the demand for human labor. In the decades following World War II, U.S. businesses operated in a broadly competitive environment. The biggest conglomerates of the early twentieth century had been broken up by Progressive Era reforms, and those that became dominant in the second half of the century, such as AT&T, faced similar antitrust action. This competitive environment produced a ferocious appetite for new technologies, including those that raised worker productivity.
These productivity enhancements created just the type of advantage firms were pining for in order to surge ahead of their rivals. Technology was not a gift from the heavens, of course. Businesses invested heavily in technology and they benefited from government support. It wasn’t just the eager investments in higher education during the Sputnik era (lest the United States fall behind the Soviet Union). It was also the government’s role as a funding source, major purchaser of new technologies, and director and coordinator for research efforts. Via funding from the National Science Foundation, the National Institutes of Health, research and development tax credits, and perhaps even more importantly the Department of Defense, the government imprinted its long-term perspective on many of the iconic technologies of the era, including the Internet, computers, nanotechnology, biotech, antibiotics, sensors, and aviation technologies.
The United States also became more democratic during this period. Reforms during the Progressive and New Deal Eras reduced the direct control of large corporations and wealthy tycoons over the political process. The direct election of senators, enacted in 1913 in the 17th Amendment, was an important step in this process. Then came the cleaning up of machine politics in many northern cities, a process that took several decades in the first half of the century. Equally important was the civil rights movement, which ended some of the most undemocratic aspects of U.S. politics (even if this is still a work in progress). Of course, there were many fault lines, and not just Black Americans but many groups did not have sufficient voice in politics. All the same, when the political scientist Robert Dahl set out to investigate “who governs” local politics in New Haven, the answer wasn’t an established party or a well-defined elite. Power was pluralistic, and the involvement of regular people in politics was key for the governance of the city.
Democracy and shared prosperity thus bolstered each other during this epoch. Democratic politics strengthened labor market institutions protecting workers and efforts to increase worker productivity, while shared prosperity simultaneously increased the legitimacy of the democratic system. And this trend was robust: despite myriad cultural and institutional differences, Western Europe, Canada, and Japan followed remarkably similar trajectories to that of the United States, based on rapid productivity growth, shared prosperity, and democratic politics.
The world automation is making
We live in a very different world today. Wage growth since the late 1970s has been much slower than during the previous three decades. And this growth has been anything but shared. While wages for workers at the very top of the income distribution—those in the highest tenth percentile of earnings or those with postgraduate degrees—have continued to grow, workers with a high school diploma or less have seen their real earnings fall. Even college graduates have gone through lengthy periods of little real wage growth.
Many factors have played a role in this turnaround. The erosion of the real value of the minimum wage, which has fallen by more than 30 percent since 1968, has been instrumental in the wage declines at the bottom of the distribution. With the disappearance of trade unions from much of the private sector, wages also lagged behind productivity growth. Simultaneously, the enormous increase in trade with China led to the closure of many businesses and large job losses in low-tech manufacturing industries such as textiles, apparel, furniture, and toys. Equally defining has been the new direction of technological progress. While in the four decades after World War II automation and new tasks contributing to labor demand went hand-in-hand, a very different technological tableau began in the 1980s—a lot more automation and a lot less of everything else.
Automation acted as the handmaiden of inequality. New technologies primarily automated the more routine tasks in clerical occupations and on factory floors. This meant the demand and wages of workers specializing in blue-collar jobs and some clerical functions declined. Meanwhile professionals in managerial, engineering, finance, consulting, and design occupations flourished—both because they were essential to the success of new technologies and because they benefited from the automation of tasks that complemented their own work. As automation gathered pace, wage gaps between the top and the bottom of the income distribution magnified.
The causes of this broad pattern—more automation and less effort directed toward increasing worker productivity—are not well understood. To be sure, much of this predates AI. The rapid automation of routine jobs started with applications of computers, databases, and electronic communication in clerical jobs and with numerical control in manufacturing, and it accelerated with the spread of industrial robots. With breakthroughs in digital technologies, automation may have become technologically easier. However, equally (if not more) important are changes in policy and the institutional and policy environments. Government funding for research—especially the type of blue-sky research leading to the creation of new tasks—dried up. Labor market institutions that pushed for good jobs weakened. A handful of companies with business models focused on automation came to dominate the economy. And government tax policy started favoring capital and automation. Whatever the exact mechanisms, technology became less favorable to labor and more focused on automation.
AI is the next act in this play. The first serious research into AI started in the 1950s, with ambitious and, as it turned out, unrealistic goals. The AI pioneers keenly understood the power of computation and thought that creating intelligent machines was a challenging but achievable aspiration. Two of the early luminaries, Herbert Simon and Allen Newell, said in 1957 that “there are now in the world machines that think, that learn and that create. Moreover, their ability to do these things is going to increase rapidly until—in a visible future—the range of problems they can handle will be coextensive with the range to which the human mind has been applied.” But these hopes were soon dashed. It was one thing to program binary operations for fast computation—a task at which machines had well exceeded human capacities by the early 1950s. It was something completely different to have machines perform more complex tasks, including image recognition, classification, language processing, reasoning, and problem solving. The euphoria and funding for the field dwindled, and AI winter(s) followed.
In the 1990s AI won renewed enthusiasm, albeit with altered ambitions. Rather than having machines think and understand exactly like humans, the new aim was to use cheaply available computation power and the vast amounts of data collected by sensors, present in books and online, and voluntarily given by individuals. The breakthrough came when we figured out how to turn many of the services we wanted into prediction problems. Modern statistical methods, including various types of machine learning, could be applied to the newly available, large, unstructured datasets to perform prediction-based tasks cheaply and effectively. This meant that the path of least resistance for the economic applications of AI was (algorithmic) automation—adapting pattern recognition, object classification, and statistical prediction into applications that could take over many of the repetitive and simple cognitive tasks millions of workers were performing.
What started as an early trend became the norm. Many experts now forecast that the majority of occupations will be fundamentally affected by AI in the decades to come. AI will also replace more skilled tasks, especially in accounting, finance, medical diagnosis, and mid-level management. Nevertheless, current AI applications are still primarily replacing relatively simple tasks performed by low-wage workers.
The state of democracy and liberty
Alongside this story of economic woes, democracy hasn’t fared too well, either—across both the developed and the developing world. Three factors have been especially important for U.S. democracy over the last thirty years.
First, polarization has increased considerably. In the decades that followed World War II, U.S. lawmakers frequently crossed the aisle and supported bills from the other party. This rarely occurs today. Polarization makes effective policy-making much harder—legislation to deal with urgent challenges becomes harder to pass and, when it does pass, it lacks the necessary legitimacy. This was painfully obvious, for example, in the efforts to enact a comprehensive health care reform to control rising costs and provide coverage to millions of Americans who did not have access to health insurance.
Second, the traditional media model, with trusted and mostly balanced sources, came undone. Cable news networks and online news sources have rendered the electorate more polarized and less willing to listen to counterarguments, making democratic discourse and bipartisan policy-making even more difficult.
Third, the role of money in politics has increased by leaps and bounds. As political scientists Larry Bartels and Martin Gilens have documented, even before the fateful Supreme Court decision on Citizens United in 2010 opened the floodgates to corporate money, the richest Americans and the largest corporations had become disproportionately influential in shaping policy via lobbying efforts, campaign contributions, their outsized social status, and their close connections with politicians.
AI only magnified these fault lines. Though we are still very much in the early stages of the digital remaking of our politics and society, we can already see some of the consequences. AI-powered social media, including Facebook and Twitter, have already completely transformed political communication and debate. AI has enabled these platforms to target users with individualized messages and advertising. Even more ominously, social media has facilitated the spread of disinformation—contributing to polarization, lack of trust in institutions, and political rancor. The Cambridge Analytica scandal illustrates the dangers. The company acquired the private information of about 50 million individuals from data shared by around 270,000 Facebook users. It then used these data to design personalized and targeted political advertising in the Brexit referendum and the 2016 U.S. presidential election. Many more companies are now engaged in similar activities, with more sophisticated AI tools. Moreover, recent research suggests that standard algorithms used by social media sites such as Facebook reduce users’ exposure to posts from different points of view, further contributing to the polarization of the U.S. public.
Other emerging applications of AI may be even more threatening to democracy and liberty around the world. Basic pattern recognition techniques are already powerful enough to enable governments and companies to monitor individual behavior, political views, and communication. For example, the Chinese Communist Party has long relied on these technologies for identifying and stamping out online dissent and opposition, for mass surveillance, and for controlling political activity in parts of the country where there is widespread opposition to its rule (such as Xinjiang and Tibet). As Edward Snowden’s revelations laid bare, the U.S. government eagerly used similar techniques to collect massive amounts of data from the communications of both foreigners and American citizens. Spyware programs—such as Pegasus, developed by the Israeli firm NSO Group, and the Da Vinci and Galileo platforms of the Italian company Hacking Team—enable users to take control of the data of individuals thousands of miles away, break encryption, and remotely track private communications. Future AI capabilities will go far beyond these activities.
Another area of considerable concern is facial recognition, currently one of the most active fields of research within AI. Though facial recognition technology has legitimate uses in personal security and defense against terrorism, its commercial applications remain unproven. Much of the demand for this technology originates from mass surveillance programs.
With AI-powered technologies already able to collect information about individual behavior, track communications, and recognize faces and voices, it is not far-fetched to imagine that many governments will be better positioned to control dissent and discourage opposition. But the effects of these technologies may well go beyond silencing governments’ most vocal critics. With the knowledge that such technologies are monitoring their every behavior, individuals will be discouraged from voicing criticism and may gradually reduce their participation in civic organizations and political activity. And with the increasing use of AI in military technologies, governments may be further empowered to act (even more) despotically toward their own citizens—as well as more aggressively toward external foes.
Individual dissent is the mainstay of democracy and social liberty, so these potential developments and uses of AI technology should alarm us all.
The AI road not taken
Much of the diagnosis I have presented thus far is not new. Many decry the disruption that automation has already produced and is likely to cause in the future. Many are also concerned about the deleterious effects new technologies might have on individual liberty and democratic procedure. But the majority of these commentators view such concerns with a sense of inevitability—they believe that it is in the very nature of AI to accelerate automation and to enable governments and companies to control individuals’ behavior.
Yet society’s march toward joblessness and surveillance is not inevitable. The future of AI is still open and can take us in many different directions. If we end up with powerful tools of surveillance and ubiquitous automation (with not enough tasks left for humans to perform), it will be because we chose that path.
Where else could we go? Even though the majority of AI research has been targeted toward automation in the production domain, there are plenty of new pastures where AI could complement humans. It can increase human productivity most powerfully by creating new tasks and activities for workers.
Let me give a few examples. The first is education, an area where AI has penetrated surprisingly little thus far. Current developments, such as they are, go in the direction of automating teachers —for example, by implementing automated grading or online resources to replace core teaching tasks. But AI could also revolutionize education by empowering teachers to adapt their material to the needs and attitudes of diverse students in real time. We already know that what works for one individual in the classroom may not work for another; different students find different elements of learning challenging. AI in the classroom can make teaching more adaptive and student-centered, generate distinct new teaching tasks, and, in the process, increase the productivity of—and the demand for—teachers.
The situation is very similar in health care, although this field has already witnessed significant AI investment. Up to this point, however, there have been few attempts to use AI to provide new, real-time, adaptive services to patients by nurses, technicians, and doctors. Similarly, AI in the entertainment sector can go a long way toward creating new, productive tasks for workers. Intelligent systems can greatly facilitate human learning and training in most occupations and fields by making adaptive technical and contextual information available on demand. Finally, AI can be combined with augmented and virtual reality to provide new productive opportunities to workers in blue-collar and technical occupations. For example, it can enable them to achieve a higher degree of precision so that they can collaborate with robotics technology and perform integrated design tasks.
In all of these areas, AI can be a powerful tool for deploying the creativity, judgment, and flexibility of humans rather than simply automating their jobs. It can help us protect their privacy and freedom, too. Plenty of academic research shows how emerging technologies— differential privacy, adversarial neural cryptography, secure multi-party computation, and homomorphic encryption, to name a few—can protect privacy and detect security threats and snooping, but this research is still marginal to commercial products and services. There is also growing awareness among both the public and the AI community that new technologies can harm public discourse, freedom, and democracy. In this climate many are demanding a concerted effort to use AI for good. Nevertheless, it is remarkable how much of AI research still focuses on applications that automate jobs and increase the ability of governments and companies to monitor and manipulate individuals. This can and needs to change.
The market illusion
One objection to the argument I have developed is that it is unwise to mess with the market. Who are we to interfere with the innovations and technological breakthroughs the market is generating? Wouldn’t intervening sacrifice productivity growth and even risk our technological vibrancy? Aren’t we better off just letting the market mechanism deliver the best technologies and then use other tools, such as tax-based redistribution or universal basic income, to make sure that everybody benefits?
The answer is no, for several reasons. First, it isn’t clear that the market is doing a great job of selecting the right technologies. It is true that we are in the midst of a period of prodigious technological creativity, with new breakthroughs and applications invented every day. Yet Robert Solow’s thirty-year-old quip about computers—that they are “everywhere but in the productivity statistics”—is even more true today. Despite these mind-boggling inventions, current productivity growth is strikingly slow compared to the decades that followed World War II. This sluggishness is clear from the standard statistic that economists use for measuring how much the technological capability of the economy is expanding—the growth of total factor productivity (TFP). TFP growth answers a simple question: If we kept the amount of labor and capital resources we are using constant from one year to the next, and only our technological capabilities changed, how much would aggregate income grow? TFP growth in much of the industrialized world was rapid during the decades that followed World War II, and has fallen sharply since then. In the US, for example, the average TFP growth was close to 2 percent a year between 1920 and 1970, and has averaged only a little above 0.5 percent a year over the last three decades. So the case that the market is doing a fantastic job of expanding our productive capacity isn’t ironclad.
The argument that we should rely on the market for setting the direction of technological change is weak as well. In the terminology of economics, innovation creates significant positive “externalities”: when a company or a researcher innovates, much of the benefits accrue to others. This is doubly so for technologies that create new tasks. The beneficiaries are often workers whose wages increase (and new firms that later find the right organizational structures and come up with creative products to make use of these new tasks). But these benefits are not part of the calculus of innovating firms and researchers. Ordinary market forces—which fail to take account of externalities—may therefore deter the types of technologies that have the greatest social value.
This same reasoning is even more compelling when new products produce non-economic costs and benefits. Consider surveillance technologies. The demand for surveillance from repressive (and even some democratic-looking) governments may be great, generating plenty of financial incentives for firms and researchers to invest in facial recognition and snooping technologies. But the erosion of liberties is a notable non-economic cost that it is often not taken into account. A similar point holds for automation technologies: it is easy to ignore the vital role that good, secure, and high-paying jobs play in making people feel fulfilled. With all of these externalities, how can we assume that the market will get things right?
Market troubles multiply further still when there are competing technological paradigms, as in the field of AI. When one paradigm is ahead of the others, both researchers and companies are tempted to herd on that leading paradigm, even if another one is more productive. Consequently, when the wrong paradigm surges ahead, it becomes very difficult to switch to more promising alternatives.
Last but certainly not least, innovation responds not just to economic incentives but also to norms. What researchers find acceptable, exciting, and promising is not purely a function of economic reward. Social norms play a key role by shaping researchers’ aims as well as their moral compasses. And if the norms within the research area do not reflect our social objectives, the resulting technological change will not serve society’s best interests.
All of these reasons cast doubt on the wisdom of leaving the market to itself. What’s more, the measures that might be thought to compensate for a market left to itself—redistribution via taxes and the social safety net—are both insufficient and unlikely to work. We certainly need a better safety net. (The COVID-19 pandemic has made that even clearer.) But if we do not generate meaningful employment opportunities—and thus a viable social purpose—for most people in society, how can democracy work? And if democracy doesn’t work, how can we enact such redistributive measures—and how can we be sure that they will remain in place in the future?
Even worse, building shared prosperity based predominantly on redistribution is a fantasy. There is no doubt that redistribution—via a progressive tax system and a robust social safety net—has been an important pillar of shared prosperity in much of the twentieth century (and high-quality public education has been critical). But it has been a supporting pillar, not the main engine of shared prosperity. Jobs, and especially good jobs, have been much more central, bolstered by productivity growth and labor market institutions supporting high wages. We can see this most clearly from the experiences of Nordic countries, where productivity growth, job creation, and shared gains in the labor market have been the bulwark of their social democratic compact. Industry-level wage agreements between trade unions and business associations set an essentially fixed wage for the same job throughout an industry. These collective agreements produced high and broadly equal wages for workers in similar roles. More importantly, the system encouraged productivity growth and the creation of a plentiful supply of good jobs because, with wages largely fixed at the industry level, firms got to keep higher productivity as profits and had strong incentives to innovate and invest.
Who controls AI?
If we are going to redirect intelligent systems research, we first have to understand what determines the current direction of research. Who controls AI?
Of course, nobody single-handedly controls research, and nobody sets the direction of technological change. Nonetheless, compared to many other technological platforms—where we see support and leadership from different government agencies, academic researchers with diverse backgrounds and visions, and scores of research labs pushing in distinct directions—AI influence is concentrated in the hands of a few key players. A handful of tech giants, all focused on algorithmic automation—Google (Alphabet), Facebook, Amazon, Microsoft, Netflix, Ali Baba, and Baidu—account for the majority of money spent on AI research. (According to a recent McKinsey report, they are responsible for about $20 to $30 billion of the $26 to $39 billion in total private AI investment expenditures worldwide.) Government funding pales in comparison.
While hundreds of universities have vibrant, active departments and labs working on AI, machine learning, and big data, funding from major corporations shapes the direction of academic research, too. As government support for academic research has declined, corporations have come to play a more defining role in academic funding. Even more consequential might be the fact that there is now a revolving door between corporations and universities, with major researchers consulting for the private sector and periodically leaving their academic posts to take up positions in technology companies working on AI.
But the situation may actually be even worse, as leading technology companies are setting the agenda of research in three other significant ways. First, via both their academic relations and their philanthropic arms, tech companies are directly influencing the curriculum and AI fields at leading universities. Second, these companies and their charismatic founders and CEOs have loud voices in Washington, D.C., and in the priorities of funding agencies—the agencies that shape academic passions. Third, students wishing to specialize in AI-related fields often aspire to work for one of the major tech companies or for startups that are usually working on technologies that they can sell to these companies. Universities must respond to the priorities of their students, which means they are impelled to nourish connections with major tech companies.
This isn’t to say that thinking in the field of AI is completely uniform. In an area that attracts hundreds of thousands of bright minds, there will always be a diversity of opinions and approaches—and some who are deeply aware that AI research has social consequences and bears a social responsibility. Nevertheless, it is striking how infrequently AI researchers question the emphasis on automation. Too few researchers are using AI to create new jobs for humans or protect individuals from the surveillance of governments and companies.
How to redirect AI
These are troubling trends. But even if have convinced you that we need to redirect AI, how exactly can we do it?
The answer, I believe, lies in developing a three-pronged approach. Government policy, funding, and leadership are critical. These three prongs are well illustrated by past successes in redirecting technological change toward socially beneficial areas. For instance, in the context of energy generation and use, there have been tremendous advances in low- or zero-carbon emission technologies, even if we are still far away from stemming climate change. These advances owe much to three simultaneous and connected developments. First, government policies produced a measurement framework to understand the amount of carbon emitted by different types of activities and determine which technologies were clean. Based on this framework, government policy (at least in some countries) started taxing and limiting carbon emissions. Then, even more consequentially, governments used research funding and intellectual leadership to redirect technological change toward clean sources of energy—such as solar, wind, and geothermal—and innovations directly controlling greenhouse gas emissions. Second, all this coincided with a change in norms. Households became willing to pay more to reduce their own carbon footprint—for example, by purchasing electric vehicles or using clean sources of energy themselves. They also started putting social pressure on others to do the same. Even more consequential was households’ demands that their employers limit pollution. Third, all of this was underpinned by democratic oversight and pressure. Governments acted because voters insisted that they act; companies changed (even if in some instances these changes were illusory) because their employees and customers demanded change and because society at large turned the spotlight on them.
The same three-pronged approach can work in AI: government involvement, norms shifting, and democratic oversight.
First, government policy, funding, and leadership are critical. To begin with, we must remove policy distortions that encourage excessive automation and generate an inflated demand for surveillance technologies. Governments are the most important buyers of AI-based surveillance technologies. Even if it will be difficult to convince many security services to give up on these technologies, democratic oversight can force them to do so. As I already noted, government policy is also fueling the adoption and development of new automation technologies. For example, the U.S. tax code imposes tax rates around 25 percent on labor but less than 5 percent on equipment and software, effectively subsidizing corporations to install machinery and use software to automate work. Removing these distortionary incentives would go some way toward refocusing technological change away from automation. But it won’t be enough. We need a more active government role to support and coordinate research efforts toward the types of technologies that are most socially beneficial and that are most likely to be undersupplied by the market.
As with climate change, such an effort necessitates a clear focus on measuring and determining which types of AI applications are most beneficial. For surveillance and security technologies, it is feasible, if not completely straightforward, to define which technological applications will strengthen the ability of companies and authoritarian governments to snoop on people and manipulate their behavior. It may be harder in the area of automation—how do you distinguish an AI automation application from one that leads to new tasks and activities for humans? For government policy to redirect research, these guidelines need to be in place before the research is undertaken and technologies are adopted. This calls for a better measurement framework—a tall order, but not a hopeless task. Existing theoretical and empirical work on the effects of automation and new tasks shows that they have very distinct effects on the labor share of value added (meaning how much of the value added created by a firm or industry goes to labor). Greater automation reduces the labor share, while new tasks increase it. Measuring the sum of the work-related consequences of new AI technologies via their impact on the labor share is therefore one promising avenue. Based on this measurement framework, policy can support technologies that tend to increase the labor share rather than those boosting profits at the expense of labor.
Second, we must pay attention to norms. In the same way that millions of employees demand that their companies reduce their carbon footprint—or that many nuclear physicists would not be willing to work on developing nuclear weapons—AI researchers should become more aware of, more sensitive to, and more vocal about the social consequences of their actions. But the onus is not just on them. We all need to identify and agree on what types of AI applications contribute to our social ills. A clear consensus on these questions may then trigger self-reinforcing changes in norms as AI researchers and firms feel the social pressure from their families, friends, and society at large.
Third, all of this needs to be embedded in democratic governance. It is easier for the wrong path to persist when decisions are made without transparency and by a small group of companies, leaders, and researchers not held accountable to society. Democratic input and discourse are vital for breaking that cycle.
We are nowhere near a consensus on this, and changes in norms and democratic oversight remain a long way away. Nonetheless, such a transformation is not impossible. We may already be seeing the beginning of a social awakening. For example, NSO Group’s Pegasus technology grabbed headlines when it was used to hack of Amazon founder and owner Jeff Bezos’s phone, monitor Saudi dissidents, and surveil Mexican lawyers, UK-based human rights activists, and Moroccan journalists. The public took note. Public pressure forced Juliette Kayyem—a former Obama administration official, Harvard professor, and senior advisor to the NSO Group—to resign from her position with the spyware company and cancel a webinar on female journalist safety she planned to hold at Harvard. Public pressure also recently convinced IBM, Amazon, and Microsoft to temporarily stop selling facial recognition software to law enforcement because of evidence of these technologies’ racial and gender biases and their use in the tracking and deportation of immigrants. Such social action against prominent companies engaged in dubious practices, and the academics and experts working for them, is still the rare exception. But it can and should happen more often if we want to redirect our efforts toward better AI.
No
es probable que la Inteligencia Artificial (IA) haga innecesarios a los
humanos. Tampoco creará una superinteligencia a corto plazo. Pero nos
guste o no, las tecnologías de IA y los sistemas inteligentes harán
enormes avances en las próximas dos décadas, revolucionando la medicina,
el entretenimiento y el transporte; transformando empleos y mercados;
permitiendo muchos productos y herramientas nuevos; y aumentando
enormemente la cantidad de información que los gobiernos y las empresas
tienen sobre las personas. ¿Debemos apreciar y esperar estos avances, o
temerlos?
La investigación actual sobre IA se centra demasiado en los
avances en un conjunto limitado de ámbitos y no presta suficiente
atención a sus efectos perturbadores en el tejido mismo de la sociedad.
Hay
motivos para preocuparse. La investigación actual sobre IA está
demasiado centrada en lograr avances en un conjunto limitado de ámbitos y
no presta suficiente atención a sus efectos perturbadores en el tejido
mismo de la sociedad. Si la tecnología de la IA sigue desarrollándose
por el camino actual, es probable que provoque trastornos sociales al
menos por dos razones. En primer lugar, afectará al futuro del empleo.
Nuestra trayectoria actual automatiza el trabajo en un grado excesivo al
tiempo que rechaza invertir en la productividad humana; nuevos avances
desplazarán a los trabajadores y no crearán nuevas oportunidades (y, en
el proceso, desaprovecharán todo el potencial de la IA para mejorar la
productividad). Por otro lado, la IA puede socavar la democracia y las
libertades individuales.
Cada
una de estas direcciones es alarmante, y las dos juntas son ominosas.
La prosperidad compartida y la participación política democrática no
sólo se refuerzan mutuamente de forma crítica: son las dos columnas
vertebrales de nuestra sociedad moderna. Peor aún, el debilitamiento de
la democracia hace mucho más difícil la formulación de soluciones a los
efectos adversos de la IA sobre el mercado laboral y la distribución.
Estos peligros no han hecho sino multiplicarse durante la crisis de
COVID-19. Los cierres patronales, el distanciamiento social y la
vulnerabilidad de los trabajadores ante el virus han dado un impulso
adicional al impulso de la automatización, y la mayoría de las empresas
estadounidenses informan de planes para aumentar la automatización.
Sin
embargo, nada de esto es inevitable. La dirección del desarrollo de la
IA no está predeterminada. Puede modificarse para aumentar la
productividad humana, crear empleo y prosperidad compartida, y proteger y
reforzar las libertades democráticas, si modificamos nuestro enfoque.
Para reorientar la investigación de la IA hacia un camino más
productivo, tenemos que examinar la financiación y la regulación de la
IA, las normas y prioridades de los investigadores de la IA y la
supervisión social que guía estas tecnologías y sus aplicaciones.
Nuestro pacto moderno
La
posguerra fue testigo de un desconcertante abanico de cambios sociales y
económicos. Muchos científicos sociales de la primera mitad del siglo
XX predijeron que las economías modernas conducirían a un aumento de la
desigualdad y el descontento, degenerando finalmente en diversos tipos
de gobiernos autoritarios o en un caos sin fin.
En las tres primeras
décadas posteriores a la Segunda Guerra Mundial, las tecnologías que
impulsaban la productividad humana y las instituciones del mercado
laboral que protegían a los trabajadores se reforzaban mutuamente.
Los
acontecimientos de los años de entreguerras parecieron confirmar estas
sombrías previsiones. Pero en la Europa Occidental y Norteamérica de la
posguerra - y en otras partes del mundo que adoptaron instituciones
económicas y políticas similares - las tornas cambiaron. Después de
1945, los países industrializados vivieron algunas de sus mejores
décadas en términos de crecimiento económico y cohesión social: lo que
los franceses llamaron Les Trente Glorieuses, los treinta años
gloriosos. Y ese crecimiento no sólo fue rápido, sino también
ampliamente compartido. Durante las tres primeras décadas posteriores a
la Segunda Guerra Mundial, los salarios crecieron rápidamente para todos
los trabajadores de Estados Unidos, independientemente de su educación,
sexo, edad o raza. Aunque esta época no estuvo exenta de problemas
políticos (coincidió con las luchas por los derechos civiles en Estados
Unidos), la política democrática funcionó: hubo bastante bipartidismo a
la hora de legislar y los estadounidenses sintieron que tenían voz en la
política. Estos dos aspectos de la posguerra fueron decisivos para la
paz social: una gran parte de la población comprendía que se beneficiaba
del sistema económico y sentía que tenía voz en la forma en que se la
gobernaba.
¿Cómo se llegó a esta relativa armonía? Gran parte del
mérito se debe a la trayectoria del progreso tecnológico. El gran
economista John Maynard Keynes, que reconoció la fragilidad de la paz
social frente a las dificultades económicas con más astucia que la
mayoría de los demás, predijo célebremente en 1929 que el crecimiento
económico crearía cada vez más desempleo en el siglo XX. Keynes
comprendió que había enormes oportunidades para la automatización
industrial -la sustitución de trabajadores humanos por máquinas- y llegó
a la conclusión de que la disminución de la demanda de mano de obra
humana era una consecuencia ineluctable del progreso tecnológico. Como
él mismo dijo: "Estamos siendo afectados por una nueva enfermedad de la
que. . . [los lectores] . . oirán hablar mucho en los próximos años: el
desempleo tecnológico".
Sin
embargo, las tecnologías del siguiente medio siglo resultaron ser
bastante diferentes de lo que Keynes había pronosticado. La demanda de
mano de obra humana creció y siguió creciendo. Keynes no se equivocaba
sobre las fuerzas de la automatización; la mecanización de la
agricultura -sustituyendo la mano de obra humana por cosechadoras y
tractores- provocó la dislocación y el desplazamiento masivos de casi la
mitad de la mano de obra en Estados Unidos. Sin embargo, la
mecanización fue acompañada de la introducción de nuevas tareas,
funciones y actividades para los seres humanos. La mecanización agrícola
fue seguida de una rápida automatización industrial, pero ésta también
se vio contrarrestada por otros avances tecnológicos que crearon nuevas
tareas para los trabajadores. Hoy en día, la mayor parte de la mano de
obra de todos los países industrializados se dedica a tareas que no
existían cuando Keynes escribía (pensemos en todas las tareas que
conlleva la educación moderna, la atención sanitaria, la comunicación,
el ocio, el trabajo administrativo, el diseño, el trabajo técnico en las
fábricas y casi todo el sector servicios). Si no hubiera sido por estas
nuevas tareas, Keynes habría tenido razón. No sólo crearon abundantes
puestos de trabajo, sino que también generaron demanda de un conjunto
diverso de cualificaciones, apuntalando la naturaleza compartida del
crecimiento económico moderno.
Las instituciones del mercado
laboral -como los salarios mínimos, la negociación colectiva y las
normativas que introducen la protección de los trabajadores-
contribuyeron en gran medida a la prosperidad compartida. Pero sin los
aspectos más humanitarios del cambio tecnológico, no habrían generado un
crecimiento salarial de base amplia. Si se produjeran rápidos avances
en la tecnología de la automatización y no hubiera otras tecnologías que
generaran oportunidades de empleo para la mayoría de los trabajadores,
las demandas de salarios mínimos y salarios colectivos se habrían
satisfecho con una automatización aún mayor. Sin embargo, cuando estos
acuerdos institucionales que protegen y empoderan a los trabajadores
coexisten con cambios tecnológicos que aumentan la productividad de los
trabajadores, fomentan la creación de "buenos empleos": empleos seguros
con salarios elevados. Tiene sentido establecer relaciones a largo plazo
con los trabajadores y pagarles salarios elevados cuando están
aumentando rápidamente su productividad. También tiene sentido crear
buenos empleos e invertir en la productividad de los trabajadores cuando
las instituciones del mercado laboral descartan la vía de los salarios
bajos. Por tanto, las tecnologías que impulsan la productividad humana y
las instituciones del mercado laboral que protegen a los trabajadores
se refuerzan mutuamente.
Sin los aspectos más respetuosos con el ser humano del cambio tecnológico, las instituciones del mercado laboral no habrían generado un crecimiento salarial generalizado.
De
hecho, los buenos empleos se convirtieron en un pilar de muchas
economías de posguerra y en una de las razones clave por las que
millones de personas sentían que estaban recibiendo lo que les
correspondía del proceso de crecimiento, incluso si sus jefes y algunos
empresarios se estaban haciendo fabulosamente ricos en el proceso.
¿Por
qué la tecnología impulsaba el crecimiento salarial? ¿Por qué no se
limitó a automatizar los puestos de trabajo? ¿Por qué se crearon nuevas
tareas y actividades para los trabajadores, impulsando el crecimiento de
los salarios y el empleo? No lo sabemos con certeza. Las pruebas
existentes sugieren una serie de factores que pueden haber contribuido a
impulsar la demanda de mano de obra humana. En las décadas posteriores a
la Segunda Guerra Mundial, las empresas estadounidenses operaban en un
entorno ampliamente competitivo. Los mayores conglomerados de principios
del siglo XX habían sido disueltos por las reformas de la Era
Progresista, y los que se hicieron dominantes en la segunda mitad del
siglo, como AT&T, se enfrentaron a acciones antimonopolio similares.
Este entorno competitivo produjo un apetito feroz por las nuevas
tecnologías, incluidas las que aumentaban la productividad de los
trabajadores.
Estas mejoras de la productividad crearon justo el
tipo de ventaja que las empresas ansiaban para adelantarse a sus
rivales. Por supuesto, la tecnología no fue un regalo caído del cielo.
Las empresas invirtieron mucho en tecnología y se beneficiaron del apoyo
de los gobiernos. No se trataba sólo de las ávidas inversiones en
educación superior durante la era del Sputnik (para que Estados Unidos
no quedara por detrás de la Unión Soviética). También fue el papel del
gobierno como fuente de financiación, principal comprador de nuevas
tecnologías y director y coordinador de los esfuerzos de investigación. A
través de la financiación de la Fundación Nacional de la Ciencia, los
Institutos Nacionales de Salud, los créditos fiscales a la investigación
y el desarrollo y, lo que quizá sea aún más importante, el Departamento
de Defensa, el gobierno imprimió su perspectiva a largo plazo a muchas
de las tecnologías emblemáticas de la época, como Internet, los
ordenadores, la nanotecnología, la biotecnología, los antibióticos, los
sensores y las tecnologías aeronáuticas.
Estados Unidos también
se democratizó durante este periodo. Las reformas de las Eras
Progresista y del Nuevo Trato redujeron el control directo de las
grandes corporaciones y los magnates ricos sobre el proceso político. La
elección directa de los senadores, promulgada en 1913 en la 17ª
Enmienda, fue un paso importante en este proceso. Luego vino la limpieza
de la política maquinista en muchas ciudades del norte, un proceso que
duró varias décadas en la primera mitad del siglo. Igualmente importante
fue el movimiento por los derechos civiles, que puso fin a algunos de
los aspectos más antidemocráticos de la política estadounidense (aunque
esto siga siendo un trabajo en curso). Por supuesto, hubo muchas
fisuras, y no sólo los negros estadounidenses, sino muchos grupos no
tuvieron suficiente voz en la política.
Sin
embargo, cuando el politólogo Robert Dahl se propuso investigar "quién
gobierna" la política local en New Haven, la respuesta no fue un partido
establecido ni una élite bien definida. El poder era pluralista, y la
participación de la gente corriente en la política era clave para la
gobernanza de la ciudad.
Así pues, la democracia y la prosperidad
compartida se reforzaron mutuamente durante esta época. La política
democrática reforzaba las instituciones del mercado laboral que
protegían a los trabajadores y los esfuerzos por aumentar su
productividad, mientras que la prosperidad compartida aumentaba
simultáneamente la legitimidad del sistema democrático. Y esta tendencia
fue sólida: a pesar de las innumerables diferencias culturales e
institucionales, Europa Occidental, Canadá y Japón siguieron
trayectorias notablemente similares a la de Estados Unidos, basadas en
el rápido crecimiento de la productividad, la prosperidad compartida y
la política democrática.
El mundo que está creando la automatización
Hoy
vivimos en un mundo muy diferente. El crecimiento salarial desde
finales de los años setenta ha sido mucho más lento que durante las tres
décadas anteriores. Y este crecimiento ha sido todo menos compartido.
Mientras que los salarios de los trabajadores situados en lo más alto de
la distribución de la renta -los que se encuentran en el décimo
percentil más alto de ingresos o los que tienen títulos de postgrado-
han seguido creciendo, los trabajadores con un diploma de secundaria o
menos han visto caer sus ingresos reales. Incluso los titulados
universitarios han atravesado largos periodos de escaso crecimiento de
los salarios reales.
En la década de 1980 comenzó un cuadro
tecnológico muy diferente: mucha más automatización y mucho menos de
todo lo demás. La automatización actuó como doncella de la desigualdad.
Muchos
factores han influido en este cambio. La erosión del valor real del
salario mínimo, que ha caído más de un 30% desde 1968, ha contribuido
decisivamente a los descensos salariales en la parte inferior de la
distribución. Con la desaparición de los sindicatos en gran parte del
sector privado, los salarios también quedaron rezagados con respecto al
crecimiento de la productividad. Simultáneamente, el enorme aumento del
comercio con China provocó el cierre de muchas empresas y grandes
pérdidas de empleo en industrias manufactureras de baja tecnología como
la textil, la confección, el mueble y el juguete. Igualmente
determinante ha sido la nueva dirección del progreso tecnológico.
Mientras que en las cuatro décadas posteriores a la Segunda Guerra
Mundial la automatización y las nuevas tareas que contribuían a la
demanda de mano de obra iban de la mano, en la década de 1980 comenzó un
cuadro tecnológico muy diferente: mucha más automatización y mucho
menos de todo lo demás.
La automatización actuó como doncella de
la desigualdad. Las nuevas tecnologías automatizaron sobre todo las
tareas más rutinarias de las oficinas y las fábricas. Esto significó que
la demanda y los salarios de los trabajadores especializados en
trabajos manuales y algunas funciones administrativas disminuyeron.
Mientras tanto, los profesionales de la gestión, la ingeniería, las
finanzas, la consultoría y el diseño prosperaron, tanto porque eran
esenciales para el éxito de las nuevas tecnologías como porque se
beneficiaron de la automatización de tareas que complementaban su propio
trabajo. A medida que se aceleraba la automatización, aumentaban las
diferencias salariales entre la parte superior e inferior de la
distribución de la renta.
Las causas de este patrón general -más
automatización y menos esfuerzo dirigido a aumentar la productividad de
los trabajadores- no se comprenden bien. Sin duda, gran parte de este
fenómeno es anterior a la IA. La rápida automatización de los trabajos
rutinarios comenzó con las aplicaciones de los ordenadores, las bases de
datos y la comunicación electrónica en los trabajos administrativos y
con el control numérico en la fabricación, y se aceleró con la difusión
de los robots industriales. Con los avances de las tecnologías
digitales, la automatización puede haberse vuelto tecnológicamente más
fácil. Sin embargo, igualmente importantes (si no más) son los cambios
en las políticas y en los entornos institucionales y políticos.
La financiación pública de la investigación -especialmente la que conduce a la creación de nuevas tareas- ha disminuido. Las instituciones del mercado laboral que impulsaban los buenos empleos se debilitaron. Un puñado de empresas con modelos de negocio centrados en la automatización pasaron a dominar la economía. Y la política fiscal de los gobiernos empezó a favorecer el capital y la automatización. Sean cuales sean los mecanismos exactos, la tecnología se volvió menos favorable a la mano de obra y más centrada en la automatización.
La
IA es el siguiente acto de esta obra. Las primeras investigaciones
serias sobre IA se iniciaron en los años 50, con objetivos ambiciosos y,
al final, poco realistas. Los pioneros de la IA comprendían
perfectamente el poder de la computación y pensaban que crear máquinas
inteligentes era una aspiración difícil pero alcanzable. Dos de las
primeras luminarias, Herbert Simon y Allen Newell, afirmaron en 1957 que
"ya existen en el mundo máquinas que piensan, que aprenden y que crean.
Además, su capacidad para hacer estas cosas va a aumentar rápidamente
hasta que -en un futuro visible- la gama de problemas que pueden manejar
será coextensiva con la gama a la que se ha aplicado la mente humana".
Pero estas esperanzas pronto se desvanecieron. Una cosa era programar
operaciones binarias para una computación rápida, una tarea en la que
las máquinas habían superado con creces las capacidades humanas a
principios de la década de 1950. Otra cosa muy distinta era conseguir
que las máquinas realizaran tareas más complejas, como el reconocimiento
de imágenes, la clasificación, el procesamiento del lenguaje, el
razonamiento y la resolución de problemas. La euforia y la financiación
del campo disminuyeron, y siguió el invierno de la IA.
La rápida
automatización de los trabajos rutinarios comenzó con aplicaciones de
ordenadores, bases de datos y comunicación electrónica en trabajos
administrativos y con el control numérico en la fabricación.
En
la década de 1990, la IA volvió a despertar entusiasmo, aunque con
ambiciones diferentes. En lugar de hacer que las máquinas pensaran y
comprendieran exactamente igual que los humanos, el nuevo objetivo era
utilizar la potencia de cálculo disponible a bajo coste y las enormes
cantidades de datos recogidos por sensores, presentes en libros y en
Internet, y facilitados voluntariamente por los individuos. El gran
avance llegó cuando descubrimos cómo convertir muchos de los servicios
que queríamos en problemas de predicción. Los métodos estadísticos
modernos, incluidos varios tipos de aprendizaje automático, podían
aplicarse a los grandes conjuntos de datos no estructurados recién
disponibles para realizar tareas basadas en la predicción de forma
barata y eficaz. Esto significaba que el camino de menor resistencia
para las aplicaciones económicas de la IA era la automatización
(algorítmica), adaptando el reconocimiento de patrones, la clasificación
de objetos y la predicción estadística a aplicaciones que podrían
asumir muchas de las tareas cognitivas repetitivas y sencillas que
realizaban millones de trabajadores.
Lo
que empezó como una tendencia temprana se convirtió en la norma. Muchos
expertos pronostican ahora que la mayoría de las ocupaciones se verán
fundamentalmente afectadas por la IA en las próximas décadas. La IA
también sustituirá a las tareas más cualificadas, especialmente en
contabilidad, finanzas, diagnóstico médico y mandos intermedios. No
obstante, las aplicaciones actuales de la IA siguen sustituyendo
principalmente tareas relativamente sencillas realizadas por
trabajadores con salarios bajos.
El estado de la democracia y la libertad
Junto
a esta historia de problemas económicos, a la democracia tampoco le ha
ido demasiado bien, tanto en el mundo desarrollado como en el mundo en
desarrollo. Tres factores han sido especialmente importantes para la
democracia estadounidense en los últimos treinta años.
Aunque todavía
estamos en las primeras fases de la transformación digital de nuestra
política y nuestra sociedad, ya podemos ver algunas de sus
consecuencias.
En primer lugar, la polarización ha aumentado
considerablemente. En las décadas que siguieron a la Segunda Guerra
Mundial, los legisladores estadounidenses cruzaban con frecuencia el
pasillo y apoyaban proyectos de ley del otro partido. Hoy esto rara vez
ocurre. La polarización dificulta enormemente la elaboración de
políticas eficaces: la legislación para afrontar retos urgentes es más
difícil de aprobar y, cuando se aprueba, carece de la legitimidad
necesaria. Esto fue dolorosamente obvio, por ejemplo, en los esfuerzos
por promulgar una reforma integral de la sanidad para controlar el
aumento de los costes y dar cobertura a millones de estadounidenses que
no tenían acceso a un seguro médico.
En segundo lugar, el modelo
tradicional de medios de comunicación, con fuentes fiables y
mayoritariamente equilibradas, se vino abajo. Las cadenas de noticias
por cable y las fuentes de noticias en línea han polarizado más al
electorado y lo han hecho menos proclive a escuchar contraargumentos,
dificultando aún más el discurso democrático y la elaboración de
políticas bipartidistas.
En
tercer lugar, el papel del dinero en la política ha aumentado a pasos
agigantados. Como han documentado los politólogos Larry Bartels y Martin
Gilens, incluso antes de que la fatídica decisión del Tribunal Supremo
sobre Citizens United en 2010 abriera las compuertas al dinero
corporativo, los estadounidenses más ricos y las mayores corporaciones
habían adquirido una influencia desproporcionada en la configuración de
la política a través de los esfuerzos de los grupos de presión, las
contribuciones a las campañas, su estatus social desmesurado y sus
estrechas conexiones con los políticos.
La inteligencia
artificial no ha hecho más que agravar estas deficiencias. Aunque
todavía estamos en las primeras fases de la transformación digital de
nuestra política y nuestra sociedad, ya podemos ver algunas de sus
consecuencias. Las redes sociales potenciadas por la IA, como Facebook y
Twitter, ya han transformado por completo la comunicación y el debate
políticos. La IA ha permitido a estas plataformas dirigirse a los
usuarios con mensajes y publicidad individualizados. Y lo que es aún más
inquietante, las redes sociales han facilitado la propagación de la
desinformación, contribuyendo a la polarización, la falta de confianza
en las instituciones y el rencor político. El escándalo de Cambridge
Analytica ilustra los peligros. La empresa obtuvo información privada de
unos 50 millones de personas a partir de datos compartidos por unos
270.000 usuarios de Facebook. A continuación, utilizó estos datos para
diseñar publicidad política personalizada y dirigida en el referéndum
del Brexit y en las elecciones presidenciales estadounidenses de 2016.
Muchas más empresas realizan ahora actividades similares, con
herramientas de IA más sofisticadas. Además, investigaciones recientes
sugieren que los algoritmos estándar utilizados por sitios de redes
sociales como Facebook reducen la exposición de los usuarios a
publicaciones de diferentes puntos de vista, lo que contribuye aún más a
la polarización del público estadounidense.
Las
técnicas básicas de reconocimiento de patrones ya son lo bastante
potentes como para permitir a gobiernos y empresas vigilar el
comportamiento individual, las opiniones políticas y la comunicación.
Otras
aplicaciones emergentes de la IA pueden ser aún más amenazadoras para
la democracia y la libertad en todo el mundo. Las técnicas básicas de
reconocimiento de patrones ya son lo suficientemente potentes como para
permitir a gobiernos y empresas vigilar el comportamiento individual,
las opiniones políticas y la comunicación. Por ejemplo, el Partido
Comunista Chino ha recurrido durante mucho tiempo a estas tecnologías
para identificar y acabar con la disidencia y la oposición en Internet,
para la vigilancia masiva y para controlar la actividad política en
partes del país donde existe una oposición generalizada a su gobierno
(como Xinjiang y el Tíbet). Como pusieron de manifiesto las revelaciones
de Edward Snowden, el gobierno de Estados Unidos utilizó con avidez
técnicas similares para recopilar cantidades ingentes de datos de las
comunicaciones tanto a extranjeros como a ciudadanos estadounidenses.
Los programas espía -como Pegasus, desarrollado por la empresa israelí
NSO Group, y las plataformas Da Vinci y Galileo de la empresa italiana
Hacking Team- permiten a los usuarios hacerse con el control de los
datos de personas que se encuentran a miles de kilómetros de distancia,
romper el cifrado y rastrear a distancia comunicaciones privadas. Las
capacidades futuras de la IA irán mucho más allá de estas actividades
Otra
área de considerable preocupación es el reconocimiento facial,
actualmente uno de los campos de investigación más activos dentro de la
IA. Aunque la tecnología de reconocimiento facial tiene usos legítimos
en la seguridad personal y la defensa contra el terrorismo, sus
aplicaciones comerciales siguen sin estar probadas. Gran parte de la
demanda de esta tecnología tiene su origen en los programas de
vigilancia masiva.
Con tecnologías impulsadas por la IA que ya
son capaces de recopilar información sobre el comportamiento individual,
rastrear las comunicaciones y reconocer rostros y voces, no es
descabellado imaginar que muchos gobiernos estarán mejor posicionados
para controlar la disidencia y desalentar la oposición. Pero los efectos
de estas tecnologías pueden ir mucho más allá de silenciar a los
críticos más acérrimos de los gobiernos. Al saber que estas tecnologías
vigilan cada uno de sus comportamientos, los individuos se verán
disuadidos de expresar sus críticas y podrían reducir gradualmente su
participación en organizaciones cívicas y en la actividad política. Y
con el creciente uso de la IA en las tecnologías militares, los
gobiernos pueden verse aún más facultados para actuar (aún más)
despóticamente con sus propios ciudadanos, así como de forma más
agresiva con los enemigos externos.
La disidencia individual es
el pilar de la democracia y la libertad social, por lo que estos
posibles desarrollos y usos de la tecnología de IA deberían alarmarnos a
todos.
El camino no tomado de la IA
Gran
parte del diagnóstico que he presentado hasta ahora no es nuevo. Muchos
denuncian los trastornos que la automatización ya ha producido y que
probablemente causará en el futuro. A muchos también les preocupan los
efectos nocivos que las nuevas tecnologías podrían tener sobre la
libertad individual y el procedimiento democrático. Pero la mayoría de
estos comentaristas ven estas preocupaciones con un sentido de
inevitabilidad: creen que está en la propia naturaleza de la IA acelerar
la automatización y permitir a los gobiernos y a las empresas controlar
el comportamiento de los individuos.
La
mayoría de los comentaristas creen que la propia naturaleza de la IA
acelera la automatización y permite a gobiernos y empresas controlar el
comportamiento de las personas.
Sin embargo, la marcha de la
sociedad hacia el desempleo y la vigilancia no es inevitable. El futuro
de la IA sigue abierto y puede llevarnos en muchas direcciones
diferentes. Si acabamos con potentes herramientas de vigilancia y
automatización ubicua (sin suficientes tareas para que las realicen los
humanos), será porque hemos elegido ese camino.
¿Adónde más
podríamos ir? Aunque la mayor parte de la investigación sobre IA se ha
orientado hacia la automatización en el ámbito de la producción, hay un
montón de nuevos pastos donde la IA podría complementar a los humanos.
La forma más potente de aumentar la productividad humana es crear nuevas
tareas y actividades para los trabajadores.
Pondré algunos
ejemplos. El primero es la educación, un ámbito en el que la IA ha
penetrado sorprendentemente poco hasta ahora. Los avances actuales, si
los hay, van en la dirección de automatizar a los profesores, por
ejemplo, mediante la aplicación de calificaciones automáticas o recursos
en línea para sustituir las tareas docentes básicas. Pero la IA también
podría revolucionar la educación permitiendo a los profesores adaptar
su material a las necesidades y actitudes de los distintos alumnos en
tiempo real. Ya sabemos que lo que funciona para una persona en el aula
puede no funcionar para otra; a cada alumno le resultan difíciles
distintos elementos del aprendizaje. La IA en el aula puede hacer que la
enseñanza sea más adaptable y centrada en el alumno, generar nuevas
tareas docentes y, de paso, aumentar la productividad y la demanda de
profesores.
La situación es muy similar en la sanidad, aunque
este campo ya ha sido testigo de importantes inversiones en IA. Sin
embargo, hasta ahora ha habido pocos intentos de utilizar la IA para
ofrecer a los pacientes nuevos servicios adaptables en tiempo real por
parte de enfermeros, técnicos y médicos. Del mismo modo, la IA en el
sector del entretenimiento puede contribuir en gran medida a crear
nuevas tareas productivas para los trabajadores. Los sistemas
inteligentes pueden facilitar enormemente el aprendizaje y la formación
humanos en la mayoría de las ocupaciones y campos poniendo a disposición
información técnica y contextual adaptable bajo demanda. Por último, la
IA puede combinarse con la realidad aumentada y virtual para ofrecer
nuevas oportunidades productivas a los trabajadores manuales y técnicos.
Por ejemplo, puede permitirles alcanzar un mayor grado de precisión
para que puedan colaborar con la tecnología robótica y realizar tareas
de diseño integrado.
La IA puede ser una poderosa herramienta para desplegar la creatividad, el juicio y la flexibilidad de los seres humanos en lugar de limitarse a automatizar sus trabajos. También puede ayudarnos a proteger su intimidad y su libertad.
En todos estos ámbitos, la IA puede ser una poderosa herramienta para desplegar la creatividad, el juicio y la flexibilidad de los seres humanos en lugar de limitarse a automatizar su trabajo. También puede ayudarnos a proteger su intimidad y su libertad. Numerosas investigaciones académicas muestran cómo las tecnologías emergentes -privacidad diferencial, criptografía neuronal adversarial, computación segura multipartita y cifrado homomórfico, por citar algunas- pueden proteger la privacidad y detectar las amenazas a la seguridad y el fisgoneo, pero esta investigación sigue siendo marginal para los productos y servicios comerciales. Además, tanto el público como la comunidad de la IA son cada vez más conscientes de que las nuevas tecnologías pueden perjudicar el discurso público, la libertad y la democracia. En este clima, muchos exigen un esfuerzo concertado para utilizar la IA para el bien. Sin embargo, llama la atención que gran parte de la investigación en IA siga centrándose en aplicaciones que automatizan trabajos y aumentan la capacidad de gobiernos y empresas para vigilar y manipular a las personas. Esto puede y debe cambiar.
La ilusión del mercado
Una objeción al argumento que he desarrollado es que no es prudente meterse con el mercado. ¿Quiénes somos nosotros para interferir en las innovaciones y avances tecnológicos que genera el mercado? ¿No sacrificaríamos con nuestra intervención el crecimiento de la productividad e incluso pondríamos en peligro nuestra vitalidad tecnológica? ¿No sería mejor dejar que el mecanismo de mercado genere las mejores tecnologías y utilizar otras herramientas, como la redistribución fiscal o la renta básica universal, para garantizar que todo el mundo se beneficie?
Las fuerzas ordinarias del mercado, que no tienen en cuenta las externalidades, pueden desalentar las tecnologías de mayor valor social.
La respuesta es no, por varias razones. En primer lugar, no está claro que el mercado esté haciendo un gran trabajo a la hora de seleccionar las tecnologías adecuadas. Es cierto que estamos en medio de un periodo de prodigiosa creatividad tecnológica, con nuevos avances y aplicaciones inventados cada día. Sin embargo, la frase de Robert Solow sobre los ordenadores -que están "en todas partes menos en las estadísticas de productividad"- es aún más cierta hoy en día. A pesar de estos inventos alucinantes, el crecimiento actual de la productividad es sorprendentemente lento en comparación con las décadas que siguieron a la Segunda Guerra Mundial. Esta lentitud se desprende claramente de la estadística estándar que los economistas utilizan para medir el grado de expansión de la capacidad tecnológica de la economía: el crecimiento de la productividad total de los factores (PTF). El crecimiento de la PTF responde a una pregunta sencilla: Si mantuviéramos constante la cantidad de recursos de trabajo y capital que utilizamos de un año para otro, y sólo cambiara nuestra capacidad tecnológica, ¿cuánto crecería la renta agregada? El crecimiento de la PTF en gran parte del mundo industrializado fue rápido durante las décadas que siguieron a la Segunda Guerra Mundial, y ha caído bruscamente desde entonces. En EE.UU., por ejemplo, el crecimiento medio de la PTF se acercó al 2% anual entre 1920 y 1970, y sólo ha superado ligeramente el 0,5% anual en las tres últimas décadas. Así pues, la afirmación de que el mercado está haciendo un trabajo fantástico para aumentar nuestra capacidad productiva no es irrefutable.
El argumento de que deberíamos confiar en el mercado para fijar la dirección del cambio tecnológico también es débil. En la terminología económica, la innovación crea importantes "externalidades" positivas: cuando una empresa o un investigador innovan, gran parte de los beneficios revierten en otros. Esto es doblemente cierto en el caso de las tecnologías que crean nuevas tareas. Los beneficiarios suelen ser los trabajadores cuyos salarios aumentan (y las nuevas empresas que más tarde encuentran las estructuras organizativas adecuadas y crean productos creativos para aprovechar estas nuevas tareas). Pero estos beneficios no forman parte del cálculo de las empresas innovadoras y los investigadores. Por tanto, las fuerzas ordinarias del mercado -que no tienen en cuenta las externalidades- pueden disuadir los tipos de tecnologías que tienen el mayor valor social.
Este mismo razonamiento es aún más convincente cuando los nuevos productos producen costes y beneficios no económicos. Pensemos en las tecnologías de vigilancia. La demanda de vigilancia por parte de gobiernos represivos (e incluso algunos de apariencia democrática) puede ser grande, generando muchos incentivos financieros para que empresas e investigadores inviertan en tecnologías de reconocimiento facial y espionaje. Pero la erosión de las libertades es un coste no económico notable que a menudo no se tiene en cuenta. Algo parecido ocurre con las tecnologías de automatización: es fácil ignorar el papel vital que desempeñan los empleos buenos, seguros y bien pagados para que la gente se sienta realizada. Con todas estas externalidades, ¿cómo podemos suponer que el mercado hará las cosas bien?
Los problemas del mercado se multiplican aún más cuando hay paradigmas tecnológicos que compiten entre sí, como en el campo de la IA. Cuando un paradigma va por delante de los demás, tanto los investigadores como las empresas se ven tentados a rebañar en ese paradigma líder, aunque otro sea más productivo. En consecuencia, cuando el paradigma equivocado se adelanta, resulta muy difícil cambiar a alternativas más prometedoras.
Si no generamos oportunidades de empleo significativas -y, por tanto, un objetivo social viable- para la mayoría de los miembros de la sociedad, ¿cómo puede funcionar la democracia?
Por
último, pero no por ello menos importante, la innovación no sólo
responde a los incentivos económicos, sino también a las normas. Lo que
los investigadores consideran aceptable, emocionante y prometedor no
depende únicamente de la recompensa económica. Las normas sociales
desempeñan un papel fundamental, ya que determinan los objetivos de los
investigadores, así como su brújula moral. Y si las normas en el ámbito
de la investigación no reflejan nuestros objetivos sociales, el cambio
tecnológico resultante no servirá a los intereses de la sociedad.
Todas estas razones ponen en duda la conveniencia de dejar que el mercado se las arregle solo. Además, las medidas que podrían compensar un mercado abandonado a sí mismo -redistribución mediante impuestos y red de seguridad social- son insuficientes y tienen pocas probabilidades de funcionar. Sin duda necesitamos una red de seguridad mejor. (La pandemia de COVID-19 lo ha dejado aún más claro.) Pero si no generamos oportunidades de empleo significativas -y, por tanto, un objetivo social viable- para la mayoría de la gente en la sociedad, ¿cómo puede funcionar la democracia? Y si la democracia no funciona, ¿cómo podemos promulgar esas medidas redistributivas y cómo podemos estar seguros de que seguirán vigentes en el futuro?
Peor aún, construir una prosperidad compartida basada predominantemente en la redistribución es una fantasía. No cabe duda de que la redistribución -a través de un sistema fiscal progresivo y una sólida red de seguridad social- ha sido un pilar importante de la prosperidad compartida en gran parte del siglo XX (y la educación pública de alta calidad ha sido fundamental). Pero ha sido un pilar de apoyo, no el motor principal de la prosperidad compartida. El empleo, y especialmente el empleo de calidad, ha sido mucho más importante, impulsado por el crecimiento de la productividad y las instituciones del mercado laboral que apoyan unos salarios elevados. La experiencia de los países nórdicos, en los que el crecimiento de la productividad, la creación de empleo y las ganancias compartidas en el mercado laboral han sido el baluarte de su pacto socialdemócrata, es la prueba más evidente de ello. Los acuerdos salariales a nivel sectorial entre sindicatos y asociaciones empresariales establecen un salario esencialmente fijo para el mismo puesto de trabajo en toda una industria. Estos convenios colectivos produjeron salarios elevados y ampliamente iguales para trabajadores con funciones similares. Y lo que es más importante, el sistema fomentaba el crecimiento de la productividad y la creación de una oferta abundante de buenos puestos de trabajo porque, con los salarios fijados en gran medida a nivel industrial, las empresas podían conservar la mayor productividad como beneficios y tenían fuertes incentivos para innovar e invertir.
¿Quién controla la IA?
Si queremos reorientar la investigación en sistemas inteligentes, primero tenemos que entender qué determina la dirección actual de la investigación. ¿Quién controla la IA?
La influencia de la IA se concentra en manos de unos pocos actores clave. Un puñado de gigantes tecnológicos, todos centrados en la automatización algorítmica, acaparan la mayor parte del dinero invertido en investigación sobre IA.
Por supuesto, nadie controla por sí solo la investigación y nadie marca la dirección del cambio tecnológico. No obstante, en comparación con muchas otras plataformas tecnológicas -en las que vemos el apoyo y el liderazgo de diferentes agencias gubernamentales, investigadores académicos con diversas formaciones y visiones, y decenas de laboratorios de investigación empujando en distintas direcciones-, la influencia de la IA se concentra en manos de unos pocos actores clave. Un puñado de gigantes tecnológicos centrados en la automatización algorítmica -Google (Alphabet), Facebook, Amazon, Microsoft, Netflix, Ali Baba y Baidu- concentran la mayor parte del dinero invertido en investigación sobre IA. (Según un reciente informe de McKinsey, son responsables de unos 20.000 a 30.000 millones de dólares de los 26.000 a 39.000 millones de dólares en gastos totales de inversión privada en IA en todo el mundo). La financiación gubernamental palidece en comparación.
Aunque cientos de universidades tienen departamentos y laboratorios activos y dinámicos que trabajan en IA, aprendizaje automático y macrodatos, la financiación de las grandes empresas también determina la dirección de la investigación académica. A medida que el apoyo gubernamental a la investigación académica ha disminuido, las empresas han pasado a desempeñar un papel más determinante en la financiación académica. Aún más importante podría ser el hecho de que ahora existe una puerta giratoria entre las empresas y las universidades, con importantes investigadores que asesoran al sector privado y abandonan periódicamente sus puestos académicos para ocupar puestos en empresas tecnológicas que trabajan en
Llama la atención la poca frecuencia con que los investigadores de la IA cuestionan el énfasis en la automatización.
Esto no quiere decir que el pensamiento en el campo de la IA sea completamente uniforme. En un campo que atrae a cientos de miles de mentes brillantes, siempre habrá diversidad de opiniones y enfoques, y algunos son muy conscientes de que la investigación en IA tiene consecuencias sociales y una responsabilidad social. Sin embargo, llama la atención la escasa frecuencia con la que los investigadores de IA cuestionan el énfasis en la automatización. Son muy pocos los investigadores que utilizan la IA para crear nuevos puestos de trabajo para los humanos o para proteger a las personas de la vigilancia de gobiernos y empresas.
________________________________________
Cómo reorientar la IA
Estas tendencias son preocupantes. Pero incluso si le han convencido de que necesitamos reorientar la IA, ¿cómo podemos hacerlo exactamente?
Creo que la respuesta está en desarrollar un enfoque triple. La política gubernamental, la financiación y el liderazgo son fundamentales. Estas tres vertientes quedan bien ilustradas por los éxitos pasados en la reorientación del cambio tecnológico hacia áreas socialmente beneficiosas. Por ejemplo, en el contexto de la generación y el uso de la energía, se han producido enormes avances en las tecnologías de baja o nula emisión de carbono, aunque todavía estemos lejos de frenar el cambio climático. Estos avances se deben en gran medida a tres acontecimientos simultáneos y relacionados entre sí. En primer lugar, las políticas gubernamentales crearon un marco de medición para conocer la cantidad de carbono emitida por los distintos tipos de actividades y determinar qué tecnologías eran limpias. Basándose en este marco, la política gubernamental (al menos en algunos países) empezó a gravar y limitar las emisiones de carbono. Después, y lo que es aún más importante, los gobiernos utilizaron la financiación de la investigación y el liderazgo intelectual para reorientar el cambio tecnológico hacia fuentes de energía limpias -como la solar, la eólica y la geotérmica- e innovaciones que controlaran directamente las emisiones de gases de efecto invernadero. En segundo lugar, todo esto coincidió con un cambio en las normas. Los hogares empezaron a estar dispuestos a pagar más para reducir su propia huella de carbono, por ejemplo, comprando vehículos eléctricos o utilizando ellos mismos fuentes de energía limpias. También empezaron a presionar socialmente a los demás para que hicieran lo mismo. Aún más importantes fueron las exigencias de los hogares a sus empleadores para que limitaran la contaminación. En tercer lugar, todo esto se vio respaldado por la supervisión y la presión democráticas. Los gobiernos actuaron porque los votantes insistieron en que lo hicieran; las empresas cambiaron (aunque en algunos casos estos cambios fueran ilusorios) porque sus empleados y clientes exigieron el cambio y porque la sociedad en general se fijó en ellas.
El mismo triple enfoque puede funcionar en la IA: implicación gubernamental, cambio de normas y supervisión democrática.
Debemos eliminar las distorsiones políticas que fomentan la automatización excesiva y generan una demanda inflada de tecnologías de vigilancia.
En primer lugar, la política gubernamental, la financiación y el liderazgo son fundamentales. Para empezar, debemos eliminar las distorsiones políticas que fomentan una automatización excesiva y generan una demanda inflada de tecnologías de vigilancia. Los gobiernos son los compradores más importantes de tecnologías de vigilancia basadas en IA. Aunque será difícil convencer a muchos servicios de seguridad de que renuncien a estas tecnologías, la supervisión democrática puede obligarles a hacerlo. Como ya he señalado, la política gubernamental también está impulsando la adopción y el desarrollo de nuevas tecnologías de automatización. Por ejemplo, el código tributario estadounidense impone tipos impositivos en torno al 25% sobre la mano de obra, pero inferiores al 5% sobre los equipos y el software, subvencionando de hecho a las empresas para que instalen maquinaria y utilicen software para automatizar el trabajo. La eliminación de estos incentivos distorsionadores contribuiría en cierta medida a reorientar el cambio tecnológico, alejándolo de la automatización. Pero no será suficiente. Necesitamos un papel más activo del gobierno para apoyar y coordinar los esfuerzos de investigación hacia los tipos de tecnologías que son más beneficiosas socialmente y que tienen más probabilidades de ser desabastecidas por el mercado.
Pero la situación puede ser aún peor, ya que las principales empresas tecnológicas están marcando la agenda de la investigación de otras tres formas significativas. En primer lugar, tanto a través de sus relaciones académicas como de sus brazos filantrópicos, las empresas tecnológicas influyen directamente en los planes de estudio y en los campos de la IA de las principales universidades. En segundo lugar, estas empresas y sus carismáticos fundadores y consejeros delegados se hacen oír con fuerza en Washington D.C. y en las prioridades de los organismos de financiación, que son los que determinan las pasiones académicas. En tercer lugar, los estudiantes que desean especializarse en campos relacionados con la IA suelen aspirar a trabajar para una de las grandes empresas tecnológicas o para startups que suelen estar trabajando en tecnologías que puedan vender a estas empresas. Las universidades deben responder a las prioridades de sus estudiantes, lo que significa que se ven impelidas a alimentar las conexiones con las grandes empresas tecnológicas.
Como en el caso del cambio climático, un esfuerzo de este tipo requiere centrarse claramente en medir y determinar qué tipos de aplicaciones de la IA son más beneficiosas. En el caso de las tecnologías de vigilancia y seguridad, es factible, aunque no del todo sencillo, definir qué aplicaciones tecnológicas reforzarán la capacidad de las empresas y los gobiernos autoritarios para espiar a las personas y manipular su comportamiento. Puede ser más difícil en el ámbito de la automatización: ¿cómo distinguir una aplicación de automatización de la IA de otra que da lugar a nuevas tareas y actividades para los humanos? Para que la política gubernamental reoriente la investigación, es necesario que estas directrices estén establecidas antes de que se emprenda la investigación y se adopten las tecnologías. Esto exige un mejor marco de medición, una tarea difícil, pero no imposible. Los trabajos teóricos y empíricos existentes sobre los efectos de la automatización y las nuevas tareas muestran que tienen efectos muy distintos en la cuota de mano de obra del valor añadido (es decir, qué parte del valor añadido creado por una empresa o industria corresponde a la mano de obra). Una mayor automatización reduce el porcentaje de mano de obra, mientras que las nuevas tareas lo aumentan. Medir la suma de las consecuencias laborales de las nuevas tecnologías de IA a través de su impacto en la proporción de mano de obra es, por tanto, una vía prometedora. Sobre la base de este marco de medición, la política puede apoyar las tecnologías que tienden a aumentar la proporción de mano de obra en lugar de las que aumentan los beneficios a expensas de la mano de obra..
En segundo lugar, debemos prestar atención a las normas. Del mismo modo que millones de empleados exigen que sus empresas reduzcan su huella de carbono -o que muchos físicos nucleares no estarían dispuestos a trabajar en el desarrollo de armas nucleares-, los investigadores de la IA deberían ser más conscientes, sensibles y expresivos sobre las consecuencias sociales de sus acciones. Pero la responsabilidad no es sólo suya. Todos debemos identificar y ponernos de acuerdo sobre qué tipos de aplicaciones de la IA contribuyen a nuestros males sociales. Un consenso claro sobre estas cuestiones puede desencadenar cambios en las normas que se refuercen a sí mismos, a medida que los investigadores y las empresas de IA sientan la presión social de sus familias, amigos y de la sociedad en general.
Todos tenemos que identificar y ponernos de acuerdo sobre qué tipos de aplicaciones de la IA contribuyen a nuestros males sociales. Para ello son vitales la aportación y el discurso democráticos.
En tercer lugar, todo esto debe integrarse en la gobernanza democrática. Es más fácil que persista el camino equivocado cuando las decisiones se toman sin transparencia y por un pequeño grupo de empresas, líderes e investigadores que no tienen que rendir cuentas a la sociedad. La aportación y el discurso democráticos son vitales para romper ese ciclo.
No estamos ni mucho menos cerca de un consenso al respecto, y los cambios en las normas y la supervisión democrática siguen estando muy lejos. Sin embargo, esta transformación no es imposible. Es posible que ya estemos viendo el comienzo de un despertar social. Por ejemplo, la tecnología Pegasus de NSO Group acaparó titulares cuando se utilizó para piratear el teléfono del fundador y propietario de Amazon, Jeff Bezos, vigilar a disidentes saudíes y vigilar a abogados mexicanos, activistas de derechos humanos con sede en el Reino Unido y periodistas marroquíes. La opinión pública tomó nota. La presión pública obligó a Juliette Kayyem -ex funcionaria de la administración Obama, profesora de Harvard y asesora principal de NSO Group- a dimitir de su cargo en la empresa de software espía y a cancelar un seminario web sobre la seguridad de las periodistas que tenía previsto impartir en Harvard. La presión pública también convenció recientemente a IBM, Amazon y Microsoft para que dejaran temporalmente de vender software de reconocimiento facial a las fuerzas de seguridad, debido a las pruebas de los prejuicios raciales y de género de estas tecnologías y a su uso en el seguimiento y deportación de inmigrantes. Una acción social de este tipo contra empresas destacadas implicadas en prácticas dudosas, y contra los académicos y expertos que trabajan para ellas, sigue siendo una rara excepción. Pero puede y debe ocurrir más a menudo si queremos reorientar nuestros esfuerzos hacia una mejor IA..
Las montañas del futuro
Desgraciadamente,
tengo que terminar este ensayo no con un tono de cauto optimismo, sino
identificando algunos retos formidables que tenemos por delante. El tipo
de transformación que pido sería difícil en el mejor de los casos. Pero
hay varios factores que complican aún más la situación.
Por un
lado, la supervisión democrática y los cambios en las normas sociales
son fundamentales para cambiar el rumbo de la investigación en IA. Pero a
medida que las tecnologías de IA y otras tendencias sociales debilitan
la democracia, podemos encontrarnos atrapados en un círculo vicioso.
Necesitamos un rejuvenecimiento de la democracia para salir de nuestro
predicamento actual, pero nuestra democracia y nuestra tradición de
acción cívica ya están deterioradas y heridas. Otro factor importante,
como ya he mencionado, es que la pandemia actual puede haber acelerado
significativamente la tendencia hacia una mayor automatización y
desconfianza en las instituciones democráticas.
La
pandemia actual puede haber acelerado significativamente la tendencia
hacia una mayor automatización y desconfianza en las instituciones
democráticas. Sería ingenuo subestimar los enormes retos a los que nos
enfrentamos.
Por último, y quizás lo más importante, la dimensión
internacional profundiza el desafío. Supongamos que, a pesar de todas
las dificultades que tenemos por delante, se produce un despertar
democrático en Estados Unidos y surge un consenso en torno a la
reorientación de la IA. Incluso entonces, cientos de miles de
investigadores de China y otros países pueden seguir dedicándose a la
vigilancia y a las aplicaciones militares de la tecnología de IA y
continuar con entusiasmo la tendencia hacia la automatización. ¿Podría
Estados Unidos ignorar este contexto internacional y marcar el rumbo
futuro de la IA por su cuenta? Probablemente no. Por tanto, cualquier
reorientación de la IA debe basarse al menos en un mínimo de
coordinación internacional. Desgraciadamente, el debilitamiento de la
gobernanza democrática ha dificultado la cooperación internacional y las
organizaciones internacionales son aún más débiles que antes.
Nada
de esto desvirtúa el mensaje principal de este ensayo: la dirección de
la IA del futuro y la salud futura de nuestra economía y democracia
están en nuestras manos. Podemos y debemos actuar. Pero sería ingenuo
subestimar los enormes retos a los que nos enfrentamos
Daron Acemoglu is Institute Professor at MIT. He is coauthor, with James A. Robinson, of The Narrow Corridor: States, Societies, and the Fate of Liberty and Why Nations Fail: The Origins of Power, Prosperity, and Poverty. Find him on Twitter @DrDaronAcemoglu.
https://intafuturo.blogspot.com/
https://intafuturo.blogspot.com/2023/04/power-and-progress-daron-acemoglu-y.html
https://intafuturo.blogspot.com/2023/04/el-futuro-de-la-ia-no-tiene-por-que-ser.html
No hay comentarios:
Publicar un comentario