header image
The world according to cdlu


acva bili chpc columns committee conferences elections environment essays ethi faae foreign foss guelph hansard highways history indu internet leadership legal military money musings newsletter oggo pacp parlchmbr parlcmte politics presentations proc qp radio reform regs rnnr satire secu smem statements tran transit tributes tv unity

Recent entries

  1. A podcast with Michael Geist on technology and politics
  2. Next steps
  3. On what electoral reform reforms
  4. 2019 Fall campaign newsletter / infolettre campagne d'automne 2019
  5. 2019 Summer newsletter / infolettre été 2019
  6. 2019-07-15 SECU 171
  7. 2019-06-20 RNNR 140
  8. 2019-06-17 14:14 House intervention / intervention en chambre
  9. 2019-06-17 SECU 169
  10. 2019-06-13 PROC 162
  11. 2019-06-10 SECU 167
  12. 2019-06-06 PROC 160
  13. 2019-06-06 INDU 167
  14. 2019-06-05 23:27 House intervention / intervention en chambre
  15. 2019-06-05 15:11 House intervention / intervention en chambre
  16. older entries...

Latest comments

Michael D on Keeping Track - Bus system overhaul coming to Guelph while GO station might go to Lafarge after all
Steve Host on Keeping Track - Bus system overhaul coming to Guelph while GO station might go to Lafarge after all
G. T. on Abolish the Ontario Municipal Board
Anonymous on The myth of the wasted vote
fellow guelphite on Keeping Track - Rethinking the commute

Links of interest

  1. 2009-03-27: The Mother of All Rejection Letters
  2. 2009-02: Road Worriers
  3. 2008-12-29: Who should go to university?
  4. 2008-12-24: Tory aide tried to scuttle Hanukah event, school says
  5. 2008-11-07: You might not like Obama's promises
  6. 2008-09-19: Harper a threat to democracy: independent
  7. 2008-09-16: Tory dissenters 'idiots, turds'
  8. 2008-09-02: Canadians willing to ride bus, but transit systems are letting them down: survey
  9. 2008-08-19: Guelph transit riders happy with 20-minute bus service changes
  10. 2008=08-06: More people riding Edmonton buses, LRT
  11. 2008-08-01: U.S. border agents given power to seize travellers' laptops, cellphones
  12. 2008-07-14: Planning for new roads with a green blueprint
  13. 2008-07-12: Disappointed by Layton, former MPP likes `pretty solid' Dion
  14. 2008-07-11: Riders on the GO
  15. 2008-07-09: MPs took donations from firm in RCMP deal
  16. older links...

2019-05-27 ETHI 151

Standing Committee on Access to Information, Privacy and Ethics



The Chair (Mr. Bob Zimmer (Prince George—Peace River—Northern Rockies, CPC)):

We'll call to order our meeting of the Standing Committee on Access to Information, Privacy and Ethics, and to a larger extent, our international grand committee.

We'd like to welcome especially the visitors from around the globe tonight.

You will notice some empty seats beside you. We've heard of some unexpected flight delays for some of the delegations. They will definitely be here. Some are arriving as we speak. Some are arriving in about an hour from now. Again, my apologies for their not being here as planned.

I'd like to go through, first of all, the countries that are going to be represented tonight, tomorrow and Wednesday. Then we'll go around and have some brief introductions, and get right into the presentations.

We're still expecting some of our witnesses to come, as well.

We'll start off with the countries that are represented, confirmed just today—Canada, of course, the United Kingdom, Singapore, Ireland, Germany, Chile, Estonia, Mexico, Morocco, Ecuador, St. Lucia, and Costa Rica.

I will say that we have lost a few due to something called elections around the globe that we can't really have control over. Those have gotten in the way of some of the other countries being able to get here.

I see some of our witnesses. Mr. Balsillie and Mr. McNamee, please take your seats at the front. We're just getting started. Welcome.

I want to go around the table quickly and have the delegates say their name and introduce the country they're from.

Let's start off with our member from Estonia.

Ms. Keit Pentus-Rosimannus (Vice-Chairwoman, Reform Party, Parliament of the Republic of Estonia (Riigikogu)):

Hello, everyone.

I am Keit Pentus-Rosimannus, representing the Estonian Parliament today.

Ms. Sun Xueling (Senior Parliamentary Secretary, Ministry of Home Affairs and Ministry of National Development, Parliament of Singapore):

Hi, everyone.

I am Sun Xueling. I'm the senior parliamentary secretary, Ministry of Home Affairs and Ministry of National Development, from Singapore.

Thank you.

Mr. Edwin Tong (Senior Minister of State, Ministry of Law and Ministry of Health, Parliament of Singapore):

Good evening, everyone.

I'm a member of Parliament from Singapore and also Senior Minister of State in the Ministry of Health and Ministry of Law in Singapore.

Thank you.

Mr. Jens Zimmermann (Social Democratic Party, Parliament of the Federal Republic of Germany):


My name is Jens Zimmermann. I'm a member of the German Bundestag, and I'm the spokesperson on digitalization for the Social Democrats.

Mr. Charlie Angus (Timmins—James Bay, NDP):

I am Charlie Angus, vice-chair of this committee and a member of the New Democratic Party. I represent the constituency of Timmins—James Bay, which isn't a country, but it is larger than France. [Translation]

Mr. Jacques Gourde (Lévis—Lotbinière, CPC):

I'm Jacques Gourde, Conservative member for Lévis—Lotbinière. [English]

Hon. Peter Kent (Thornhill, CPC):

I am Peter Kent, the member of Parliament for Thornhill on the northern city limits of Toronto. I am the critic for the official opposition, the Conservative Party, on the ethics committee, which is responsible for ethics, lobbying, information and privacy.

Mr. Nathaniel Erskine-Smith (Beaches—East York, Lib.):

I'm Nate Erskine-Smith. I'm a Liberal member, representing a Toronto area riding called Beaches—East York. I'm the Liberal vice-chair of this committee.

Mr. Raj Saini (Kitchener Centre, Lib.):

My name is Raj Saini. I'm the member of Parliament for Kitchener Centre. I'm a Liberal member. I also sit on the foreign affairs and international development committee.

Ms. Anita Vandenbeld (Ottawa West—Nepean, Lib.):

I am Anita Vandenbeld. I'm the Liberal member of Parliament for Ottawa West—Nepean, which is about 15 minutes west of here. I'm also on the foreign affairs committee and chair of the Subcommittee on International Human Rights.

Mr. David de Burgh Graham (Laurentides—Labelle, Lib.):

My name is David Graham. I represent the riding of Laurentides—Labelle, which is a much smaller riding than Charlie's, but it is much bigger than Singapore. I'm on four other committees. In terms of this one, I'm not a regular member but I am a regular member, if you can call it that.

Thank you for this.


The Chair:

Thank you.

I'll finish.

My name is Bob Zimmer, member of Parliament for Prince George—Peace River—Northern Rockies, the beautiful northern British Columbia riding with the Rockies running right through it. I also chair the access to information, privacy and ethics committee that we sit before tonight.

Also, I'll give Mr. Kint some credit today. I gave you some credit earlier. This whole idea of the international grand committee came out of a Washington summit meeting in a pub with me, Mr. Erskine-Smith, Ian Lucas and Damian Collins. That's how it really started. We wanted to do something better—we thought better together as a coalition of countries to work out some solutions to these problems. So I'll give you some credit for probably buying one of the beers that one night. I appreciate that.

Mr. Angus has a comment, and then we'll get into the presentations.

Mr. Charlie Angus:

I'm sorry to interrupt, Mr. Chair, but I just wanted to confirm that our committee, through all-party consensus, issued a subpoena to Mr. Zuckerberg and Ms. Sandberg. I do believe that's unprecedented. I am reading reports that Facebook is speaking to media, saying they're not showing up to our committee. I am not aware whether they have officially responded to the subpoena.

Can you inform this committee whether they have bothered to respond to us on this issue?

The Chair:

Yes, I've seen similar.... The story, I believe, was on CNN this afternoon. I have not received that, as chair of the committee. Whether they will show up or won't show up.... We've asked the clerk, as well. We haven't received any communication to say they're not going to be appearing tomorrow morning.

My expectation is that we'll have some spaces for them to come and sit and give testimony. Whether or not they choose to fill those is up to them.

Again, it's my hope and expectation that they will follow through with our subpoena and show up tomorrow. That's just my comment back that officially, nothing as chair, nothing as clerk of the committee.

Mr. Charlie Angus:

Thank you very much.

The Chair:

We'll get right into it tonight. It's a bit more of an informal presentation from our guests tonight, so we won't be asking questions. This is just setting the stage for the next couple of days. It's warming up the conversation on why we're here and why we need to be concerned about big data, privacy and disinformation, etc.

We'll start off with Mr. Kint.

We'll give you the floor.

First, I'll read the list so that you'll know when you're the next to speak, and maybe I'll say who you represent, although you're all here as individuals.

As I said, we're starting with Jason Kint.

Jim Balsillie, chair, Centre for International Governance Innovation.

Roger McNamee, author of Zucked.

Roger, I know your resumé goes a lot longer than that, but we'll keep it short.

Taylor Owen, associate professor, McGill University.

Ben Scott.

Heidi Tworek, assistant professor, University of British Columbia.

Shoshana Zuboff.

Shoshana, I really appreciated your book. It's very informative.

Last but not least is Maria Ressa. She is with us via teleconference.

We're glad you could join us tonight, Maria. I know that you've been in some trying circumstances of late. It would have been nice to have you here, but I understand that that's out of your control.

We'll start off with Jason, and next will be Jim.

Go ahead, Jason.

Mr. Jason Kint (Chief Executive Officer, Digital Content Next):

Thank you for the opportunity to appear before the international grand committee. I am the CEO of the U.S.-based trade association Digital Content Next, and I appreciate the opportunity to speak on behalf of high-quality digital publishers.

We represent about 80 publishers globally. Many of them have offices in your home countries. They include the New York Times, the Wall Street Journal, the Financial Times, the BBC, the Guardian, Axel Springer. There are nearly 80 members. To be clear, our members do not include any social media, search engine or ad tech companies. That may be part of why I'm here.

DCN has prioritized shining a light on issues that erode trust in the digital marketplace, including a troubling data ecosystem that has developed with very few legitimate constraints on the collection and use of data about consumers. As a result, personal data is now valued more highly than context, consumer expectations, copyright and even facts themselves.

As policy-makers around the world scrutinize these practices, we urge you, along with industry stakeholders, to take action. We believe it is vital that policy-makers begin to connect the dots between the three topics of your inquiry: data privacy, platform dominance and societal impact.

Today, personal data is frequently collected by unknown third parties without consumer knowledge or control. That data is then used to target consumers across the web as cheaply as possible. This dynamic creates incentives for bad actors, particularly on unmanaged platforms like social media which rely on user-generated content mostly with no liability, where the site owners are paid on the click whether it is from an actual person or a bot, on trusted information or on disinformation.

We are optimistic about regulations like the GDPR in the EU which, properly enforced—that's important, properly enforced—contain narrow purpose limitations to ensure companies do not use data for secondary uses. We recommend exploring whether large tech platforms that are able to collect data across millions of websites, devices and apps should even be allowed to use this data for secondary purposes.

As an example of critically important action, we applaud the decision of the German cartel office to limit Facebook's ability to collect and use data across its apps and across the web. It's a very important decision.

The opaque data-driven ecosystem has strongly benefited intermediaries, primarily Google, and harmed publishers and advertisers. These intermediaries have unique leverage as gatekeepers and miners of our personal data. As a result, issues have surfaced including bot fraud, malware, ad blockers, clickbait, privacy violations and now disinformation, all over the past decade. However, importantly these are all symptoms. Make no mistake, the root cause is unbridled data collection at the most personal level imagined.

It is important to understand the power of these two companies. Four years ago, DCN did the original financial analysis labelling Google and Facebook the duopoly of digital advertising. The numbers are startling. In a $150-billion-plus digital ad market across North America and the E.U., 85% to 90% of the incremental growth is going to just these two companies. As we dug deeper, we connected the revenue concentration to the ability of these two companies to collect data in a way that no one else can. This means both companies know much of your browsing history and your location history. Data is the source of their power. The emergence of this duopoly has created a misalignment between those who create the content and the those who profit from it.

Finally, these data practices coupled with the dominance, without accountability, of these two companies is indeed impacting society. The scandal involving Facebook and Cambridge Analytica underscores the current dysfunctional dynamic. Under the guise of research, GSR collected data on tens of millions of Facebook users. As we now know, Facebook did next to nothing to ensure that GSR kept a close hold on our data. This data was ultimately sold to Cambridge Analytica and it was used for a completely different purpose: to target political ads and messages, including the 2016 U.S. election.

With the power Facebook has over our information ecosystem, our lives and democratic systems, it is vital to know whether we can trust the company. Many of its practices prior to reports of the Cambridge Analytica scandal clearly warrant significant distrust.


Although there has been a well-documented and exhausting trail of apologies, it's important to note that there has been little or no change in the leadership or governance of Facebook, Inc. In fact, the company has repeatedly refused to have its CEO offer evidence to pressing international governments wanting to ask smart questions, leaving lawmakers with many unanswered questions.

Equally troubling, other than verbal promises from Facebook, it's not clear what will prevent this from happening again. We believe there should be a deeper probe, as there is still much to learn about what happened and how much Facebook knew about the scandal before it became public. Facebook should be required to have an independent audit of its user account practices and its decisions to preserve or purge real and fake accounts over the past decade. We urge you to make this request.

To wrap up, it is critical to shed light on these issues to understand what steps must be taken to improve data protection, including providing consumers with greater transparency and choice over their personal data when using practices that go outside of the normal expectations of consumers. Policy-makers globally must hold digital platforms accountable for helping to build a healthy marketplace, restoring consumer trust and restoring competition.

Thank you for your time. I appreciate the opportunity to discuss these issues with you today.

The Chair:

Thank you, Mr. Kint.

You've kept very well under your seven-minute time. I'd like to remind everybody that seven minutes is the time allotted, so that was a good job.

Next up is Mr. Balsillie.

Mr. Jim Balsillie (Chair, Centre for International Governance Innovation, As an Individual):

Thank you very much, Mr. Chair. I will take less than that because I will be giving formal comments to the committee tomorrow.

Mr. Chairman and committee members, it's my honour and privilege to testify today to such distinguished public leaders. Data governance is the most important public policy issue of our time. It is crosscutting with economic, social and security dimensions. It requires both national policy frameworks and international coordination.

In my testimony tomorrow, I will give more description, and then I will end with six specific recommendations. I will spend a couple of minutes today speaking to one of the recommendations that I would like to bring forward to the group, which is that you create a new institution for like-minded nations to address digital co-operation and stability.

The data-driven economy's effects cannot be contained within national borders. New approaches to international coordination and enforcement are critical as policy-makers develop new frameworks to preserve competitive markets and democratic systems that evolved over centuries under profoundly different technological conditions. We have arrived at a new Bretton Woods moment. We need new or reformed rules of the road for digitally mediated global commerce, a world trade organization 2.0.

In the aftermath of the 2008 financial crisis, the Financial Stability Board was created to foster global financial co-operation and stability. A similar global institution, say, a digital stability board, is needed to deal with the challenges posed by digital transformation. The nine countries on this committee plus the five other countries attending, totalling 14, could constitute the founding members of such a historic plurilateral body that would undoubtedly grow over time.

Thank you.


The Chair:

Thank you, Mr. Balsillie.

Next up we have Roger McNamee. Taylor Owen is on deck.

Go ahead, Mr. McNamee.

Mr. Roger McNamee (Author of Zucked, As an Individual):

I want to thank you for the opportunity to be here.

I come here as someone who has spent an entire professional lifetime involved in Silicon Valley building the best and brightest companies. The core thing I want you to understand is that the culture of Silicon Valley has come completely off the rails and that the technology industry today is committed to monopoly. It is committed to, as Professor Zuboff will describe, a form of capitalism that would be foreign to any of us who have grown up in the last 50 years.

In my mind, the industry has demonstrated that it is not capable of governing itself and that, left to its own devices, it will, as a matter of course, create harms that cannot easily be remedied. As a consequence, I believe it is imperative that this committee and nations around the world engage in a new thought process relative to the ways that we're going to control companies in Silicon Valley, especially to look at their business models.

The core issue that I would point to here, relative to business models, is that, by nature, they invade privacy, and that, by nature, they undermine democracy. There is no way to stop that without ending the business practices as they exist. I believe the only example we have seen of a remedy that has a chance of success is the one implemented by Sri Lanka recently when it chose to shut down the platforms in response to a terrorist act. I believe that is the only way governments are going to gain enough leverage in order to have reasonable conversations.

My remarks tomorrow will go into that in more depth.

I want to thank you for this opportunity. I want you to understand that I will be available to any of you at any time to give you the benefit of my 35 years inside Silicon Valley so you understand what it is we're up against.

Thank you very much.

The Chair:

Thank you very much, Mr. McNamee.

Next up, we have Taylor Owen, and on deck is Ben Scott.

Go ahead, please.

Professor Taylor Owen (Associate Professor, McGill University, As an Individual):

Thank you, co-chairs Zimmer and Collins, and committee members, for having me. I have to say it's a real honour to be here with you and amongst these other panellists.

I'm particularly heartened, though, because even three years ago, I think a meeting like this would have seemed unnecessary to many in the public, the media, the technology sector and by governments themselves. However, now I would suggest that we're in an entirely different policy moment. I want to make five observations about this policy space that we're in right now.

The first point I want to make is that it's pretty clear that self-regulation and even many of the forms of co-regulation that are being discussed have proven and will continue to prove to be insufficient for this problem. The financial incentives are simply powerfully aligned against meaningful reform. These are publicly traded, largely unregulated companies, which shareholders and directors expect growth by maximizing a revenue model that is itself part of the problem. This growth may or may not be aligned with the public interest.

The second point I want to make is that this problem is not one of bad actors but one of structure. Disinformation, hate speech, election interference, privacy breaches, mental health issues and anti-competitive behaviour must be treated as symptoms of the problem, not its cause. Public policy should therefore focus on the design and the incentives embedded in the design of the platforms themselves.

It is the design of the attention economy which incentivizes virality and engagement over reliable information. It is the design of the financial model of surveillance capitalism, which we'll hear much more about, which incentivizes data accumulation and its use to influence our behaviour. It is the design of group messaging which allows for harmful speech and even the incitement of violence to spread without scrutiny. It is the design for global scale that is incentivized in perfect automation solutions to content filtering, moderation and fact-checking. It is the design of our unregulated digital economy that has allowed our public sphere to become monopolized.

If democratic governments determine that this structure and this design is leading to negative social and economic outcomes, as I would argue it is, then it is their responsibility to govern.

The third point I would make is that governments that are taking this problem seriously, many of which are included here, are all converging I think on a markedly similar platform governance agenda. This agenda recognizes that there are no silver bullets to this broad set of problems we're talking about. Instead, policies must be domestically implemented and internationally coordinated across three categories: content policies which seek to address a wide range of both supply and demand issues about the nature, amplification and legality of content in our digital public sphere; data policies which ensure that public data is used for the public good and that citizens have far greater rights over the use, mobility and monetization of their data; and competition policies which promote free and competitive markets in the digital economy.

That's the platform governance agenda.

The fourth point I want to make is that the propensity when discussing this agenda to over-complicate solutions serves the interests of the status quo. I think there are many sensible policies that could and should be implemented immediately. The online ad micro-targeting market could be made radically more transparent, and in many cases suspended entirely. Data privacy regimes could be updated to provide far greater rights to individuals, and greater oversight and regulatory power to punish abuses. Tax policy could be modernized to better reflect the consumption of digital goods and to crack down on tax base erosion and profit-sharing. Modernized competition policy could be used to restrict and roll back acquisitions and to separate platform ownership from application and product development. Civic media can be supported as a public good, and large-scale and long-term civic literacy and critical thinking efforts can be funded at scale by national governments, not by private organizations.

That few of these have been implemented is a problem of political will, not of policy or technical complexity.

Finally, though, and the fifth point I want to make is that there are policy questions for which there are neither easy solutions, meaningful consensus nor appropriate existing international institutions, and where there may be irreconcilable tensions between the design of the platforms and the objectives of public policy.

The first is on how we regulate harmful speech in a digital public sphere. At the moment, we've largely outsourced the application of national laws as well as the interpretation of difficult trade-offs between free speech and personal and public harms to the platforms themselves: companies that seek solutions, rightly in their perspective, that can be implemented at scale globally. In this case, I would argue that what is possible technically and financially for the companies might be insufficient for the goals of the public good, or the public policy goals.


The second issue is liable for content online. We've clearly moved beyond the notion of platform neutrality and absolute safe harbour, but what legal mechanisms are best suited to holding platforms, their design and those who run them accountable?

Finally, as artificial intelligence increasingly shapes the character and economy of our digital public sphere, how are we going to bring these opaque systems into our laws, norms and regulations?

In my view, these difficult conversations, as opposed to what I think are the easier policies that can be implemented, should not be outsourced to the private sector. They need to be led by democratically accountable governments and their citizens, but this is going to require political will and policy leadership, precisely what I think this committee represents.

Thank you very much.


The Chair:

Thank you, Mr. Owen.

We'll go next to Mr. Scott.

Dr. Ben Scott (As an Individual):

Thank you very much, Mr. Chairman. It's a privilege and an honour to be here in front of this assembled international committee.

I appear before you this evening as an unlikely witness. I say that because I've spent pretty much my entire career promoting the virtues of the open Internet. I came of age during the Internet revolution of the late 1990s. I worked on the first truly digital political campaign for President Barack Obama in 2008. I was one of Hillary Clinton's digital diplomats in the heyday of Internet freedom during the Arab Spring. It was a moment in time when it seemed like smart phones and social media were the genuine catalysts of social and political movements to democratize the world. It was an inspiring moment. These technologies did help those things happen.

I'm an idealist at heart. I wanted to be in the middle of that revolution, but I sit before you today as a troubled idealist. I went back and worked for my old boss in 2016 on her presidential campaign. I ran the technology policy advisory committee. I had a ringside seat to what happened in America between 2015 and 2017. What I saw was that the open Internet that was meant to expand freedom instead turned into a powerful technology of social manipulation and political distortion. You all know the story. What was once the great hope for the revitalization of democracy is now considered by many to be among its greatest threats. My friends, that is a bitter irony—bitter—but it doesn't need to be that way.

The promise of information networks to distribute power to the people is a promise that we can reclaim, but we need to see at what point the astonishing control over wealth and power in this industry began to develop and steer things off course. The roots of this are deep, and we can track it back for decades, but I pinpoint a moment in time between 2014 and 2017 when machine learning technologies were applied to social media platforms, so-called artificial intelligence.

These technologies were not core to the Facebook and Google business models in 2011 and 2012 during the heyday of the Arab Spring. They arrived on the scene sometime later. If you want to know exactly when they arrived on the scene, look at the profit and revenue charts of Google and Facebook. I've written down the numbers for Facebook just to give you the case in point. In 2011, Facebook for the first time made $1 billion in profit on $4 billion in revenue. In 2017, just six years later, after the advent of these new technologies, they made $16 billion in profit on $40 billion in revenue. That's a more than 10x increase in six years.

How did that happen? It happened because they figured out a business model for superprofits. Step one: Track everything that billions of people do online and put it in a database. Step two: Sort that data and group people into target audiences and then sell access to their attention, engineering your entire information marketplace to optimize not for the quality of information or the civility of the dialogue in our society, but optimize just for addictiveness and time spent on the platform. Because the more time people spend on the platform, the more ads they see, and the more money the superprofits make.

It's a beautiful business model, and it works. It works with 10x profit in six years. Very few companies can claim anything like that kind of growth.

Also, it's not just the ads that get targeted. Everything gets targeted. The entire communications environment in which we live is now tailored by machine intelligence to hold our attention. This is not a recipe for truth and justice. What feels true performs better than what is true. Conspiracy and hate have become the organizing themes of social media, and that is a space that is easily exploited by propagandists peddling bigotry, social division and hatred to the disillusioned.

This is the connection between the data markets that we've heard talked about at this table and the abhorrent content you see online, whether we're talking about everyday hate speech or about something truly awful like the shootings in New Zealand. It is the algorithms that lead us into the temptation of our biases. This is what we have to address. We cannot rely on the industry to fix this problem.


The core problem lies at the heart of the business model, what Professor Zuboff calls “surveillance capitalism”, and these companies are kings of the market. Public traded companies—

The Chair:

Just a second. The translation just went from English to Spanish, I believe. We'll just let the translators know.

I'm good at English, but not at Spanish.

Dr. Ben Scott:

That's that machine intelligence coming in to steer you away from my testimony.

The Chair:

Translation, are we good to go? Okay.

Go ahead, Mr. Scott. Sorry.

Dr. Ben Scott:

I've spent the last two and a half years studying this problem, pretty much from the day I woke up after the U.S. presidential election in November 2016, and I'm convinced of the thesis that I've just laid out to you. However, I want to be clear: Technology doesn't cause this problem. It accelerates it. It shapes it. It shapes its growth and its direction. It determines in what ways social development and history flow. Technology is an amplifier of the intentions of those who use it. These consequences are, in my view, not inevitable. There's no technological determinism here. We can fix this.

Just as we made policy decisions to expand access to affordable Internet and to make net neutrality the law of so many lands—we did that to support the democratizing potential of the technology—we can now make policies to limit the exploitation of these tools by malignant actors and by companies that place profits over the public interest. We have to view our technology problem through the lens of the social problems that we're experiencing.

This is why the problem of political fragmentation, hate speech or tribalism in digital media, depending on how you want to describe it, looks different in each of your countries. It looks different in each of your countries because it feeds on the social unrest, the cultural conflict and the illiberalism that is native to each society. There are common features that stretch across the board, but each country is going to see this in a slightly different way.

To be fair, our democracies are failing a lot of people. People are upset for good reason, but that upset is not manifesting as reform anymore. It's manifesting as a kind of festering anger. That radicalism comes from the way technology is shifting our information environments and shaping how we understand the world. We rarely see the world through the eyes of others. We are divided into tribes, and we are shown a version of the world day in and day out, month after month, that deepens our prejudices and widens the gaps between our communities. That's how we have to understand this problem.

To treat this, this sickness, this disease, we have to see it holistically. We have to see how social media companies are part of a system. They don't stand alone as the supervillains, as much as we might like to brand them that way, although they carry a great deal of responsibility. Look and see how the entire media market has bent itself to the performance metrics of Google and Facebook. See how television, radio and print have tortured their content production and distribution strategies to get likes and shares and to appear higher in the Google News search results. It's extraordinary. It reinforces itself, the traditional media and the new media.

Yes, I completely agree with Professor Owen that we need a public policy agenda and that it has to be comprehensive. We need to put red lines around illegal content. We need to limit data collection and exploitation. We need to modernize competition policy to reduce the power of monopolies. We also need to pull back the curtain on this puppet show and show people how to help themselves and how to stop being exploited.

I think there's a public education component to this that political leaders have a responsibility to carry. We need to invest in education, and we need to make commitments to public service journalism so that we can provide alternatives for people, alternatives to the mindless stream of clickbait to which we have become accustomed, the temptations into which we are led as passive consumers of social media.

I know this sounds like a lot, but I invite you to join me in recommitting yourself to idealism. It isn't too much to ask because it's what democracy requires.

Thank you very much.

The Chair:

Thank you, Mr. Scott.

Next up is Heidi Tworek, and on deck is Ms. Zuboff.


Dr. Heidi Tworek (Assistant Professor, University of British Columbia, As an Individual):

Thank you so much, Mr. Chair.

Thank you to the distinguished members of the international grand committee for the kind invitation to speak before you today. It's really an honour to support international co-operation in this form.

In my work, I wear two hats. I'm a historian and I analyze policy. I know wearing two hats is a bit of a strange fashion choice, but I think it can help to lead us to much more robust solutions that can stand the test of time.

In my policy work, I have written about hate speech and disinformation in Canada, the United States and in Europe. I'm a member of the steering committee of the transatlantic high level working group on content moderation online and freedom of expression.

Wearing my history hat, I've been working for nearly a decade on the history of media. I just finished this book, which is called News From Germany: The Competition to Control World Communications, 1900-1945. Among other things in this book, I detail how it is that Germany's vibrant, interwar media democracy descended into an authoritarian Nazi regime that could spread anti-Semitic, racist and homophobic propaganda around the world.

While I was writing this book, the present caught up with history in all sorts of, frankly, disturbing ways. The far right around the world revived Nazi terminology using lügenpresse and systempresse—the lying press and the system press—to decry the media. Marginalized groups were targeted online and they were blamed for societal ills that they did not cause. News was falsified for political and economic purposes. Like with radio in the first half of the 20th century, a technology designed with utopian aims became a tool for dictators and demagogues.

As our other witnesses have described, some aspects of the Internet are unprecedented, such as the micro-targeting, the scale, the machine learning and the granular level of surveillance, but some of the underlying patterns look surprisingly familiar to the historians among us.

I'm going to offer five brief lessons from this history that I think can guide our policy discussions in the future and enable us to build robust solutions that can make our democracies stronger rather than weaker.

The first lesson is that disinformation is also an international relations problem. Information warfare has been a feature, not a bug, of the international system for at least a century. The question is not if information warfare exists, but why and when states engage in it.

What we see is that it's often when a state feels encircled, weak or aspires to become a greater power than it already is. This is as true for Germany a hundred years ago as it is for Russia today. If many of the causes of disinformation are geopolitical, we need to remember that many of the solutions will be geopolitical and diplomatic as well.

Second, we need to pay attention to the physical infrastructure of what is happening. Information warfare and disinformation are also enabled by physical infrastructure, whether it's the submarine cables a century ago or fibre optic cables today. One of Britain's first acts of war in World War I was to cut the cables that connected Germany to the rest of the world, pushing Germany to invest in a new communications technology, which was radio. By the time the Nazis came to power, one American radio executive would call it the most potent political agency the world had ever known.

We often think of the Internet as wireless, but that's fundamentally untrue; 95% to 99% of international data flows through undersea fibre optic cables. Google partly owns 8.5% of those submarine cables. Content providers also own physical infrastructure. Sometimes those cables get disrupted because they get bitten through by sharks, but states can bite, too. We do know that Russia and China, for example, are surveying European and North American cables.

We know China, of course, is investing in 5G, but it is combining that in ways that Germany did as well, with investments in international news networks like the Belt and Road News Network, English language TV channels like CGTN, or the Chinese news agency, Xinhua.

The third lesson, as many of the other witnesses have said, is that we need to think about business models much more than individual pieces of content. It's very tempting to focus on examples of individual content that are particularly harmful, but the reason that those pieces of content go viral is because of the few companies that control the bottleneck of information.

Only 29% of Americans or Brits understand that their Facebook newsfeed is algorithmically organized. The most aware are the Finns and only 39% of them understand that. That invisibility accords social media platforms an enormous amount of power. That power is not neutral. At a very minimum, we need far more transparency about how algorithms work, whether they are discriminatory and so on and so forth. As we strive towards evidence-based policy, we need good evidence.


Fourth, we need to be careful to design robust regulatory institutions. Here, the case of Germany in the interwar period offers a cautionary tale. Spoken radio emerged in the 1920s. Bureaucrats in the democratic Weimar Republic wanted to ensure that radio would bolster democracy in a very new democracy after World War I. As that democracy became more politically unstable, those bureaucrats continually instituted reforms that created more and more state supervision of content. The idea here was to protect democracy by preventing news from spreading that would provoke violence. The deep irony of this story is that the minute the Nazis came to power, they controlled radio. Well-intentioned regulation, if we're not careful, can have tragic unintended consequences.

What does that mean for today? It means we have to democracy-proof whatever the solutions are that we come up with. We need to make sure that we embed civil society in whatever institutions we create.

One suggestion that I made with Fenwick McKelvey and Chris Tenove was the idea of social media councils that would be multi-stakeholder fora and that could meet regularly to actually deal with many of the problems we're describing. The exact format and geographical scope are still up for debate, but it's an idea supported by many, including the UN special rapporteur on freedom of expression and opinion.

Fifth, we need to make sure that we still pay attention to and address the societal divisions exploited by social media. The seeds of authoritarianism need fertile soil to grow. If we do not attend to the underlying economic and social discontent, better communication cannot obscure those problems forever.

Let me then remind you of these five lessons. First, disinformation is also an international relations problem. Second, we need to pay attention to physical infrastructure. Third, business models matter more than do individual pieces of content. Fourth, we need to build robust regulatory institutions. Fifth, we must pay attention to those societal divisions that are exploited on social media.

Attending to all of these things, there is no way they can be done within any one nation; they must be done also through international co-operation. That's why it's such a great honour to have had the chance to appear before you today.

Thank you very much.

The Chair:

Thank you, Ms. Tworek.

Next up is Ms. Zuboff.

You, and I with a name like Zimmer, have always been at the end of every list, and you're just about there.

Go ahead, Ms. Zuboff. It's good to have you here.

Ms. Shoshana Zuboff (As an Individual):

Thank you so much, Chairman Zimmer.

Indeed, I'm reminded of elementary school tonight.

Of course, you reverse the order tomorrow morning.

The Chair:

That's just because I understand.

Go ahead.

Ms. Shoshana Zuboff:

It's a lifelong burden.

It's such an honour to be speaking with you tonight, not least in part because I feel this committee right now is our information civilization's best hope for making progress against the threats to democracy that are now endemic as a result of what you've already heard referred to as surveillance capitalism.

I'm so pleased to hear the kind of synergy already in our comments. The themes that the committee has identified to target, the themes of platform accountability, data security and privacy, fake news and misinformation, are all effects of one shared cause. We've heard that theme tonight, and that's such a big step forward. It's very important to underscore that.

I identify this underlying cause as surveillance capitalism, and I define surveillance capitalism as a comprehensive, systemic economic logic that is unprecedented in our experience. I want to take a moment to say what surveillance capitalism is not, because that sets up a set of distinctions we all need to hear.

First of all, and it has been mentioned—thank you, Ben—surveillance capitalism is not technology. It has hijacked the digital for its own purposes. It is easy to imagine the digital without surveillance capitalism. It is impossible to imagine surveillance capitalism without the digital. Conflating those is a dangerous category error.

Second, surveillance capitalism is not a corporation nor is it a group of corporations. There was a time when surveillance capitalism was Google. Then, thanks to Sheryl Sandberg, who I call the typhoid Mary of surveillance capitalism, surveillance capitalism could have been called Google and Facebook. Ultimately, it became the default model for Silicon Valley and the tech sector, but by now this is a virus that has infected every economic sector.

That is why you began with such a startling and important claim, which is that personal data is valued more than content. The reason is that all of these activities, whether we're talking about insurance, retail, publishing, finance, all the way through to product and service, manufacturing and administration, all of these sectors are now infected with surveillance capitalism, so much so that we hear the CEO of the Ford Motor Company, the birthplace of managerial capitalism a century ago, now saying the only way for Ford to compete with the kind of P/Es and market cap that companies like Facebook and Google have is to reconceptualize the company as a data company and stream the data from the 100 million drivers of Ford vehicles. Those data streams now will put them on a par with the likes of Google and Facebook. “Who would not want to invest in us?” he says. We can no longer confine surveillance capitalism to a group of corporations or a sector.

Finally, surveillance capitalism cannot be reduced to a person or a group of persons. As attractive as it is to identify it with some of the leaders of the leading surveillance capitalists or the duopoly, the Zuckerbergs, the Pages, the Brins and so forth, we have blown past that point in our history when we can make that kind of identification.


As an economic logic, which is structure and institutionalize...change the characters, there may be good, independent reasons for changing the characters, limiting their roles and limiting their extraordinary and unprecedented power, but that will not interrupt or outlaw surveillance capitalism.

Having said what it is not, let us just say very briefly what it is. Surveillance capitalism follows the history of market capitalism in the following way. It takes something that exists outside the marketplace and brings it into the market dynamic for production and sale. Industrial capitalism famously claimed nature for the market dynamic, to be reborn as land or real estate that could be sold or purchased. Surveillance capitalism does the same thing, but now with a dark and startling turn. What it does is it claims private human experience for the market dynamic. Private human experience is repurposed as free raw material. These raw materials are rendered as behavioural data.

Some of these behavioural data are certainly fed back into product and service improvement, but the rest are declared as behavioural surplus, identified for their rich predictive value. These behavioural surplus flows are then channelled into the new means of production, into what we call machine intelligence or artificial intelligence. From there, what comes out of this new means of production is a new kind of product—the prediction product. These factories produce predictions of human behaviour.

You may recall a 2018 Facebook memo that was leaked, and we still don't know exactly by whom. That Facebook memo gave us insight into this hub, this machine intelligence hub, of Facebook: FBLearner Flow. What we learned there is that trillions of data points are being computed in this new means of production on a daily basis. Six million “predictions of human behaviour” are being fabricated every second in FBLearner Flow.

What this alerts us to is that surveillance capitalists own and control not one text but two. There is the public-facing text. When we talk about data ownership, data accessibility and data portability, we're talking about the public-facing text, which is derived from the data that we have provided to these entities through our inputs, through our innocent conversations, and through what we have given to the screen. But what comes out of this means of production, the prediction products and how they are analyzed, is a proprietary text, not a public-facing text. I call it the shadow text. All of the market capitalization, all of the revenue and the incredible riches that these companies have amassed in a very short period of time have all derived from the shadow text. These proprietary data will never be known to us. We will never own that data. We will never have access to that data. We will never port that data. That is the source of all their money and power.

Now, what happens to these prediction products? They are sold into a new kind of marketplace that trades exclusively in human futures. The first name of this marketplace was online targeted advertising. The human predictions that were sold in those markets were called click-through rates. Zoom out only a tiny bit and what you understand is that the click-through rate is simply a fragment of a prediction of a human future.

By now we understand that these markets, while they began in the context of online targeted advertising, are no more confined to that kind of marketplace than mass production was confined to the fabrication of the Model T. Mass production was applied to anything and everything successfully. This new logic of surveillance capitalism is following the same route. It is being applied to anything and everything successfully.


Finally, when we look at these human futures markets, how do they compete? They compete on the quality of their predictions. What I have understood in studying these markets is that by reverse engineering these competitive dynamics, we unearth the economic imperatives that drive this logic. These economic imperatives are institutionalized in significant ecosystems that thread through our economy, from suppliers of behavioural surplus to suppliers of computational capabilities and analysis, to market makers and market players.

These imperatives are compulsions. From these imperatives, every single headline—we open the paper every day and see a fresh atrocity—can be predicted by these imperatives. It began with economies of scale. We need a lot of data to make great predictions. It moved on to economies of scope. We need varieties of data to make great predictions. Now it has moved into a third phase of competition, economies of action, where the most predictive forms of data come from intervening in human behaviour—shaping, tuning, herding, coaxing, modifying human behaviour in the directions of the guaranteed outcomes that fulfill the needs of surveillance capitalism's business customers.

This is the world we now live in. As a result, surveillance capitalism is an assault on democracy from below and from above.

From below, its systems globally institutionalize systems of behavioural modification mediated by global digital architectures—our direct assault on human autonomy, on individual sovereignty, the very elements without which the possibility of a democratic society is unimaginable.

From above, what surveillance capitalism means is that we now enter the third decade of the 21st century. After all the dreams we held for this technology, which Ben has described to us, we enter this third decade marked by an asymmetry of knowledge and the power that accrues to that knowledge that can be compared only to the pre-Gutenberg era, an absolutist era of knowledge for the few, and ignorance for the many. They know everything about us; we know almost nothing about them. They know everything about us, but their knowledge about us is not used for us, but for the purposes of their business customers and their revenues.

To complete, it is auspicious that we are meeting tonight in this beautiful country of Canada, because right now, the front line of this war between surveillance capitalism and democracy is being waged in Canada, specifically in the city of Toronto. Surveillance capitalism began with your online browsing and moved to everything that you do in the real world. Through Facebook's online massive-scale contagion experiments and Google-incubated Pokémon GO, it experimented with population-level herding, tuning and behaviour modification.

Those skills, by the way, have now been integrated into Google's smart city application called Waze. But the real apple here, the real prize, is the smart city itself. This is where surveillance capitalism wants to prove that it can substitute computational rule, which is, after all, a form of absolutist tyranny, for the messiness and beauty of municipal governance and democratic contest.


The frontier is the smart city. If it can conquer the smart city, it can conquer democratic society. Right now, the war is being waged in Toronto. If Canada gives Google, that is, Alphabet—Sidewalk Labs now goes out of its way to claim that it is not Google—Toronto, a blow will be struck against the future possibilities of a democratic society in the 21st century.

Thank you for your attention. I hope to return to this discussion tomorrow with the rest of the testimony.

Thank you so much.

The Chair:

Thank you, Ms. Zuboff.

Last, I will go to Maria Ressa. She's coming all the way from Manila in the Philippines.

Go ahead, Ms. Ressa.

Ms. Maria Ressa (Chief Executive Officer and Executive Editor, Rappler Inc., As an Individual):

Good morning.

First of all, what a privilege it is to be in front of you and to listen to everyone. Take everything that you've heard, especially what Shoshana just said.

I'm living this stuff right now. I've been a journalist for more than 30 years, and in the last 14 months, I've had 11 cases, five against me by the government. I've had to post bail eight times in a little over three months, and I've been arrested twice in five weeks. All of this stuff, bottom up.... I call that astroturfing on social media bottom-up information operations that are going down, and then you have top down, which again was described for you much more fully earlier.

I'm going to keep it short because I'll give you a formal presentation tomorrow. I think that, in the end, it comes down to everything that you have heard. It comes down to the battle for truth, and journalists are on the front line of this, along with activists. We're among the first targeted. The legal cases and the lobbying weaponized against me came after social media was weaponized. So, with regard to this battle for truth, at no other time do we really know that information is power. If you can make people believe lies, then you can control them, and that's aside from the commercial aspects of it. We're talking about information as a means to gain geopolitical power. If you have no facts, then you have no truth. If you have no truth, you have no trust.

We've seen that erosion. We first, at Rappler, were a start-up that really looked at information cascades, social networks, family and friends. Social media are your family and friends on steroids, so we looked at how information cascaded. What I'll show you tomorrow is the data that shows you exactly how quickly a nation, a democracy, can crumble because of information operations. If you say a lie a million times, it is the truth. There is this phrase “patriotic trolling”. It is online state-sponsored hate that targets an individual, an organization or an activist, pounding them to silence, inciting hate. We all know that online hate leads to real world violence.

We're the cautionary tale. I've had as much as 90 hate messages per hour. My nation has moved in three years' time from a very vibrant democracy where social media for social good was really used—we lived it. I believed we were.... My organization was one of the ones that worked very closely with Facebook, and then to see it weaponized at the end of 2015 and 2016.... It wasn't until after President Duterte took office in July 2016, the beginning of the drug war. The first targets were anyone on Facebook who questioned the numbers of killings. The UN now estimates that 27,000 people have been killed since July 2016. It's a huge number.

I'll end by saying that tomorrow I will give you the data that shows it. It is systematic. It is an erosion of truth. It is an erosion of trust. When you have that, then the voice with the loudest megaphone wins. In our case, it's President Duterte. We see the same things being carried out in the United States. Whether it's Trump, Putin or Duterte, it's a very similar methodology.

I'll end with this and just say thank you for bringing us in. I mean, what's so interesting about these types of discussions is that the countries that are most affected are democracies that are most vulnerable, like ours here in Southeast Asia, in the global south. Every day that action is not taken by the American tech platforms, the social media platforms that should have American values.... The irony, of course, is that they have eroded that in our countries.

There is some action that has been taken. I will say that we work closely with Facebook as a fact-checker, and I've seen that they're looking at the impact and that they have been trying to move at it. It has to move much faster.

Here's the last part of this: If they're responding to political situations in the west, that normally leads to neutral responses. Neutral responses mean that, in the global south, people will die and people will get jailed. This is a matter of survival for us.

Thank you.


The Chair:

Thank you, Ms. Ressa.

That pretty much brings us to the end of our testimony for this evening.

We're going to Room 225A down the hall to meet more informally and to be able to ask you questions directly. I'm sorry again, Ms. Ressa, that you're not able to be here, but again the idea tonight was to get the conversation going and that will continue over there.

I want to remind everybody we are going to start crisply with testimony at 8:30 tomorrow morning, so I challenge you to be here when you can. I am going to be much more limiting. I gave some latitude with time tonight. Folks on the committee, tomorrow it's five minutes each for questioning. Again we look forward to the testimony.

We won't hear some of you again, but we thank you for making the special trip to be part of this panel tonight, and we look forward to this conversation continuing. Regardless that the Wednesday meeting ends at noon, the conversation will continue on how to make our data world a better place.

We'll see you just down the hall.

The meeting is adjourned.

Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique



Le président (M. Bob Zimmer (Prince George—Peace River—Northern Rockies, PCC)):

Je déclare ouverte la séance du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et, dans une plus large mesure, de notre Grand Comité international.

Nous souhaitons la bienvenue en particulier à nos visiteurs venus de partout dans le monde.

Vous remarquerez que certains sièges sont inoccupés. Nous avons appris que les vols de certaines délégations avaient été retardés. Ils vont assurément venir. Certains arrivent en ce moment même. D'autres vont arriver dans une heure environ. Encore une fois, je suis désolé qu'ils ne soient pas ici comme c'était prévu.

J'aimerais pour commencer faire le tour des pays qui seront représentés ce soir, demain et mercredi. J'inviterai ensuite chacun à se présenter brièvement, et nous passerons ensuite aux exposés.

Nous attendons toujours certains de nos témoins également.

Nous allons commencer par les pays qui sont représentés et qui ont été confirmés aujourd'hui: le Canada, bien sûr, le Royaume-Uni, Singapour, l'Irlande, l'Allemagne, le Chili, l'Estonie, le Mexique, le Maroc, l'Équateur, Sainte-Lucie et le Costa Rica.

Je souligne que nous en avons perdu quelques-uns en raison de ce qu'on appelle les élections, un peu partout dans le monde, et nous n'avons vraiment aucun contrôle là-dessus. C'est ce qui a empêché certains des autres pays d'être présents.

Je vois certains de nos témoins. Monsieur Balsillie et monsieur McNamee, veuillez prendre place à l'avant. Nous commençons tout juste. Bienvenue.

Je vais demander aux délégués de se présenter brièvement en se nommant et en nommant leur pays.

Commençons par la représentante de l'Estonie.

Mme Keit Pentus-Rosimannus (vice-présidente, Parti réformateur, Parlement de la République d'Estonie (Riigikogu)):

Bonjour à tous.

Je suis Keit Pentus-Rosimannus, et je représente le Parlement de l'Estonie.

Mme Sun Xueling (secrétaire parlementaire principale, Ministère des affaires intérieures et Ministère du développement national, Parlement de Singapour):

Bonjour à tous.

Je suis Sun Xueling, secrétaire parlementaire principale du ministère des Affaires intérieures et du ministère du Développement national de Singapour.


M. Edwin Tong (ministre d'État principal, Ministère de la justice et Ministère de la santé, Parlement de Singapour):

Bonjour à tous.

Je suis député au Parlement de Singapour, et je suis également le ministre d'État principal du ministère de la Santé et du ministère de la Justice de Singapour.


M. Jens Zimmermann (Parti social-démocrate, Parlement de la République fédérale d'Allemagne):


Mon nom est Jens Zimmermann. Je suis député au Bundestag allemand et je suis le porte-parole en matière de numérisation pour le Parti social-démocrate.

M. Charlie Angus (Timmins—Baie James, NPD):

Mon nom est Charlie Angus, vice-président de ce comité et député du Nouveau Parti démocratique. Je représente la circonscription de Timmins—Baie James. Ce n'est pas un pays, mais c'est plus vaste que la France. [Français]

M. Jacques Gourde (Lévis—Lotbinière, PCC):

Je suis Jacques Gourde, député conservateur de Lévis—Lotbinière. [Traduction]

L'hon. Peter Kent (Thornhill, PCC):

Je m'appelle Peter Kent, député parlementaire de la circonscription de Thornhill, juste au nord de Toronto. Je suis le porte-parole de l'opposition officielle, le Parti conservateur, à ce comité, lequel s'occupe des questions d'éthique, de lobbying, de renseignement et de protection de la vie privée.

M. Nathaniel Erskine-Smith (Beaches—East York, Lib.):

Je m'appelle Nate Erskine-Smith. Je suis un député libéral et je représente une circonscription de la région de Toronto appelée Beaches—East York. Je suis le vice-président libéral de ce comité.

M. Raj Saini (Kitchener-Centre, Lib.):

Je m'appelle Raj Saini. Je suis le député parlementaire de Kitchener-Centre. Je suis un député libéral. Je siège également au Comité des affaires étrangères et du développement international.

Mme Anita Vandenbeld (Ottawa-Ouest—Nepean, Lib.):

Mon nom est Anita Vandenbeld. Je suis la députée libérale de la circonscription d'Ottawa-Ouest—Nepean, qui se trouve à environ 15 minutes à l'ouest d'ici. Je siège aussi au Comité des affaires étrangères et du développement international, et je suis la présidente du Sous-comité des droits internationaux de la personne.

M. David de Burgh Graham (Laurentides—Labelle, Lib.):

Mon nom est David Graham. Je représente la circonscription de Laurentides—Labelle, qui est nettement plus petite que celle de Charlie, mais nettement plus vaste que Singapour. Je siège à quatre autres comités. En ce qui concerne celui-ci, je n'en suis pas un membre en titre, mais j'y participe régulièrement.

Je vous remercie.


Le président:


Je vais conclure les présentations.

Mon nom est Bob Zimmer, député parlementaire de Prince Georges—Peace River—Northern Rockies, une magnifique circonscription du nord de la Colombie-Britannique qui est traversée par les Rocheuses. Je préside également ce comité, le Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique.

Je veux d'abord rendre à César ce qui est à César et souligner la contribution de M. Kint. Je l'ai fait précédemment. Je souligne que l'idée du Grand Comité international a découlé d'une réunion dans un pub, en marge d'un sommet tenu à Washington, en présence de M. Erskine-Smith, Ian Lucas, Damian Collins et moi-même. C'est ainsi que tout a vraiment commencé. Nous voulions faire quelque chose de mieux — nous avons pensé qu'une coalition de pays réussirait mieux à résoudre ces problèmes. Je vous attribue donc le mérite d'avoir probablement payé une des bières que nous avons bues ce soir-là. Je vous en sais gré.

M. Angus a quelque chose à dire, après quoi nous passerons aux exposés.

M. Charlie Angus:

Je suis désolé de vous interrompre, monsieur le président, mais je voulais simplement confirmer que notre comité, avec le consensus de tous les partis, avait assigné M. Zuckerberg et Mme Sandberg à témoigner devant le Comité. Je crois que c'est sans précédent. Je lis que Facebook parle aux médias et qu'ils n'ont pas l'intention de comparaître devant notre comité. Je ne sais pas s'ils ont répondu officiellement à l'assignation.

Pouvez-vous dire au Comité s'ils se sont donné la peine de nous répondre?

Le président:

Oui. J'ai aussi vu… Je crois que c'était sur CNN, cet après-midi. Je n'ai pas reçu une telle réponse, en tant que président du Comité. Quant à savoir s'ils vont se présenter ou pas… Nous avons aussi demandé au greffier. Nous n'avons rien reçu disant qu'ils ne vont pas comparaître demain matin.

Nous leur réserverons des sièges pour leurs témoignages. C'est à eux qu'il incombe de décider s'ils vont venir s'y asseoir ou pas.

Comme je l'ai dit, j'espère et je compte bien qu'ils vont se conformer à l'assignation à comparaître et se présenter demain. Tout cela pour dire qu'officiellement, je n'ai rien eu en tant que président, et le greffier n'a rien eu non plus.

M. Charlie Angus:

Merci beaucoup.

Le président:

Allons-y. Nos invités nous font des exposés plutôt informels ce soir, et nous n'allons donc pas leur poser de questions. C'est tout simplement une façon de donner le ton aux deux prochaines journées. Nous lançons la conversation en parlant des raisons pour lesquelles nous sommes ici et des raisons pour lesquelles nous devons nous préoccuper des mégadonnées, de la protection des renseignements personnels, de la désinformation et ainsi de suite.

Nous allons commencer par M. Kint.

Nous allons vous donner la parole.

Premièrement, je vais lire la liste pour que vous sachiez quand viendra votre tour de parler. Je pourrais dire qui vous représentez, bien que vous soyez tous ici à titre personnel.

Comme je l'ai dit, ce sera d'abord Jason Kint.

Jim Balsillie, président, Centre pour l'innovation dans la gouvernance internationale.

Roger McNamee, auteur de Zucked.

Monsieur McNamee, je sais que votre curriculum vitae est beaucoup plus long que cela, mais nous allons rester brefs.

Taylor Owen, professeur agrégé, Université McGill.

Ben Scott.

Heidi Tworek, professeure adjointe, Université de la Colombie-Britannique.

Shoshana Zuboff.

Madame Zuboff, j'ai vraiment aimé votre livre. Il est très informatif.

La dernière et non la moindre est Maria Ressa, qui est avec nous par téléconférence.

Nous sommes ravis que vous ayez pu vous joindre à nous ce soir, madame Ressa. Je sais que vous avez vécu des circonstances difficiles dernièrement. Il aurait été formidable de vous avoir avec nous, mais je comprends que c'est hors de notre contrôle.

M. Kint va commencer, puis ce sera M. Balsillie.

Nous vous écoutons, monsieur Kint.

M. Jason Kint (chef de la direction, Digital Content Next):

Je vous remercie de me donner l'occasion de comparaître devant le Grand Comité international. Je suis le PDG de l'association commerciale américaine Digital Content Next, et je vous suis reconnaissant de l'occasion de parler au nom d'éditeurs numériques hautement compétents.

Nous représentons environ 80 éditeurs dans le monde. Bon nombre d'entre eux ont des bureaux dans vos pays d'origine. Citons notamment le New York Times, le Wall Street Journal, le Financial Times, la BBC, The Guardian et Axel Springer. Nous comptons près de 80 membres. Je tiens à préciser que nous n'avons pas de médias sociaux, de moteurs de recherche et d'entreprises de technologie parmi nos membres. C'est peut-être en partie la raison pour laquelle je suis ici.

DCN accorde la priorité à faire la lumière sur des enjeux qui minent la confiance dans le marché numérique, y compris un écosystème de données inquiétant qui s'est créé avec très peu de contraintes légitimes quant à la collecte et à l'utilisation des données sur les consommateurs. Par conséquent, on accorde désormais plus d'importance aux données personnelles qu'au contexte, aux attentes des consommateurs, aux droits d'auteurs et même aux faits.

Pendant que les décideurs du monde entier examinent ces pratiques, nous exhortons le gouvernement et les intervenants de l'industrie à passer à l'action. Nous croyons qu'il est essentiel que les décideurs commencent à établir les liens entre les trois sujets de votre étude: la protection des données, la dominance des plateformes et les répercussions sur la société.

De nos jours, les données actuelles sont souvent colligées par des tierces parties inconnues qui n'ont pas de connaissances sur les consommateurs et n'ont pas de contrôle sur eux. Ces données sont ensuite utilisées pour cibler les consommateurs sur le Web au plus bas prix possible. Cette dynamique crée des incitatifs pour les acteurs malveillants, et plus particulièrement sur des plateformes non gérées comme les médias sociaux qui dépendent de contenu généré par les utilisateurs, où les propriétaires de sites sont payés lorsque des personnes ou des robots cliquent sur des liens qui les dirigent vers des renseignements fiables ou de faux renseignements.

Nous sommes optimistes lorsque nous voyons des règlements comme le RGPD dans l'Union européenne qui, s'ils sont appliqués correctement — et c'est important —, renferment des restrictions strictes pour veiller à ce que les entreprises n'utilisent pas des données à des fins secondaires. Nous recommandons d'examiner si les grandes plateformes technologiques qui sont en mesure de recueillir des données dans des millions de sites Web, appareils et applications devraient être autorisées à utiliser ces données à des fins secondaires.

À titre d'exemple de mesure extrêmement importante, nous saluons la décision de l'Office fédéral de lutte contre les cartels de l'Allemagne de limiter la capacité de Facebook de recueillir et d'utiliser des données par l'entremise de ses applications et sur le Web. C'est une décision très importante.

L'écosystème opaque axé sur les données a grandement bénéficié aux intermédiaires, et principalement à Google, et a causé du tort aux éditeurs et aux annonceurs. Ces intermédiaires ont un atout unique en tant que percepteurs et gardiens de nos données personnelles. Par conséquent, des problèmes ont fait surface au cours de la dernière décennie, y compris des fraudes au moyen de robots, des logiciels malveillants, des bloqueurs de fenêtres publicitaires, des pièges à clics, des atteintes à la vie privée et, maintenant, de la désinformation. Cependant, il convient de noter que ce sont tous des symptômes. Ne vous méprenez pas: la cause profonde est la collecte incontrôlée des données les plus personnelles imaginables.

Il est important de comprendre le pouvoir de ces deux entreprises. Il y a quatre ans, DCN a réalisé l'analyse financière initiale dans laquelle Google et Facebook ont été qualifiés de duopole de la publicité numérique. Les chiffres sont saisissants. Dans un marché de publicités numériques de plus de 150 milliards de dollars en Amérique du Nord et dans l'Union européenne, ces deux entreprises représentent entre 85 et 90 % du taux de croissance. Lorsque nous avons poussé l'étude plus loin, nous avons établi un lien entre la concentration des revenus et la capacité de ces deux entreprises de recueillir des données d'une manière qu'aucune autre entreprise ne peut le faire. Donc, ces deux entreprises connaissent bien votre historique de navigation et l'historique de vos emplacements. Les données sont la source de leur pouvoir. L'émergence de ce duopole a créé un déséquilibre entre ceux qui créent le contenu et ceux qui en bénéficient.

Enfin, ces pratiques relatives aux données et la dominance, sans reddition de comptes, de ces deux entreprises ont une incidence sur la société. Le scandale impliquant Facebook et Cambridge Analytica met en évidence la dynamique dysfonctionnelle actuelle. Dans le cadre de recherches, on a relevé que GSR surveillait étroitement nos données. Comme nous le savons maintenant, Facebook n'a pratiquement rien fait pour veiller à ce que GSR surveille étroitement nos données. Ces données ont fini par être vendues à Cambridge Analytica et ont été utilisées à une fin complètement différente: cibler les publicités et les messages politiques, y compris lors des élections américaines de 2016.

Compte tenu du pouvoir que Facebook a sur notre écosystème d'information, nos vies et nos systèmes démocratiques, il est essentiel de savoir si nous pouvons faire confiance à l'entreprise. Bon nombre de ses pratiques précédant le signalement du scandale impliquant Cambridge Analytica justifient clairement une forte méfiance.


Même si de nombreuses excuses exhaustives et bien documentées ont été présentées, il est important de noter qu'il y a eu peu ou pas de changement dans le leadership ou la gouvernance de Facebook Inc. En fait, l'entreprise a refusé à maintes reprises que son PDG présente des preuves pour avoir exercé des pressions sur des gouvernements internationaux voulant poser des questions pertinentes, ce qui laisse ainsi de nombreuses questions sans réponse pour les législateurs.

Ce qui est tout aussi troublant que les promesses verbales de Facebook, c'est qu'on ne sait pas trop ce qui empêchera une telle situation de se reproduire. Nous croyons qu'une enquête plus approfondie devrait être menée, puisque nous avons encore de nombreuses leçons à tirer de ce qui s'est produit et ne savons pas dans quelle mesure Facebook était au courant du scandale avant qu'il éclate au grand jour. Facebook devrait être assujetti à une vérification indépendante de ses pratiques relatives aux comptes d'utilisateurs et de ses décisions de préserver ou de supprimer des comptes réels et des faux comptes au cours de la dernière décennie. Nous vous exhortons à faire cette demande.

Pour conclure, il est primordial de faire la lumière sur ces enjeux pour comprendre les mesures à adopter afin de renforcer la protection des données, notamment en offrant aux consommateurs une transparence accrue et un choix concernant leurs données personnelles lorsque des pratiques qui dépassent les attentes normales des consommateurs sont utilisées. Les décideurs dans le monde doivent tenir les plateformes numériques responsables de contribuer à bâtir un marché sain, de restaurer la confiance des consommateurs et de rétablir la concurrence.

Merci du temps que vous m'avez consacré. Je vous suis reconnaissant de l'occasion de discuter de ces enjeux avec vous aujourd'hui.

Le président:

Merci beaucoup, monsieur Kint.

Vous avez largement respecté les sept minutes qui vous étaient imparties. J'aimerais rappeler à tous les témoins qu'ils disposent de sept minutes pour présenter leur exposé. Le dernier témoin a fait du bon travail pour respecter son temps de parole.

Le prochain intervenant est M. Balsillie.

Me Jim Balsillie (président, Centre pour l'innovation dans la gouvernance internationale, à titre personnel):

Merci beaucoup, monsieur le président. Je vais prendre moins de temps que cela car je vais faire mon exposé officiel devant le Comité demain.

Monsieur le président et mesdames et messieurs les membres du Comité, c'est un honneur et un privilège pour moi de témoigner aujourd'hui devant d'éminents dirigeants publics. La gouvernance des données est la question de politique publique la plus importante de notre époque. Elle est liée à des aspects d'ordre économique, social et de sécurité. Il faut des cadres stratégiques nationaux et une coordination internationale.

Dans le témoignage que je vais faire demain, je vais décrire plus en détail la situation, puis je terminerai avec six recommandations précises. Je vais prendre quelques minutes aujourd'hui pour discuter de l'une des recommandations dont j'aimerais vous faire part, soit de créer une nouvelle institution pour des nations aux vues similaires afin d'aborder les questions de la coopération et de la stabilité dans le marché numérique.

Les effets d'une économie axée sur les données ne peuvent pas être contenus à l'intérieur des frontières nationales. De nouvelles approches à l'égard de la coordination internationale et de l'application de la loi sont essentielles pour que les décideurs puissent élaborer de nouveaux cadres pour préserver des marchés concurrentiels et des systèmes démocratiques qui ont évolué au fil des siècles dans des conditions technologiques extrêmement différentes. Nous sommes arrivés à un nouveau chapitre dans l'accord de Bretton Woods. Nous avons besoin de règles nouvelles ou réformées pour le commerce mondial numérique, une organisation mondiale du commerce 2.0.

À la suite de la crise financière de 2008, le Conseil de stabilité financière a été créé pour favoriser la coopération et la stabilité financières mondiales. Une institution mondiale similaire, telle qu'un conseil de la stabilité sur le marché numérique, est nécessaire pour faire face aux défis que présente la transformation numérique. Les neuf pays qui font partie de ce comité et les cinq autres pays qui assistent aux séances, pour un total de 14, pourraient constituer les membres fondateurs d'une entité plurilatérale historique de la sorte qui prendrait assurément de l'expansion au fil du temps.



Le président:

Merci, monsieur Balsillie.

Le prochain intervenant sur la liste est Roger McNamee, puis ce sera le tour de Taylor Owen.

On vous écoute, monsieur McNamee.

M. Roger McNamee (auteur de Zucked, à titre personnel):

Je tiens à vous remercier de l'occasion d'être ici.

Je suis ici en tant que personne qui a passé toute sa carrière à Silicon Valley à bâtir les meilleures entreprises. Ce que je veux que vous compreniez surtout, c'est que la culture de Silicon Valley a complètement déraillé et que l'industrie de la technologie se tourne vers le monopole. Elle se tourne, comme M. Zuboff l'a décrit, vers une forme de capitalisme qui serait inconnue à tous ceux ici qui ont grandi au cours des 50 dernières années.

À mon avis, l'industrie a démontré qu'elle est incapable de se gouverner elle-même et que, lorsqu'elle doit se débrouiller par ses propres moyens, elle causera des torts auxquels il est difficile de remédier. Par conséquent, je crois qu'il est impératif que ce comité et les pays dans le monde entier se lancent dans un nouveau processus de réflexion relativement aux façons que nous allons contrôler les entreprises dans la Silicon Valley, surtout pour examiner leurs modèles d'affaires.

Je dirais que le principal problème concernant les modèles d'affaires est que, de nature, ils violent la vie privée et minent la démocratie. Il n'y a aucun moyen d'empêcher cela sans mettre fin aux pratiques commerciales dans leur forme actuelle. Je crois que le seul exemple de solution qui a des chances de succès est celle qui a été mise en œuvre par le Sri Lanka récemment lorsqu'il a décidé de fermer les plateformes à la suite d'un acte terroriste. Je crois que c'est la seule façon que les gouvernements pourront avoir une marge de manœuvre suffisante pour tenir des conversations raisonnables.

J'entrerai plus dans les détails dans ma déclaration de demain.

Je tiens à vous remercier de cette occasion. Je veux que vous sachiez que je serai à votre disposition à n'importe quel moment pour vous faire bénéficier de mes 35 années d'expérience dans la Silicon Valley afin que vous puissiez comprendre ce à quoi nous sommes confrontés.

Merci beaucoup.

Le président:

Merci beaucoup, monsieur McNamee.

Le prochain intervenant est Taylor Owen, puis ce sera au tour de Ben Scott.

Allez-y, s'il vous plaît.

M. Taylor Owen (professeur agrégé, Université McGill, à titre personnel):

Merci, messieurs les coprésidents Zimmer et Collins, et mesdames et messieurs les membres du Comité, de me recevoir. Je dois dire que c'est un véritable honneur d'être ici avec vous et ces autres témoins.

Je suis particulièrement encouragée, car il y a trois ans, je pense qu'une réunion comme celle-ci aurait semblé inutile pour bon nombre des membres du public, les médias, le secteur de la technologie et les gouvernements. Cependant, je dirais que nous sommes dans une période politique complètement différente. Je veux faire cinq observations à propos du contexte politique dans lequel nous sommes à l'heure actuelle.

Le premier point que je veux soulever, c'est qu'il est assez évident que l'autoréglementation et même de nombreuses formes de coréglementation qui ont fait l'objet de discussions ont démontré et continueront de démontrer qu'elles sont insuffisantes pour régler ce problème. Ces incitatifs financiers vont grandement à l'encontre d'une importante réforme. Ce sont des entreprises cotées en bourse très peu réglementées dans lesquelles les actionnaires et les administrateurs s'attendent à une croissance en maximisant un modèle de revenus qui fait partie du problème. Cette croissance peut cadrer ou non avec l'intérêt public.

Le deuxième point que je veux soulever est que ce problème ne repose pas sur des mauvais acteurs; c'est plutôt un problème de structure. La désinformation, les discours haineux, l'ingérence électorale, les atteintes à la vie privée, les problèmes de santé mentale et les comportements anticoncurrentiels doivent être traités comme des symptômes du problème, et non pas comme sa cause. La politique publique devrait donc mettre l'accent sur la conception et les incitatifs enchâssés dans la conception des plateformes.

C'est la conception de l'économie de l'attention, ce qui favorise la viralité et l'engagement à l'égard de renseignements pertinents. C'est la conception du modèle financier du capitalisme de surveillance, dont nous entendrons beaucoup plus parler, ce qui incite à l'accumulation de données et à l'utilisation de données pour influer sur notre comportement. C'est la conception de la messagerie de groupe, ce qui permet la transmission de messages haineux et incite même à la violence sans qu'une surveillance soit exercée. C'est la conception sur la scène internationale, ce qui offre des incitatifs par l'entremise de solutions d'automatisation parfaites, de filtrage du contenu, de modération et de vérification des faits. C'est la conception de notre économie numérique non réglementée qui a permis à notre sphère publique de devenir monopolisée.

Si les gouvernements démocratiques déterminent que cette structure et cette conception produisent des résultats sociaux et économiques négatifs, et je dirais que c'est le cas, alors il leur incombe de gouverner.

Le troisième point que je veux faire valoir, c'est que les gouvernements qui prennent ce problème au sérieux, dont bon nombre sont inclus ici, convergent tous, je pense, vers un programme de gouvernance des plateformes très semblable. Ce programme reconnaît qu'il n'existe pas de solution miracle à ce vaste ensemble de problèmes dont nous discutons. Plutôt, les politiques doivent être mises en oeuvre à l'échelle nationale et coordonnées à l'échelle internationale. Elles sont divisées en trois catégories: des politiques relatives au contenu qui visent à régler un vaste éventail de problèmes de l'offre et de la demande, ainsi que l'amplification et la légalité du contenu dans notre sphère numérique publique; des politiques relatives aux données qui veillent à ce que les données publiques soient utilisées dans l'intérêt public et que les citoyens aient des droits beaucoup plus considérables sur l'utilisation, la mobilité et la monétisation de leurs données; et des politiques relatives à la compétition qui favorisent des marchés libres et concurrentiels dans l'économie numérique.

C'est le programme de gouvernance des plateformes.

Le quatrième point que je veux soulever, c'est que dans le cadre de ces discussions sur ce programme, on a tendance à compliquer les solutions, ce qui favorise le maintien du statu quo. Je pense qu'il existe de nombreuses politiques sensées qui pourraient et devraient être mises en oeuvre immédiatement. Le marché du microciblage des publicités en ligne pourrait être beaucoup plus transparent et, dans bien des cas, être supprimé complètement. Les régimes de protection des renseignements personnels pourraient être mis à jour pour offrir des droits beaucoup plus importants aux personnes et pour assurer une surveillance accrue et un pouvoir de réglementation pour sanctionner les abus. La politique fiscale pourrait être modernisée pour mieux tenir compte de la consommation des biens numériques et sévir contre l'érosion de l'assiette fiscale et la participation aux bénéfices. Une politique relative à la concurrence modernisée pourrait être utilisée pour restreindre et réduire les acquisitions et séparer la propriété des plateformes du développement d'applications et de produits. Les médias citoyens peuvent être soutenus en tant que biens publics, et des efforts à grande échelle et à long terme pour favoriser la littératie et l'esprit critique peuvent être financés par les gouvernements nationaux, et non pas par des organismes privés.

Le fait que peu de ces initiatives ont été mises en oeuvre est un problème de volonté politique, et non pas un problème de politique ou de complexité technique.

Enfin, le cinquième point que je veux faire valoir, c'est qu'il y a des questions stratégiques pour lesquelles il n'y a aucune solution facile, aucun consensus constructif et aucune institution internationale appropriée. Et il peut y avoir des tensions irréconciliables entre la conception des plateformes et les objectifs de la politique publique.

Il y a premièrement la façon dont nous réglementons les discours haineux dans la sphère numérique publique. À l'heure actuelle, nous avons largement imparti l'application des lois nationales et l'interprétation de compromis difficiles entre la liberté d'expression et les torts personnels et publics aux plateformes: des entreprises qui cherchent des solutions, et avec raison selon elles, qui peuvent être mises en oeuvre à l'échelle internationale. Dans ce cas-ci, je dirais que ce qui est possible de faire sur les plans technique et financier pour les entreprises risque d'être insuffisant pour les objectifs d'intérêt public ou les objectifs de politique publique.


Le deuxième enjeu est la responsabilité pour le contenu en ligne. Nous sommes clairement au-delà des notions de neutralité des plateformes et de l’exonération absolue de responsabilité, mais quels sont les meilleurs mécanismes juridiques, étant donné la nature et la conception de ces plateformes, pour tenir responsables ceux qui les exploitent?

Enfin, alors que l'intelligence artificielle façonne de plus en plus la nature et l'économie de notre espace public numérique, comment pourrons-nous prendre en compte ces systèmes opaques dans nos lois, nos normes et nos règlements?

À mon avis, ces conversations difficiles, contrairement aux politiques que je considère comme les plus faciles à mettre en œuvre, ne devraient pas être confiées au secteur privé. Elles doivent être dirigées par des gouvernements démocratiquement responsables et la population. Cela exigera toutefois une volonté politique et un leadership en matière de politiques, ce qui correspond précisément au rôle de ce comité, selon moi.

Merci beaucoup.


Le président:

Merci, monsieur Owen.

Nous passons à M. Scott.

M. Ben Scott (à titre personnel):

Merci beaucoup, monsieur le président. C'est un privilège et un honneur pour moi d'être ici devant ce comité international.

Je comparais devant vous ce soir à titre de témoin, ce qui était auparavant improbable. En effet, j'ai passé l'essentiel de ma carrière à promouvoir les vertus de l'Internet ouvert. J'ai fait ma place pendant la révolution Internet de la fin des années 1990. J'ai travaillé à la première campagne politique véritablement numérique en 2008, pour le président Barack Obama. J'étais l'un des diplomates numériques d'Hillary Clinton à l'apogée de la liberté sur Internet, pendant le printemps arabe. À l'époque, il semblait que les téléphones intelligents et les médias sociaux étaient de véritables catalyseurs des mouvements sociaux et politiques visant à démocratiser le monde. C'était un moment inspirant. Ces technologies ont contribué à l'essor de ces mouvements.

Je suis idéaliste dans l'âme. Je voulais être au coeur de cette révolution, mais vous avez devant vous aujourd'hui un idéaliste troublé. En 2016, je suis retourné travailler pour mon ancienne patronne, pendant sa campagne présidentielle. J'ai dirigé le comité consultatif sur la politique en matière de technologie. J'ai été aux premières loges des événements qui se sont produits aux États-Unis entre 2015 et 2017. J'ai vu l'Internet ouvert qui était censé étendre la liberté être transformé en un puissant outil technologique de manipulation sociale et de distorsion politique. Vous connaissez tous l'histoire. L'outil qu'on espérait voir contribuer à la revitalisation de la démocratie est aujourd'hui considéré par beaucoup comme l'une de ses plus grandes menaces. Mes amis, c'est une amère ironie, une cruelle ironie, mais il n'est pas nécessaire qu'il en soit ainsi.

Nous pouvons faire nôtre la promesse des réseaux d'information de redonner le pouvoir au peuple, mais il convient d'examiner à quel moment le contrôle incroyable de la richesse et du pouvoir de cette industrie a commencé à prendre son essor et à influencer le cours des choses. Les racines du phénomène sont profondes et remontent à des décennies. J'ai cependant cerné une période, soit entre 2014 et 2017, lorsque les technologies d'apprentissage machine, ou l'intelligence artificielle, ont été utilisées sur les plateformes des médias sociaux.

En 2011 et 2012, à l'apogée du mouvement du printemps arabe, ces technologies n'étaient pas au coeur des modèles économiques de Facebook et de Google. Elles sont arrivées quelque temps plus tard. Si vous voulez savoir à quel moment exactement elles ont émergé, il vous suffit de regarder la courbe des profits et revenus de Google et de Facebook. J'ai noté les chiffres pour Facebook à titre d'exemple. En 2011, Facebook a réalisé, pour la première fois, un profit d'un milliard de dollars sur un chiffre d'affaires de quatre milliards de dollars. En 2017, à peine six ans plus tard, après l'avènement de ces nouvelles technologies, Facebook a fait des profits de 16 milliards de dollars sur des revenus de 40 milliards de dollars. Les profits ont plus que décuplé en six ans.

Comment est-ce arrivé? La réponse est simple: ils ont trouvé un modèle d'affaires permettant de faire des profits faramineux. Première étape: suivez toutes les activités en ligne de milliards de personnes et conservez ces renseignements dans une base de données. Deuxième étape: triez ces données et regroupez les gens en publics cibles, puis vendez l'accès à l'attention des gens. Pour ce faire, concevez votre marché de l'information non pas pour optimiser la qualité de l'information ou la civilité du dialogue dans la société, mais simplement pour optimiser la dépendance et le temps passé sur la plateforme. En effet, plus les gens passent du temps sur la plateforme, plus ils voient de publicités et plus les profits explosent.

C'est un beau modèle d'affaires, et ça marche. Les profits de Facebook ont décuplé en six ans. Très peu d'entreprises peuvent se targuer d'une telle croissance.

De plus, il n'y a pas que les publicités qui sont ciblées. Tout est ciblé. L'ensemble de l'environnement de communication dans lequel nous vivons est maintenant adapté par l'intelligence artificielle dans le but de retenir notre attention. Ce n'est pas une recette pour favoriser la vérité et la justice. Ce qui semble vrai donne de meilleurs résultats que la pure vérité. La conspiration et la haine sont devenues des thèmes structurants des médias sociaux, et cet espace est facilement exploité par des propagandistes qui se font les promoteurs du sectarisme, de la division sociale et de la haine auprès des gens désillusionnés.

Voilà le lien entre les marchés des données dont nous avons entendu parler ici et le contenu abject qu'on voit en ligne, comme le discours haineux ambiant ou de véritables atrocités telles que les fusillades en Nouvelle-Zélande. Ce sont les algorithmes qui attisent nos préjugés. Voilà l'ennemi qu'il faut attaquer. Nous ne pouvons pas compter sur l'industrie pour régler ce problème.


Le problème fondamental réside au cœur du modèle d'entreprise, dans ce que la professeure Zuboff appelle le « capitalisme de surveillance », et ces entreprises dominent le marché. Les entreprises cotées en bourse...

Le président:

Juste une seconde. L'interprétation vient de passer de l'anglais à l'espagnol, je crois. Nous allons le signaler aux interprètes.

Je suis bon en anglais, mais pas en espagnol.

M. Ben Scott:

C'est l'intelligence artificielle qui cherche à vous distraire de mon témoignage.

Le président:

Les interprètes sont-ils prêts? Bien.

Allez-y, monsieur Scott. Je suis désolé.

M. Ben Scott:

J'ai consacré les deux dernières années et demie à l'étude de ce problème, essentiellement à compter du lendemain des élections présidentielles américaines en novembre 2016, et je suis persuadé de la thèse que je viens tout juste de vous présenter. Je tiens toutefois à être clair: la technologie n'a pas causé ce problème. Elle l'a accéléré. Elle l'a façonné. Elle a façonné sa croissance et son orientation. Elle détermine les façons dont le développement social et l'histoire se déroulent. La technologie amplifie les intentions des personnes qui l'utilisent. Selon moi, ces conséquences ne sont pas inévitables. Il n'y a pas de déterminisme technologique. Nous pouvons régler le problème.

De la même façon que nous avons pris des décisions stratégiques pour élargir l'accès à des services Internet abordables et pour que la neutralité du Net soit la règle applicable dans de nombreux pays — nous l'avons fait pour soutenir le potentiel de démocratisation offert par la technologie — , nous pouvons maintenant élaborer des politiques pour limiter l'exploitation de ces outils par des acteurs malveillants et par des entreprises pour qui les bénéfices l'emportent sur l'intérêt public. Nous devons aborder notre problème technologique en fonction des problèmes sociaux auxquels nous sommes confrontés.

C'est pour cette raison que le problème de la fragmentation politique, des propos haineux ou du tribalisme dans les médias numériques, selon la façon dont vous voulez le décrire, diffère dans chacun de vos pays. Il diffère dans chacun de vos pays parce qu'il émane des troubles sociaux, des conflits culturels et de l'antilibéralisme propres à chaque société. Ce sont des caractéristiques communes qu'on retrouve partout, mais chaque pays verra une manifestation un peu différente du problème.

Pour tout dire, nos démocraties négligent beaucoup de monde. Les gens ont raison d'être fâchés, mais ce mécontentement ne donne plus lieu à des réformes. Il mène plutôt à une sorte de colère qui s'aggrave. Ce radicalisme provient de la façon dont la technologie change nos environnements informationnels et façonne notre compréhension du monde. Nous voyons rarement le monde comme les autres le perçoivent. Nous sommes divisés en tribus, et la version du monde que nous voyons tous les jours exacerbe nos préjugés et élargit le fossé entre nos communautés. C'est ainsi que nous devons comprendre le problème.

Pour traiter cette maladie, nous devons avoir une vision d'ensemble. Nous devons voir comment les médias sociaux font partie d'un système. Ils ne font pas bande à part en tant que supervilains, peu importe à quel point nous aimerions leur accoler cette étiquette, mais ils ont néanmoins une énorme responsabilité. Il suffit de voir comment l'ensemble du marché des médias s'est plié aux paramètres de performance de Google et de Facebook. Il suffit de voir comment la télévision, la radio et la presse écrite ont malmené leurs stratégies de production et de distribution pour que les gens aiment et partagent leur contenu et pour que ce contenu se retrouve plus haut dans les résultats de recherche de Google Actualités. C'est extraordinaire. Cela accentue la distinction entre les médias traditionnels et les nouveaux médias.

Oui, je suis parfaitement d'accord avec le professeur Owen: nous avons besoin d'un vaste programme gouvernemental. Nous devons circonscrire le contenu illégal. Nous devons limiter la collecte et l'exploitation de données. Nous devons moderniser la politique de concurrence pour réduire le pouvoir découlant des monopoles. Nous devons également faire la lumière sur ce spectacle de marionnettes et montrer aux gens comment s'aider eux-mêmes pour arrêter de se faire exploiter.

Je pense que la solution doit passer par une sensibilisation du public et que les dirigeants politiques doivent en assumer la responsabilité. Nous devons investir dans la sensibilisation, et nous devons prendre des engagements en matière de journalisme d'intérêt public afin d'offrir aux gens des solutions de rechange au flot continu et insensé de leurres pour obtenir des clics, un flot auquel nous nous sommes habitués. Il faut offrir des solutions de rechange aux tentations que nous subissons en tant qu'utilisateurs passifs de médias sociaux.

Je sais que cela peut sembler énorme, mais je vous invite à vous joindre à moi en vous réengageant à faire preuve d'idéalisme. Ce n'est pas trop demandé, car c'est nécessaire à la démocratie.

Merci beaucoup.

Le président:

Merci, monsieur Scott.

C'est maintenant au tour de Mme Heidi Tworek, qui sera suivie de Mme Zuboff.


Mme Heidi Tworek (professeure adjointe, University of British Columbia, à titre personnel):

Merci beaucoup, monsieur le président.

Je remercie les membres distingués du Grand Comité international de leur aimable invitation à prendre la parole aujourd'hui. C'est vraiment un honneur de soutenir ainsi la coopération internationale.

Dans mon travail, je porte deux chapeaux. Je suis historienne et analyste de politiques. Je sais que porter deux chapeaux est un curieux choix vestimentaire, mais je crois que cela peut nous aider à parvenir à des solutions beaucoup plus rigoureuses qui résisteront à l'épreuve du temps.

En tant qu'analyste de politiques, j'ai écrit sur les propos haineux et la désinformation au Canada, aux États-Unis et en Europe. Je suis membre du comité directeur du groupe de travail transatlantique de haut niveau sur la modération de contenu en ligne et la liberté d'expression.

Et en tant qu'historienne, j'examine depuis près de 10 ans l'histoire des médias. Je viens tout juste de terminer un livre qui s'intitule News From Germany: The Competition to Control World Communications, 1900-1945, « des nouvelles de l'Allemagne: la concurrence pour contrôler les communications dans le monde, de 1900 à 1945 ». Dans ce livre, j'explique entre autres comment la démocratie médiatique dynamique de l'Allemagne entre les deux guerres s'est transformée en régime nazi autoritaire capable de répandre une propagande antisémite, raciste et homophobe partout dans le monde.

Lorsque j'écrivais ce livre, j'ai vu le présent répéter le passé de toutes sortes de façons, ce qui, pour être honnête, est inquiétant. Partout dans le monde, l'extrême droite a repris la terminologie nazie en utilisant les termes lügenpresse et systempresse — la presse menteuse et la presse systémique — pour dénoncer les médias. Des groupes marginalisés ont été pris pour cibles en ligne, et on leur a reproché des maux de notre société qu'ils n'ont pas causés. Des nouvelles ont été falsifiées à des fins politiques et économiques. Comme ce fut le cas pour la radio dans la première partie du XXe siècle, une technologie conçue à des fins utopiques est devenue l'outil de dictateurs et de démagogues.

Comme nos autres témoins l'ont décrit, certains aspects de l'Internet sont sans précédent, comme le microciblage, sa portée, l'apprentissage automatique et la précision de la surveillance, mais malgré cela, les historiens parmi nous reconnaissent étonnamment bien certaines des tendances sous-jacentes.

Je vais donner cinq brèves leçons d'histoire qui pourront selon moi orienter à l'avenir nos discussions stratégiques et nous permettre de trouver des solutions rigoureuses pour renforcer plutôt qu'affaiblir nos démocraties.

La première leçon est que la désinformation est également un problème de relations internationales. La guerre de l'information est une caractéristique, pas un bogue, du système international depuis au moins un siècle. La question n'est pas de savoir si la guerre de l'information existe, mais pourquoi et quand les États s'y engagent.

Ce que nous voyons, c'est que cela arrive souvent lorsqu'un État se sent encerclé et affaibli ou lorsqu'il aspire à devenir une plus grande puissance. C'était le cas de l'Allemagne il y a un siècle et c'est le cas de la Russie de nos jours. Si les causes de la désinformation sont en grande partie géopolitiques, nous ne devons pas oublier que beaucoup de solutions seront également géopolitiques et diplomatiques.

Deuxièmement, nous devons porter attention à l'infrastructure physique concernée. La guerre de l'information et la désinformation sont également rendues possibles grâce à l'infrastructure physique, qu'il s'agisse des câbles sous-marins du siècle dernier ou des câbles à fibres optiques d'aujourd'hui. L'un des premiers actes de guerre de la Grande-Bretagne pendant la Première Guerre mondiale a été de couper les câbles qui reliaient l'Allemagne au reste du monde, l'obligeant ainsi à investir dans une nouvelle technologie de communications, qui était la radio. Au moment où les nazis ont pris le pouvoir, un directeur de radio américain a dit qu'ils avaient l'organe politique le plus efficace que le monde ait jamais vu.

Nous pensons souvent que l'Internet est sans fil, mais c'est fondamentalement faux; de 95 à 99 % des données passent par des câbles sous-marins à fibres optiques. Google possède en partie 8,5 % de ces câbles sous-marins. Des fournisseurs de contenu possèdent aussi leur propre infrastructure physique. Il arrive que la communication au moyen de ces câbles soit interrompue à cause de morsures de requin, mais les États peuvent eux aussi mordre. Nous savons que la Russie et la Chine, par exemple, sondent les câbles européens et américains.

Nous savons évidemment que la Chine investit dans le 5G, mais comme l'Allemagne l'a fait, elle investit également dans des réseaux d'information internationaux comme Belt et Road News Network, Xinhua, l'agence de presse chinoise, et des chaînes de télévision de langue anglaise comme CGTN.

La troisième leçon, comme l'ont dit beaucoup d'autres témoins, est que nous devons nous pencher davantage sur les modèles d'entreprise que sur les éléments individuels de contenu. Il est très tentant de se concentrer sur des éléments de contenu individuel particulièrement nuisibles, mais ces éléments de contenu deviennent viraux à cause des quelques entreprises qui contrôlent le goulot d'étranglement de l'information.

Seuls 29 % des Américains ou des Britanniques savent que leur fil de nouvelles Facebook est organisé à l'aide d'algorithmes. Ce sont les Finlandais qui en sont le plus conscients, mais dans une proportion de 39 % seulement. Cette invisibilité procure énormément de pouvoir aux médias sociaux. Ce pouvoir n'est pas neutre. À tout le moins, nous avons besoin de beaucoup plus de transparence quant au fonctionnement des algorithmes, pour pouvoir déterminer s'ils sont discriminatoires et ainsi de suite. Au moment où nous nous efforçons d'avoir des politiques fondées sur des faits, nous avons besoin de données probantes.


Quatrièmement, nous devons prendre garde de concevoir des organismes de réglementation rigoureux. L'exemple de l'Allemagne entre les deux guerres offre une mise en garde. La radio est apparue dans les années 1920. Des bureaucrates pendant la République démocratique de Weimar voulaient se servir de la radio pour renforcer la démocratie et entièrement la transformer après la Première Guerre mondiale. À mesure que cette démocratie devenait politiquement instable, ces bureaucrates ont continuellement mis en branle des réformes qui se sont traduites par une supervision de plus en plus importante du contenu. L'idée ici était de protéger la démocratie en prévenant la diffusion de nouvelles pouvant provoquer de la violence. Ce qui est très paradoxal dans cette histoire, c'est qu'au moment même où les nazis ont pris le pouvoir, ils contrôlaient la radio. Si nous ne sommes pas prudents, une réglementation louable peut donc avoir des conséquences tragiques inattendues.

Qu'est-ce que cela signifie pour nous aujourd'hui? Cela signifie que peu importe les solutions auxquelles nous parvenons, elles doivent tenir compte d'éventuelles attaques contre la démocratie. Nous devons veiller à intégrer la société civile dans les institutions que nous créons, quelles qu'elles soient.

Avec Fenwick McKelvey et Chris Tenove, j'ai entre autres proposé de créer des conseils des médias sociaux qui seraient des tribunes multilatérales dont les membres pourraient se rencontrer régulièrement pour examiner une grande partie des problèmes que nous décrivons. Il faut encore discuter du format exact et de la portée géographique des conseils, mais c'est une idée à laquelle beaucoup de personnes adhèrent, y compris le rapporteur spécial sur la protection du droit à la liberté d'opinion et d'expression des Nations unies.

Cinquièmement, nous devons continuer de porter attention et chercher à remédier aux divisions sociales exploitées par les médias sociaux. Les germes de l'autoritarisme ont besoin d'un sol fertile pour pousser. À défaut de nous occuper du mécontentement économique et social sous-jacent, une meilleure communication ne peut pas occulter ces problèmes indéfiniment.

Je vais vous répéter les cinq leçons. Premièrement, la désinformation est également un problème de relations internationales. Deuxièmement, nous devons porter attention à l'infrastructure physique. Troisièmement, les modèles d'entreprise ont plus d'importance que les éléments individuels de contenu. Quatrièmement, nous devons mettre sur pied des organismes de réglementation rigoureux. Cinquièmement, nous devons porter attention aux divisions sociales que les médias sociaux exploitent.

Il est impossible pour un seul pays de s'attaquer à toutes ces choses; une coopération internationale est nécessaire. C'est la raison pour laquelle c'est un grand honneur d'avoir l'occasion de comparaître devant vous aujourd'hui.

Merci beaucoup.

Le président:

Merci, madame Tworek.

C'est maintenant au tour de Mme Zuboff.

Vous et moi, avec un nom comme Zimmer, avons toujours été à la fin de chaque liste, et c'est à peu près cela.

Allez-y, madame Zuboff. Nous sommes heureux de vous compter parmi nous.

Mme Shoshana Zuboff (à titre personnel):

Merci beaucoup, monsieur Zimmer.

Cela me rappelle effectivement l'école primaire ce soir.

Bien entendu, vous allez inverser l'ordre demain matin.

Le président:

Tout simplement parce que je comprends.


Mme Shoshana Zuboff:

C'est un fardeau qu'on porte toute une vie.

C'est un grand honneur de discuter avec vous ce soir, notamment parce que j'ai l'impression que ce comité constitue actuellement notre meilleur espoir pour progresser dans la lutte contre les menaces à la démocratie qui sont maintenant endémiques à cause du capitalisme de surveillance, dont on a déjà parlé.

Je suis très heureuse de voir le genre de synergie qui ressort déjà de nos observations. Les thèmes que le Comité a ciblés, c'est-à-dire la responsabilité des médias, la sécurité et la protection des données, les fausses nouvelles et la désinformation, sont tous des effets d'une même cause. C'est ce que nous avons entendu ce soir, et c'est un énorme pas en avant. Il est très important de le souligner.

J'estime que cette cause sous-jacente est le capitalisme de surveillance, que je définis comme une vaste logique économique systémique qui, à notre connaissance, est sans précédent. Je veux prendre un instant pour dire ce que le capitalisme de surveillance n'est pas, car cela permet d'établir une série de distinctions que nous devons tous entendre.

Premièrement, et on l'a mentionné — merci, monsieur Scott —, le capitalisme de surveillance n'est pas une technologie. Il a plutôt pris en otage la technologie numérique à ses propres fins. Il est facile d'imaginer la technologie numérique sans capitalisme de surveillance, mais il est impossible de faire le contraire. Confondre les deux revient à commettre une dangereuse erreur de catégorisation.

Deuxièmement, le capitalisme de surveillance n'est pas attribuable à une entreprise ni à un groupe d'entreprises. À une certaine époque, on le devait à Google. Ensuite, grâce à Sheryl Sandberg, que j'appelle la Mary Typhoïde du capitalisme de surveillance, on aurait pu l'attribuer à Google et à Facebook. Au bout du compte, c'est devenu le modèle par défaut de Silicon Valley et du secteur de la haute technologie, et à l'heure actuelle, c'est un virus qui a infecté tous les secteurs de l'économie.

C'est la raison pour laquelle on a d'abord affirmé ici une chose étonnante et importante, à savoir que les données personnelles ont plus de valeur que le contenu. Tous les secteurs d'activités, des assurances, du commerce de détail, de l'édition, de la finance jusqu'aux produits et services, en passant par la fabrication et l'administration, sont maintenant infectés par le capitalisme de surveillance, au point où le PDG de Ford Motor Company, le berceau du capitalisme de gestion il y a un siècle, dit maintenant que la seule façon pour Ford d'être concurrentiel face au genre de coefficients de capitalisation des bénéfices et de capitalisation boursière d'entreprises comme Facebook et Google consiste à transformer l'entreprise en entreprise de données et à transmettre les données provenant des 100 millions de conducteurs de véhicules Ford. Ces flux de données mettraient Ford sur un pied d'égalité avec des entreprises comme Google et Facebook. Il a dit que tout le monde voudrait alors investir dans son entreprise. Nous ne pouvons plus limiter le capitalisme de surveillance à un groupe de sociétés ou à un secteur.

Enfin, le capitalisme de surveillance ne peut pas plus être réduit à une personne ou à un groupe de personnes. Même s'il peut être très tentant de l'associer à certains des principaux capitalistes du milieu ou au duopole — aux Zuckerberg, aux Page, aux Brin et ainsi de suite —, le moment de notre histoire où il était possible de faire ce genre de rapprochement est révolu.


Sur le plan de la logique économique, c'est-à-dire de la structure et de l'institutionnalisation... Il peut y avoir des raisons valables et indépendantes de changer les acteurs, de limiter leurs rôles et leur pouvoir extraordinaire et sans précédent, mais cela ne mettra pas fin au capitalisme de surveillance et cela ne le rendra pas illégal.

Maintenant que j'ai dit ce que le capitalisme de surveillance n'est pas, permettez-moi de prendre un instant pour expliquer ce qu'il est. Le capitalisme de surveillance marche sur les traces du capitalisme de marché de la façon suivante: il prend quelque chose qui existe à l'extérieur du marché et il le transforme en marchandise pouvant être produite et vendue. Comme chacun le sait, le capitalisme industriel s'est emparé de la nature et il l'a convertie en terres ou en propriétés foncières pouvant être vendues ou achetées. Le capitalisme de surveillance fait la même chose, mais avec une touche sombre et étonnante: il se saisit de l'expérience humaine privée et il la subordonne aux dynamiques de marché. Il la transforme en matière première gratuite, qui est ensuite convertie en données comportementales.

Certes, une partie des données comportementales sont utilisées pour améliorer les produits et les services, mais le reste forme un excédent comportemental, qui est reconnu pour sa grande valeur de prédiction. L'excédent comportemental est alors versé dans les nouveaux moyens de production, ce qu'on appelle l'intelligence artificielle. Le résultat ainsi obtenu est un nouveau type de produit: le produit prédictif. Ces usines produisent des prédictions du comportement humain.

Vous vous rappelez peut-être une note de service de Facebook qui a été divulguée en 2018, nous ne savons toujours pas exactement par qui. Cette note de service nous a donné un aperçu de la plateforme d'intelligence artificielle de Facebook: FBLearner Flow. Nous avons appris que ce moyen de production calcule quotidiennement des billions de points de données. FBLearner Flow fabrique six millions de prédictions du comportement humain à toutes les secondes.

Ce que cela nous indique, c'est que les capitalistes de surveillance possèdent et contrôlent non pas un texte, mais deux. D'abord, il y a le texte accessible au public. Lorsqu'on parle de propriété, d'accessibilité et de portabilité des données, il est question du texte accessible au public, qui provient des données que nous fournissons aux entreprises par l'intermédiaire de nos messages, de nos simples conversations et de ce que nous donnons à nos écrans. Or, le résultat de ce moyen de production — les produits prédictifs et la façon dont ils sont analysés — est un texte exclusif, qui n'est pas accessible au public. C'est ce que j'appelle le texte fantôme. Toute la capitalisation boursière, toutes les recettes et toutes les incroyables richesses que ces entreprises ont amassées en très peu de temps proviennent du texte fantôme. Nous ne connaîtrons jamais ces données exclusives. Nous n'en serons jamais propriétaires, nous n'y aurons jamais accès et nous ne pourrons jamais les transférer. C'est la source de tout leur argent et de tout leur pouvoir.

Maintenant, que fait-on des produits prédictifs? On les vend dans une nouvelle sorte de marché qui fait uniquement le commerce d'avenirs humains. Le premier marché de cette sorte était celui de la publicité ciblée en ligne. Les prédictions humaines qui y étaient vendues s'appelaient les taux de clics. Vous n'avez qu'à prendre un pas de recul pour comprendre que le taux de clics n'est qu'un fragment d'une prédiction d'un avenir humain.

Aujourd'hui, nous comprenons que ces marchés, qui ont commencé dans le domaine de la publicité ciblée en ligne, ne se limitent pas plus à ce domaine que la production en série se limitait à la fabrication du modèle T. La production en série a été utilisée dans tous les secteurs avec succès. La nouvelle logique du capitalisme de surveillance suit la même voie: on l'utilise aussi dans tous les secteurs avec succès.


Enfin, comment ces marchés rivalisent-ils? Ils rivalisent sur le plan de la qualité de leurs prédictions. Ce que j'ai compris en étudiant ces marchés, c'est qu'en désossant les dynamiques concurrentielles, nous découvrons les impératifs économiques qui sont le moteur de cette logique. Ces impératifs économiques sont institutionnalisés dans des écosystèmes importants qui traversent notre économie, des fournisseurs d'excédent comportemental et d'analyses et de capacités informatiques aux teneurs et aux acteurs du marché.

Ces impératifs sont des compulsions. Toutes les manchettes — chaque jour, le journal nous présente une nouvelle atrocité — peuvent être prédites au moyen de ces impératifs. Au début, c'était des économies d'échelle: il faut beaucoup de données pour faire de bonnes prédictions. Puis, c'est passé à des économies de gamme: il faut une variété de données pour faire de bonnes prédictions. Aujourd'hui, nous sommes rendus à une troisième étape de la concurrence: les économies d'action. La meilleure façon d'obtenir des données permettant de prédire le comportement humain, c'est en intervenant — en façonnant, en réglant et en modifiant le comportement humain, en amadouant les individus et en les rassemblant en troupeau, et en les dirigeant vers les résultats garantis qui répondent aux besoins des entreprises participant au capitalisme de surveillance.

Voilà le monde dans lequel nous vivons aujourd'hui. Par conséquent, le capitalisme de surveillance est une atteinte à la démocratie qui vient du haut comme du bas.

Du bas, ses systèmes institutionnalisent des modèles de modification du comportement par l'intermédiaire d'architectures numériques mondiales. Il s'agit d'une attaque directe contre l'autonomie humaine et la souveraineté individuelle, soit les fondements mêmes d'une société démocratique.

Du haut, nous sommes à l'aube de la troisième décennie du XXIe siècle. Nous entretenions de grands rêves à l'égard de la nouvelle technologie, comme M. Scott l'a dit, mais à cause du capitalisme de surveillance, nous nous retrouvons à une époque marquée par un déséquilibre des connaissances et du pouvoir que ces connaissances confèrent. Cette époque ne peut être comparée qu'à celle qui a précédé l'invention de Gutenberg, une ère absolutiste où le savoir était réservé à quelques-uns et où l'ignorance régnait. Les capitalistes de surveillance savent tout à notre sujet, alors que nous ne savons presque rien sur eux. Ils savent tout à notre sujet, mais ils n'utilisent pas ce qu'ils savent sur nous pour notre bien; ils l'utilisent pour le bien de leurs clients et de leur chiffre d'affaires.

Pour conclure, c'est un bon signe que nous nous réunissons ce soir dans le magnifique pays qu'est le Canada parce qu'à l'heure actuelle, c'est au Canada que le combat entre le capitalisme de surveillance et la démocratie se livre, plus précisément dans la ville de Toronto. Le capitalisme de surveillance a commencé par la navigation en ligne et il touche maintenant tout ce que nous faisons dans le monde réel. Au moyen des expériences de contagion à très grande échelle menées en ligne par Facebook et du jeu Pokémon GO conçu par Google, le capitalisme de surveillance a expérimenté les façons de rassembler la population en troupeau, ainsi que de régler et de modifier son comportement.

En passant, ces compétences ont maintenant été intégrées à l'application de ville intelligente de Google, qui s'appelle Waze. Or, l'objectif réel, c'est la ville intelligente elle-même. C'est là que le capitalisme de surveillance souhaite prouver qu'il peut remplacer le désordre et la beauté de la gouvernance municipale et de la démocratie par le règne computationnel, qui représente, après tout, une forme de tyrannie absolutiste.


La visée est la ville intelligente. Si le capitalisme de surveillance peut conquérir la ville intelligente, il peut conquérir aussi la société démocratique. Aujourd'hui, le combat se livre à Toronto. Si le Canada donne Toronto à Google, ou plutôt à Alphabet — Sidewalk Labs maintient maintenant avidement qu'elle ne fait pas partie de Google —, l'avenir de la société démocratique au XXIe siècle sera menacé.

Je vous remercie pour votre attention. J'espère pouvoir poursuivre la discussion demain.

Merci beaucoup.

Le président:

Merci, madame Zuboff.

La dernière intervenante est Mme Maria Ressa. Elle se joint à nous de Manille, aux Philippines.

La parole est à vous, madame Ressa.

Mme Maria Ressa (présidente-directrice générale et directrice de la rédaction, Rappler Inc., à titre personnel):


Tout d'abord, je tiens à dire à quel point je me sens privilégiée de m'adresser à vous et d'écouter les témoignages de chacun. Rappelez-vous tout ce que vous avez entendu, surtout ce que Mme Zuboff vient de dire.

Je vis tout cela en ce moment. Je suis journaliste depuis plus de 30 ans, et au cours des 14 derniers mois, 11 actions ont été intentées contre moi, dont 5 par le gouvernement. J'ai dû verser une caution à huit occasions en un peu plus de trois mois, et j'ai été arrêtée deux fois en cinq semaines. Tout ce qui se passe... À mes yeux, l'astroturfing sur les médias sociaux est une forme d'opération d'information ascendante, et puis il y a aussi des opérations descendantes; tout cela a déjà été décrit en détail.

Comme je vous présenterai un exposé demain, mon intervention d'aujourd'hui sera brève. D'après moi, cela revient à tout ce que vous avez entendu. Cela revient à la lutte pour la vérité, et les journalistes sont en première ligne de cette lutte, avec les activistes. Nous sommes parmi les premiers à être ciblés. C'est après que les médias sociaux ont été transformés en armes que les poursuites judiciaires et les pressions exercées contre moi ont commencé. Le combat actuel pour la vérité montre mieux que jamais que l'information, c'est le pouvoir. Si la population croit en vos mensonges, vous pouvez la contrôler, et ça, c'est sans parler des aspects commerciaux de la question. L'information est devenue un moyen d'acquérir du pouvoir dans la sphère géopolitique. Si les faits ne sont pas de votre côté, la vérité n'est pas de votre côté, et sans vérité, il n'y a pas de confiance.

Nous avons été témoin de l'érosion en cours. Au départ, chez Rappler, nous nous intéressions à la transmission de l'information, aux réseaux sociaux, aux cercles formés par la famille et les amis. Les médias sociaux, ce sont les amis et la famille à la puissance mille. Nous nous sommes donc penchés sur la transmission de l'information. Demain, je vous présenterai les données qui montrent exactement la vitesse à laquelle un pays ou une démocratie peut s'effondrer en conséquence des opérations d'information. Un mensonge répété un million de fois devient la vérité. Vous connaissez peut-être le terme « trollage patriotique ». Il s'agit de propagande haineuse faite en ligne et parrainée par l'État qui cible une personne, une organisation ou un activiste dans le but de le museler et d'inciter la population à la haine. Nous savons tous que la haine dans le monde virtuel mène à la violence dans le monde réel.

Notre histoire est une mise en garde. Je reçois jusqu'à 90 messages haineux par heure. En trois ans, mon pays est passé d'une démocratie dynamique où les médias sociaux étaient vraiment utilisés pour le bien commun... Nous l'avons vécu. Je pensais que nous... Mon organisation fait partie de celles qui ont travaillé très étroitement avec Facebook, et de voir ensuite le site être transformé en arme à la fin de 2015 et en 2016... Cela a commencé quand le président Duterte est entré en fonction, en juillet 2016, au début de la guerre contre la drogue. Les premières cibles ont été les utilisateurs de Facebook qui mettaient en question le nombre de morts. Aujourd'hui, l'ONU estime que 27 000 personnes ont été tuées depuis juillet 2016. C'est un nombre énorme.

La dernière chose que je vais dire, c'est que je vous présenterai les données à l'appui demain. C'est systématique. C'est une érosion de la vérité et de la confiance. Dans une situation pareille, la personne avec le meilleur porte-voix l'emporte. Chez nous, c'est le président Duterte. La même chose se passe aux États-Unis. Que ce soit Trump, Poutine ou Duterte, la méthodologie employée est très semblable.

Je vais m'arrêter là. Je vous remercie de nous avoir invités. Dans les discussions comme celles-ci, ce qui est intéressant, c'est que les pays les plus touchés sont les démocraties les plus vulnérables, comme la nôtre ici en Asie du Sud-Est, dans l'hémisphère Sud. Chaque jour d'inaction de la part des entreprises américaines du secteur de la technologie et des plateformes de médias sociaux qui devraient avoir des valeurs américaines... Ce qui est ironique, bien sûr, c'est qu'elles ont érodé ces valeurs dans nos pays.

C'est vrai que certaines mesures ont été prises. Je peux vous dire que nous travaillons étroitement avec Facebook à la vérification des faits. J'ai aussi vu que Facebook se penche sur les répercussions et qu'il essaie d'apporter des changements, mais il faut que les choses changent beaucoup plus rapidement.

Je vais conclure en disant que lorsqu'il est question de situations politiques se déroulant en Occident, les réactions sont habituellement neutres, et le résultat des réactions neutres dans l'hémisphère Sud, c'est que des gens sont tués ou emprisonnés. Pour nous, c'est une question de survie.

Je vous remercie.


Le président:

Merci, madame Ressa.

Voilà qui met fin aux témoignages de ce soir.

Nous allons maintenant nous rendre à la pièce 225A pour une rencontre plus informelle où nous pourrons vous poser des questions directement. Encore une fois, madame Ressa, je suis désolé que vous ne puissiez pas être ici, mais je le répète, l'objectif de la séance d'aujourd'hui était de lancer la discussion, et nous la poursuivrons là-bas.

Je tiens à rappeler à toutes et à tous que les témoignages commenceront dès 8 h 30 demain matin. Je vous demande donc d'être ici dès que possible. Aujourd'hui, j'ai été un peu flexible côté temps, mais je serai beaucoup plus strict demain. Mesdames et messieurs les membres du Comité, demain, vous aurez droit à cinq minutes chacun pour poser vos questions. Nous avons hâte d'entendre vos témoignages.

Je tiens à remercier les témoins qui ne reviendront pas de s'être déplacés pour participer à la séance de ce soir. Nous avons hâte de poursuivre la discussion avec vous. Même si la séance de mercredi finit à midi, la conversation sur les façons d'améliorer notre monde de données se poursuivra.

Nous nous retrouverons dans la pièce au bout du couloir.

La séance est levée.

Hansard Hansard

Posted at 17:44 on May 27, 2019

This entry has been archived. Comments can no longer be posted.

(RSS) Website generating code and content © 2006-2019 David Graham <cdlu@railfan.ca>, unless otherwise noted. All rights reserved. Comments are © their respective authors.