header image
The world according to cdlu

Topics

acva bili chpc columns committee conferences elections environment essays ethi faae foreign foss guelph hansard highways history indu internet leadership legal military money musings newsletter oggo pacp parlchmbr parlcmte politics presentations proc qp radio reform regs rnnr satire secu smem statements tran transit tributes tv unity

Recent entries

  1. A podcast with Michael Geist on technology and politics
  2. Next steps
  3. On what electoral reform reforms
  4. 2019 Fall campaign newsletter / infolettre campagne d'automne 2019
  5. 2019 Summer newsletter / infolettre été 2019
  6. 2019-07-15 SECU 171
  7. 2019-06-20 RNNR 140
  8. 2019-06-17 14:14 House intervention / intervention en chambre
  9. 2019-06-17 SECU 169
  10. 2019-06-13 PROC 162
  11. 2019-06-10 SECU 167
  12. 2019-06-06 PROC 160
  13. 2019-06-06 INDU 167
  14. 2019-06-05 23:27 House intervention / intervention en chambre
  15. 2019-06-05 15:11 House intervention / intervention en chambre
  16. older entries...

Latest comments

Michael D on Keeping Track - Bus system overhaul coming to Guelph while GO station might go to Lafarge after all
Steve Host on Keeping Track - Bus system overhaul coming to Guelph while GO station might go to Lafarge after all
G. T. on Abolish the Ontario Municipal Board
Anonymous on The myth of the wasted vote
fellow guelphite on Keeping Track - Rethinking the commute

Links of interest

  1. 2009-03-27: The Mother of All Rejection Letters
  2. 2009-02: Road Worriers
  3. 2008-12-29: Who should go to university?
  4. 2008-12-24: Tory aide tried to scuttle Hanukah event, school says
  5. 2008-11-07: You might not like Obama's promises
  6. 2008-09-19: Harper a threat to democracy: independent
  7. 2008-09-16: Tory dissenters 'idiots, turds'
  8. 2008-09-02: Canadians willing to ride bus, but transit systems are letting them down: survey
  9. 2008-08-19: Guelph transit riders happy with 20-minute bus service changes
  10. 2008=08-06: More people riding Edmonton buses, LRT
  11. 2008-08-01: U.S. border agents given power to seize travellers' laptops, cellphones
  12. 2008-07-14: Planning for new roads with a green blueprint
  13. 2008-07-12: Disappointed by Layton, former MPP likes `pretty solid' Dion
  14. 2008-07-11: Riders on the GO
  15. 2008-07-09: MPs took donations from firm in RCMP deal
  16. older links...

2019-05-28 ETHI 153

Standing Committee on Access to Information, Privacy and Ethics

(1040)

[English]

The Chair (Mr. Bob Zimmer (Prince George—Peace River—Northern Rockies, CPC)):

We'll bring to order meeting 153 of the Standing Committee on Access to Information, Privacy and Ethics and by extension the international grand committee on big data, privacy and democracy. We will have countries' representatives speak as well. We'll start off with my co-chair, Mr. Damian Collins from the U.K.

The way it will work structurally is that we'll go through the delegations, one representative per country initially and then the second representative. You each should have your own five-minute time slot exclusive to yourself.

Before we begin, Mr. Angus has a comment.

Mr. Charlie Angus (Timmins—James Bay, NDP):

Mr. Chair, just as a point of order for our committee, we are very surprised, I think, that Mr. Zuckerberg decided—and Ms. Sandberg—to ignore the summons of a parliamentary committee, particularly as we have international representatives here. As far as I know, we were not even informed that he wasn't showing up. I have never seen a situation where a corporate head ignores a legal summons.

In light of that, I would like to bring notice of a motion to vote on: That the Standing Committee on Access to Information, Privacy and Ethics, on account of the refusal of Mr. Mark Zuckerberg and Ms. Sheryl Sandberg to appear before it on May 28th, direct the Chair to serve either or both with a formal summons should they arrive in Canada for any purpose to appear before the Committee at the date of the next meeting from the date of their summons, and should they be served with a summons when the House is not sitting, that the Chair reconvene the Committee for a special meeting as soon as practicable for the purpose of obtaining evidence from them.

Mr. Chair, I don't know if we've ever used an open summons in Parliament—we've checked and we haven't found one—but I believe you'll find that this is in order. If Mr. Zuckerberg or Ms. Sandberg decide to come here for a tech conference or to go fishing, Parliament will be able serve that summons and have them brought here.

The Chair:

Thank you, Mr. Angus.

For the ex officio members of the committee, we have a motion before our committee that we will have to vote on, so there will be some discussion.

Is there any discussion from any other members about the motion?

Mr. Kent.

Hon. Peter Kent (Thornhill, CPC):

Thank you, Chair.

Yes, the official opposition, the Conservative Party, is fully willing to support Mr. Angus's motion. As we heard in some of the previous testimony, Facebook, among others of the large platforms, has shown extreme disrespect and disregard for sovereign governments and for committees representing sovereign governments, with regard to their concerns and the search for explanations as to why meaningful action has not been taken to date and for a clear and explicit explanation of their response to the concerns from around the world and certainly within democracies and the members of this international grand committee.

We will support this motion. Thank you.

The Chair:

There was a discussion previously about no substantive motions being brought before the committee. That said, with all agreement at the table here, I think we can agree to have that heard—and we are hearing it today—and voted on.

Do we have...? I see all in favour of having that motion moved before us.

Are there any other comments about the motion?

Mr. Lucas.

Mr. Ian Lucas (Member, Digital, Culture, Media and Sport Committee, United Kingdom House of Commons):

This is a case of recidivism by Mr. Zuckerberg. This has happened previously, and it is a matter of deep concern. It's particularly of great concern to me, because unfortunately governments are continuing to meet with Mr. Zuckerberg, and I think it important that we should communicate, as parliamentarians, our concern about the disrespect that Mr. Zuckerberg is showing to parliamentarians from across the world. They should consider the access they give Mr. Zuckerberg, access to governments and to ministers, operated in private, without respect to us as parliamentarians and without respect to our constituents, who are excluded from the confidential discussions that are happening on these crucial matters.

The Chair:

Thank you, Mr. Lucas.

Mr. Erskine-Smith.

Mr. Nathaniel Erskine-Smith (Beaches—East York, Lib.):

I would just note that it's funny that less than two months ago, on March 30, Mark Zuckerberg wrote an op-ed in the Wall Street Journal. He wrote that he believes Facebook has a responsibility to address harmful content, protecting elections, privacy and data protection and data portability—the very issues we're discussing today—and that he was looking forward to discussing them with lawmakers around the world. Those were his words less than two months ago. If he were an honest individual in writing those words, he'd be sitting in that chair today.

The Chair:

Thank you, Mr. Erskine-Smith.

Are there any further comments on the motion?

Frankly, to answer your question, being the chair of this committee on both levels, the international and our ethics committee, it's abhorrent that he's not here today and that Ms. Sandberg is not here today. It was very clearly communicated to them that they were to appear today before us. A summons was issued, which is already an unusual act for a committee. I think it's only fitting that there be an ongoing summons. As soon as either Mr. Zuckerberg or Ms. Sandberg step foot into our country, they will be served and expected to appear before our committee. If they choose not to, then the next step will be to hold them in contempt.

I think the words are strong, Mr. Angus, and I applaud you for your motion.

If there is not any further discussion on the motion, we'll go to the vote.

(Motion agreed to)

The Chair: Thank you, Mr. Angus.

Next, we'll go to the platforms. We'll start with Facebook, go to Google, and then....

I'll mention the names. With Facebook Inc., we have Kevin Chan, Global Policy Director for Canada, and Neil Potts, Global Policy Director. With Google LLC, we have Derek Slater, Global Director of Information Policy; and with Google Canada, Colin McKay, Head, Government Affairs and Public Policy. From Twitter Inc., we have Carlos Monje, Director of Public Policy, and Michele Austin, Head, Government and Public Policy, Twitter Canada.

I would like to say that it wasn't just the CEOs of Facebook who were invited today. The CEOs of Google were invited. The CEO of Twitter was invited. We are more than disappointed that they as well chose not to show up.

We'll start off with Mr. Chan, for seven minutes.

Thank you.

(1045)

Mr. Kevin Chan (Global Policy Director, Facebook Inc.):

Thank you very much, Mr. Chair.

My name is Kevin Chan, and I am here today with my colleague Neil Potts. We are both global policy directors at Facebook.

The Internet has transformed how billions of people live, work and connect with each other. Companies such as Facebook have immense responsibilities to keep people safe on their services. Every day we are tasked with the challenge of making decisions about what speech is harmful, what constitutes political advertising and how to prevent sophisticated cyber-attacks. This is vital work to keeping our community safe, and we recognize this work is not something that companies like ours should do alone.[Translation]

New rules for the Internet should preserve what is best about the Internet and the digital economy—fostering innovation, supporting growth for small businesses, and enabling freedom of expression—while simultaneously protecting society from broader harms. These are incredibly complex issues to get right, and we want to work with governments, academics and civil society around the world to ensure new regulations are effective.[English]

We are pleased to share with you today some of our emerging thinking in four areas of possible regulatory action: harmful content, privacy, data portability and election integrity.

With that, I will turn it over to my colleague Neil, who would love to engage with you about harmful content.

Mr. Neil Potts (Global Policy Director, Facebook Inc.):

Chair, members of the committee, thank you for the opportunity to be here today.

I'm Neil Potts. I'm a Director with oversight of the development and implementation of Facebook's community standards. Those are our guidelines for what types of content are allowed on our platform.

Before I continue, though, I'd just like to point out that Kevin and I are global directors, subject matter area experts, ready to engage with you on these issues. Mark and Sheryl, our CEO and COO, are committed to working with government in a responsible manner. They feel that we have their mandate to be here today before you to engage on these topics, and we are happy to do so.

As you know, Facebook's mission is to give people the power to build community and to bring the world closer together. More than two billion people come to our platform every month to connect with family and friends, to find out what's going on in the world, to build their businesses and to help those in need.

As we give people a voice, we want to make sure that they're not using that voice to hurt others. Facebook embraces the responsibility of making sure that the tools we build are used for good and that we keep people safe. We take those responsibilities very seriously.

Early this month, Facebook signed the Christchurch Call to Eliminate Terrorist and Violent Extremist Content Online, and we have taken immediate action on live streaming. Specifically, people who have broken certain rules on Facebook, which include our “dangerous organizations and individuals” policy, will be restricted from using Facebook Live.

We are also investing $7.5 million in new research partnerships with leading academics to address the adversarial media manipulation that we saw after Christchurch—for example, when some people modified the video to avoid detection in order to repost it after it had already been taken down.

As the number of users on Facebook has grown, and as the challenge of balancing freedom of expression and safety has increased, we have come to realize that Facebook should not be making so many of these difficult decisions alone. That's why we will create an external oversight board to help govern speech on Facebook by the end of 2019. The oversight board will be independent from Facebook, and it will be a final level of appeal for what stays up and what comes down on our platform.

Even with the oversight board in place, we know that people will use many different online platforms and services to communicate, and we'd all be better off if there were clear baseline standards for all platforms. This is why we would like to work with governments to establish clear frameworks related to harmful online content.

We have been working with President Macron of France on exactly this kind of project, and we welcome the opportunity to engage with more countries going forward.

Kevin.

(1050)

Mr. Kevin Chan:

In terms of privacy we very clearly understand our important responsibility as custodians of people's data and the need for us to do better. That is why, since 2014, we have taken significant measures to drastically reduce the amount of data that third party applications can access on Facebook and why we're putting together a much bigger and muscular privacy function within the company. We've also made significant advancements to give people more transparency and control over their data.

We recognize that, while we're doing much more on privacy, we're all better off when there are overarching frameworks to govern the collection and use of data. Such frameworks should protect your right to choose how your information is used, while enabling innovation. They should hold companies such as Facebook accountable by imposing penalties when we make mistakes and should clarify new areas of inquiry, including when data can be used for the public good and how this should be applied to artificial intelligence.

There are already some good models to emulate, including the European Union's General Data Protection Regulation and Canada's Personal Information Protection and Electronic Documents Act. Achieving some degree of harmonization around the world would be desirable and would facilitate economic growth.

We also believe that the principle of data portability is hugely important for consumer choice and for ensuring a dynamic and competitive marketplace for digital services. People should be able to take the data they have put on one service and move it to another service. The question becomes how data portability can be done in a way that is secure and privacy-protective. Data portability can only be meaningful if there are common standards in place, which is why we support a standard data transfer format and the open source data transfer project.

Finally, Facebook is doing its utmost to protect elections on our platform around the world by investing significantly in people, technology and partnerships. We have tripled the number of people working on security matters worldwide from 10,000 to 30,000 people. We have developed cutting-edge AI technology that allows us to detect and remove fake accounts en masse.

Of course, we cannot achieve success working only on our own, so we've partnered with a wide range of organizations. In Canada we are proud to be working with Agence France-Presse on third party fact checking, MediaSmarts on digital literacy and Equal Voice to keep candidates, in particular women candidates, safe online.

Facebook is a strong supporter of regulations promoting the transparency of online political advertising. We think it is important that citizens should be able to see all the political ads that are running online, especially those that are not targeted at them. That is why we support and will comply with Bill C-76, Canada's Elections Modernization Act, which this Parliament passed, and will be engaging in the weeks ahead with Canadian political advertisers, including the federal political parties represented here today, on important changes for political advertising that will come to the platform by the end of June.

Finally, Mr. Chair, if I may, as you will know, Facebook is part of the Canada declaration on electoral integrity online, which sets out 12 commitments that the Government of Canada and certain online platforms agree to undertake together in the lead up to the October federal election. This is a strong expression of the degree to which we are taking our responsibilities seriously in Canada, and we look forward to working in lockstep with officials to guard against foreign interference.

Thank you for the opportunity.[Translation]

We look forward to taking your questions. [English]

The Chair:

Thank you, Mr. Chan.

Next up, we'll go to Mr. Slater, with Google.

Mr. Derek Slater (Global Director, Information Policy, Google LLC):

Thank you for the opportunity to appear before you today.

My name is Derek Slater, and at Google I help shape the company's approach to information policy and content regulation. I'm joined here by my colleague Colin McKay, who's the head of public policy for Google in Canada.

We appreciate your leadership and welcome the opportunity to discuss Google's approach to addressing our many shared issues.

For nearly two decades, we have built tools that help users access, create and share information like never before, giving them more choice, opportunity and exposure to a diversity of resources and opinions. We know, though, that the very platforms that have enabled these societal benefits may also be abused, and this abuse ranges from spam to violent extremism and beyond. The scrutiny of lawmakers and our users informs and improves our products as well as the policies that govern them.

We have not waited for government regulation to address today's challenges. Addressing illegal and problematic content online is a shared responsibility that requires collaboration across government, civil society and industry, and we are doing and will continue to do our part.

I will highlight a few of the things we're doing today. On YouTube, we use a combination of automated and human review to identify and remove violative content. Over time we have improved, removing more of this content faster and before it's even viewed. Between January and March 2019, YouTube removed nearly 8.3 million videos for violating its community guidelines, and 76% of these were first flagged by machines rather than people. Of those detected by machines, over 75% had never received a single view.

When it comes to combatting disinformation, we have invested in our ranking systems to make quality count in developing policies, threat monitoring and enforcement mechanisms to tackle malicious behaviours and in features that provide users with more context, such as fact check or information panels on Google Search and YouTube.

Relatedly, in the context of election integrity, we've been building products for over a decade that provide timely and authoritative information about elections around the world. In addition, we have devoted significant resources to help campaigns, candidates and election officials improve their cybersecurity posture in light of existing and emerging threats. Our Protect Your Election website offers free resources like advanced protection, which provides Google's strongest account security, and Project Shield, a free service designed to mitigate the risk of distributed denial of service attacks that inundate sites with traffic in an effort to shut them down.

While industry needs to do its part, policy-makers, of course, have a fundamental role to play in ensuring everyone reaps the personal and economic benefits of modern technologies while addressing social costs and respecting fundamental rights. The governments and legislatures of the nearly 200 countries and territories in which we operate have come to different conclusions about how to deal with issues such as data protection, defamation and hate speech. Today's legal and regulatory frameworks are the product of deliberative processes, and as technology and society's expectations evolve, we need to stay attuned to how best to improve those rules.

In some cases, laws do need updates, for instance, in the case of data protection and law enforcement access to data. In other cases, new collaboration among industry, government and civil society may lead to complementary institutions and tools. The recent Christchurch call to action on violent extremism is just one example of this sort of pragmatic, effective collaboration.

Similarly, we have worked with the European Union on its hate speech code of conduct, which includes an audit process to monitor how platforms are meeting their commitments, and on the recent EU Code of Practice on Disinformation. We agreed to help researchers study this topic and to provide a regular audit of our next steps in this fight.

New approaches like these need to recognize relevant differences between services of different purpose and function. Oversight of content policies should naturally focus on content sharing platforms. Social media, video sharing sites and other services that have the principle purpose of helping people to create content and share it with a broad audience should be distinguished from other types of services like search, enterprise services, file storage and email, which require different sets of rules.

With that in mind, we want to highlight today four key elements to consider as part of evolving oversight and discussion around content sharing platforms.

First is to set clear definitions.

While platforms have a responsibility to set clear rules of the road for what is or is not permissible, so too, do governments have a responsibility to set out the rules around what they consider to be unlawful speech. Restrictions should be necessary and proportionate, based on clear definitions and evidence-based risks and developed in consultation with relevant stakeholders. These clear definitions, combined with clear notices about specific pieces of content, are essential for platforms to take action.

(1055)



Second, develop standards for transparency and best practice.

Transparency is the basis for an informed discussion and helps build effective practices across the industry. Governments should take a flexible approach that fosters research and supports responsible innovation. Overly restrictive requirements like one-size-fits-all removal times, mandated use of specific technologies or disproportionate penalties will ultimately reduce the public's access to legitimate information.

Third, focus on systemic recurring failures rather than one-offs.

Identifying and responding to problematic content is similar, in a way, to having information security. There will always be bad actors and bugs and mistakes. Improvement depends on collaboration across many players using data-driven approaches to understand whether particular cases are outliers or representative of a more significant recurring systemic problem.

Fourth and finally, foster international co-operation.

As today's meeting demonstrates, these concerns and issues are global. Countries should share best practices with one another and avoid conflicting approaches that impose undue compliance burdens and create confusion for customers. That said, individual countries will make different choices about permissible speech based on their legal traditions, history and values consistent with international human rights obligations. Content that is unlawful in one country may be lawful in another.

These principles are meant to contribute to a conversation today about how legislators and governments address the issues we are likely to discuss, including hate speech, disinformation and election integrity.

In closing, I will say that the Internet poses challenges to the traditional institutions that help society organize, curate and share information. For our part, we are committed to minimizing that content that detracts from the meaningful things our platforms have to offer. We look forward to working with the members of this committee and governments around the world to address these challenges as we continue to provide services that promote and deliver trusted and useful information.

Thank you.

(1100)

The Chair:

Thank you.

Next up we'll go to Twitter. I believe Mr. Monje is going to be speaking.

Go ahead.

Mr. Carlos Monje (Director, Public Policy, Twitter Inc.):

Thank you very much.

Chairman Zimmer, Chairman Collins and members of the committee, my name is Carlos Monje. I'm Director of Public Policy for Twitter. I'm joined by Michele Austin, who's our Head of Public Policy for Canada.

On behalf of Twitter, I would like to acknowledge the hard work of all the committee members on the issues before you. We appreciate your dedication and willingness to work with us.

Twitter's purpose is to serve the public conversation. Any attempts to undermine the integrity of our service erodes the core tenets of freedom of expression online. This is the value upon which our company is based.

The issues before this committee are ones that we care about deeply as individuals. We want people to feel safe on Twitter and to understand our approach to health and safety of the service. There will always be more to do, but we've made meaningful progress.

I would like to briefly touch upon our approach to privacy and disinformation and I look forward to your questions.

Twitter strives to protect the privacy of the people who use our service. We believe that privacy is a fundamental human right. Twitter is public by default. This differentiates our service from other Internet sites. When an individual creates a Twitter account and begins tweeting, their tweets are immediately viewable and searchable by anyone around the world. People understand the default public nature of Twitter and they come to Twitter expecting to see and join in a public conversation. They alone control the content that they share on Twitter, including how personal or private that content might be.

We believe that when people trust us with their data, we should be transparent about how we provide meaningful control over what data is being collected, how it is used and when it is shared. These settings are easily accessible and built with user friendliness front of mind. Our most significant personalization in data settings are located on a single page.

Twitter also makes available the “your Twitter data” toolset. Your Twitter data provides individuals with insight on the types of data stored by us, such as username, email address, phone numbers associated with the account, account creation details and information about the inferences we may have drawn. From this toolset, people can do things like edit their inferred interests, download their information and understand what we have.

Twitter is also working proactively to address spam, malicious automation, disinformation and platform manipulation by improving policies and expanding enforcement measures, providing more context for users, strengthening partnerships with governments and experts, and providing greater transparency. All of this is designed to foster the health of the service and protect the people who use Twitter.

We continue to promote the health of the public conversation by countering all forms of platform manipulation. We define platform manipulation as using Twitter to disrupt the conversation by engaging in bulk aggressive or deceptive activity. We've made significant progress. In fact, in 2018, we identified and challenged more than 425 million accounts suspected of engaging in platform manipulation. Of these, approximately 75% were ultimately suspended. We are increasingly using automated and proactive detection methods to find abuse and manipulation on our service before they impact anyone's experience. More than half the accounts we suspend are removed within one week of registration—many within hours.

We will continue to improve our ability to fight manipulative content before it affects the experience of people who use Twitter. Twitter cares greatly about disinformation in all contexts, but improving the health of the conversation around elections is of utmost importance. A key piece of our election strategy is expanding partnerships with civil society to increase our ability to understand, identify and stop disinformation efforts.

Here in Canada, we're working with Elections Canada, the commissioner of Canada Elections, the Canadian centre for cybersecurity, the Privy Council Office, democratic institutions and civil society partners such as the Samara Centre for Democracy and The Democracy Project.

In addition to our efforts to safeguard the service, we believe that transparency is a proven and powerful tool in the fight against misinformation. We have taken a number of actions to disrupt foreign operations and limit voter suppression and have significantly increased transparency around these actions. We released to the public and to researchers the world's largest archive of information operations. We've pervaded data and information on more than 9,600 accounts including accounts originating in Russia, Iran and Venezuela, totalling more than 25 million tweets.

It is our fundamental belief that these accounts and their content should be available and searchable, so that members of the public, governments and researchers can investigate, learn and build media literacy capabilities for the future. They also help us be better.

(1105)



I want to highlight one specific example of our efforts to combat disinformation here in Canada.

Earlier this spring we launched a new tool to direct individuals to credible public health resources when they searched Twitter for key words associated with vaccines. Here we partnered with the Public Health Agency of Canada. This new investment builds on our existing work to guard against the artificial amplification of non-credible content about the safety and effectiveness of vaccines. Moreover, we already ensure that advertising content does not contain misleading claims about the cure, treatment, diagnosis or prevention of any disease, including vaccines.

In closing, Twitter will continue to work on developing new ways to maintain our commitment to privacy, to fight disinformation on our service and to remain accountable and transparent to people across the globe. We have made strong and consistent progress, but our work will never be done.

Once again, thank you for the opportunity to be here. We look forward to your questions.

The Chair:

Thank you.

First of all, we will go to my co-chair, Damian Collins, and then the sequence will follow.

You each have five minutes. Try to keep it as crisp as you possibly can.

Mr. Collins.

Mr. Damian Collins (Chair, Digital, Culture, Media and Sport Committee, United Kingdom House of Commons):

Thank you, Mr. Chairman.

I'm going to direct my first question to the Facebook representatives. I'm sure you're aware that one of the principal concerns of members of this committee has been that deceptive information, deliberately and maliciously spread through the tools created by social media companies, are a harm to democracy, and this disinformation is used to undermine senior politicians and public figures, public institutions and the political process.

With that in mind, could Facebook explain why it has decided not to remove the video of Nancy Pelosi that presents a distorted impression of her to undermine her public reputation? The reason I think this is so important is that we're all aware that new technology is going to make the creation of these sorts of fake or manipulated films much easier. Perhaps you could explain why Facebook is not going to take this film down.

Mr. Neil Potts:

Thank you, Mr. Collins.

I'm happy to explain our approach to misinformation a bit more clearly for this committee.

First, I want to be clear that we are taking action against that video—

Mr. Damian Collins:

I'm sorry, Mr. Potts, we haven't got much time. I'd like you to answer the question you've been asked, not give a statement about Facebook's policies on misinformation or what else you might have done. I want you to answer the question as to why you, unlike YouTube, are not taking this film down?

Mr. Neil Potts:

We are aggressively down ranking that—

Mr. Damian Collins:

I know you're down ranking it. Why aren't you taking the film down?

Mr. Neil Potts:

It is our policy to inform people when we have information on the platform that may be false, so they can make their own decisions about that content.

Mr. Damian Collins:

But this is content that I think is widely accepted as being fake. YouTube has taken it down. The fact-checkers that work with Facebook are saying it's fake, yet the video is allowed to remain and that video being there is far more powerful than any legal disclaimer that may be written under or over it.

Why won't you say that films that are clearly fake and are independently verified as being fake, that are there to deceive people about some of the most senior politicians in your country, will be taken down?

Mr. Neil Potts:

We are conducting research on our inform treatments. That is the treatment that shows that something is fake. For example, if someone wanted to share this video with their friends or if they have already shared it or when they see it in a newsfeed, they receive a message that says it's false.

Mr. Damian Collins:

Facebook accepts that this film is a distortion, doesn't it?

Mr. Kevin Chan:

Neil, you're closer to this, but my understanding is that the video in question has been slowed down. Is that what this is?

Mr. Neil Potts:

That's correct. I think this is manipulated—

Mr. Damian Collins:

It's manipulated film to create the distorted impression that Nancy Pelosi was somehow impaired when she was speaking. That's what has happened and that's why YouTube has taken the film down and that's why there has been a general recognition, including by independent fact-checkers who work for Facebook, that this film is distorted and creates a distorted impression of the third most senior politician in America.

(1110)

Mr. Neil Potts:

As you mentioned the fact-checkers, we work with over 50 fact-checkers internationally that are—

Mr. Damian Collins:

This is not in question. The fact-checkers recognize it's fake. You're saying it can stay there. Do you not see that what Facebook is doing is giving a green light to anyone in the world who wants to make a distorted or fake film about a senior politician, or maybe in the future use deepfake technologies to do it, and know that whatever happens Facebook won't remove the film?

Mr. Neil Potts:

I think you're asking a philosophical question, sir. Should we remove or should we inform people that it is fake? We have taken the approach to inform people that it's fake, so they can understand why that video is on the platform and what other independent parties have considered this to be. They have considered it to be false and now they see this on our platform if they go to share it. All these questions, I think are very thorough questions, but it allows people to make their own decision and it allows them to tell others it is false.

You mentioned that the video is slowed down, which by all accounts and the fact-checkers have said it is, but I think there are many different cases where videos are slowed down and that would perhaps not be a warrant for this committee.

Mr. Damian Collins:

The issue here is to say that if someone is making a film, or slowing down a film or manipulating a film, to try to create the false impression that a senior public figure is not fit for office, then that is an attempt to undermine them and the office they hold.

This is not a question of opinion. This is not a question of free speech. This is a question of people manipulating content in order to undermine public figures, and my concern is that to leave that sort of content up there, when it is indisputably fake, indisputably false and distorted, and to allow permission for this content to be shared with and promoted by other users is irresponsible.

YouTube has removed this content. I don't understand why Facebook doesn't do the same.

Mr. Neil Potts:

Sir, I understand your concerns, but I think your questions are the right ones and that they show the complexity of this issue and also show perhaps that the approach we are taking is working. You don't hear people—

Mr. Damian Collins:

Sorry, but with all respect, what it shows is the simplicity of these issues, the simplicity that another company has taken, recognizing the same issues, the simple action to say that this is clearly fake, it's clearly distorted, it's there to undermine senior public figures and it actually shouldn't have a place on the platform. It shouldn't be part of your community.

Mr. Neil Potts:

Your opinion is right, and I obviously respect the opinion of YouTube as an independent company, but we're not hearing people talk about this video as if it were real. We're hearing people discuss the fact that it is fake and that it is on the platform, so on the question of whether we have informed people that this is a fake video, yes, we have. I think that is the predominant speech right now. Whether it's the conversation we're having right now, whether it's on the news or others, people understand that this video is fake and they can make further decisions from there.

Mr. Damian Collins:

My concern about this is that it sets a very dangerous precedent. Your colleague Monika Bickert said last week to CNN that basically Facebook's policy is that any political content, any disinformation content in relation to politics will not be taken down, that there would be notes put up for users so they could see that the facts are disputed, but it will never be removed.

If you're going to allow your platform to be abused in this way by people producing disinformation films targeted at users to try to interfere with democracy and the best you're going to do is just put a flag on it to say some people dispute this film, I think that is a very dangerous precedent.

The Chair:

Thank you, Mr. Collins.

We'll go next to Mr. Erskine-Smith.

Go ahead, for five minutes.

Mr. Nathaniel Erskine-Smith:

Thanks very much.

You speak to Mr. Zuckerberg often enough, because you're here on his behalf. Remind me why he isn't here today.

Mr. Neil Potts:

I'm sorry, sir. I can't see your name.

Mr. Nathaniel Erskine-Smith:

It is Mr. Erskine-Smith.

Mr. Neil Potts:

Mr. Erskine-Smith, Mr. Zuckerberg and Ms. Sandberg have entrusted us to represent the company here today. We are subject matter experts in these areas, and we're more than happy for the opportunity to be here, but I do want to make—

Mr. Nathaniel Erskine-Smith:

He said, “I'm looking forward to discussing these issues with lawmakers around the world” less than two months ago. He just didn't mean these lawmakers. He meant other lawmakers, I'm sure.

I'm going to talk about privacy. In his most recent report, our Privacy Commissioner has said that Facebook's privacy protection framework was “empty”. Then on May 7 before this committee, our Privacy Commissioner said that finding still applies, that it is empty. If Facebook takes privacy seriously, and I heard Mr. Chan say that it does—these aren't my words; these are the Privacy Commissioner's words—why had it “outright rejected, or refused to implement” the Privacy Commissioner's recommendations?

Mr. Kevin Chan:

Given that the commissioner has indicated that he will be taking this to Federal Court, we're somewhat limited in what we can say, but what I can share with you is that—

Mr. Nathaniel Erskine-Smith:

You're not limited in what you can say at all, Mr. Chan.

Mr. Kevin Chan:

I'm going to continue with what I can share with you, which is that we actually have been working quite hard in the last few months to arrive at a resolution and a path forward with the Privacy Commissioner of Canada—

Mr. Nathaniel Erskine-Smith:

So you didn't outright reject or refuse to implement the recommendations.

Mr. Kevin Chan:

I think we were in a conversation about how we could get to the objectives that we all seek.

(1115)

Mr. Nathaniel Erskine-Smith:

When the Privacy Commissioner wrote those specific words in his specific report, he was incorrect, in your view.

Mr. Kevin Chan:

I don't.... If I may, I just want to share a bit more, because I am limited in what I can say—

The Chair:

Actually, Mr. Chan....

Mr. Chan, the priority goes to members of the committee, so if you wish to keep speaking, you need to hear.

Mr. Nathaniel Erskine-Smith:

Mark Zuckerberg has also said the future is private. Interestingly, of course though, it used to be Facebook privacy policy in 2004 that it did not and would not use cookies to collect private information from any user. That changed in 2007. Initially Facebook gave users the ability to prohibit the collection of their personal information from third parties, and that was again changed.

When Mr. Zuckerberg says the future is private, does he mean the future is going back to our past, when we cared about privacy before profits?

Mr. Kevin Chan:

I think we are undertaking a significant effort to reimagine what communications services will look like online. I think there have been a lot of interesting things written, not just by folks at the company but around the world. We do see a trend line such that people are increasingly focused on one-to-one communications. Those are, by definition, private, but what it does raise, sir, in terms of public policy questions is a very interesting balance between privacy and lawful access to information and questions of encryption. These are tight tensions. I think they've been raised previously, including in previous parliaments of Canada, and we look forward to engaging on those questions.

Mr. Nathaniel Erskine-Smith:

With regard to engaging on those questions, GDPR has been adopted by the EU. We've recommended, at this committee, that Canada go further initially.

Facebook made $22 billion last year. Alphabet made $30 billion last year. Previously, you've used millions of those dollars to lobby against GDPR. Now you agree that's a standard that ought to be in place or that similar standards ought to be in place.

I'd like a simple yes-or-no answer, Mr. Chan and Mr. Slater.

Mr. Kevin Chan:

Yes, we fully support GDPR.

Mr. Nathaniel Erskine-Smith:

Mr. Slater.

Mr. Colin McKay (Head, Government Affairs and Public Policy, Google Canada):

If you don't mind, Mr. Erskine-Smith, I'll respond as the privacy expert.

Mr. Nathaniel Erskine-Smith:

Sure.

Mr. Colin McKay:

Yes.

Mr. Nathaniel Erskine-Smith:

Mr. McNamee was here and he suggested that perhaps consent shouldn't be the only rule in play and that in certain instances we should simply ban certain practices. He used web tracking.

When was the last time that Google read my emails to target me with ads? How many years ago was it?

Mr. Colin McKay:

We stopped using your Gmail content for advertising in 2017. That was specific to you. That information was never shared externally.

Mr. Nathaniel Erskine-Smith:

Is that something that we could consider banning so that individuals could never consent to having their emails read to be targeted for advertising? Would you be comfortable with that?

Mr. Kevin Chan:

It's certainly the practice that we have now. I hesitate at the word “ban” because there's a broad range of services that might be used in that specific context that make sense.

Mr. Nathaniel Erskine-Smith:

The German competition authority, in February of this year, said: In view of Facebook’s superior market power, an obligatory tick on the box to agree to the company’s terms of use is not an adequate basis for such intensive data processing. The only choice the user has is...to accept the comprehensive combination of data or to refrain from using the social network. In such a difficult situation the user’s choice cannot be referred to as voluntary consent.

Mr. Chan and Mr. Slater, do you think that privacy is a key consideration in competition and merger decisions, and should competition authorities around the world take privacy issues into account?

Mr. Kevin Chan:

I'm sorry. Could you repeat the question just to make sure I understand?

Mr. Nathaniel Erskine-Smith:

Do you agree that competition authorities around the world should be looking at privacy—just as they currently look at price—and data collection of our personal information as a key consideration in competition law and when looking at mergers and acquisitions?

Mr. Kevin Chan:

That's a very interesting question of public policy. I think, presumably, certain—

Mr. Nathaniel Erskine-Smith:

It could just be a yes or no.

Mr. Kevin Chan:

These are complex issues, sir, as you can appreciate, and if you would allow me, I would just like to say a few more words with regard to this because it is complicated.

I think it's clear that competition policies and privacy policies are quite different. I suspect that data protection authorities around the world would have very different views about whether or not it is appropriate to pour concepts from other realms into data protection law.

Mr. Nathaniel Erskine-Smith:

I'm not suggesting that. I'm suggesting that since we currently protect consumers on price, shouldn't we protect consumers on privacy? We have a German competition authority suggesting that we should do so.

Mr. Kevin Chan:

I see. I'm sorry. I understand more clearly what you're saying.

(1120)

Mr. Nathaniel Erskine-Smith:

I did read a quote directly from the German competition authority.

Mr. Kevin Chan:

You're absolutely right that data protection...that we should treat privacy as a foundational cornerstone of the digital economy.

Mr. Nathaniel Erskine-Smith:

Of competition law....

Mr. Kevin Chan:

I believe that these are two very distinct and separate things. It wouldn't just be me. I think that if you talk to competition authorities and data protection authorities, they might very much arrive at similar views.

Mr. Nathaniel Erskine-Smith:

That's not the one that I read to you.

Mr. Kevin Chan:

We are aware of this. I have spoken to some of my colleagues in Germany with respect to this. Our understanding is that the GDPR needs to, obviously, be enforced and interpreted by data protection authorities in Europe.

The Chair:

Thanks.

We need to move on.

We will go next to Monsieur Gourde for five minutes. [Translation]

Mr. Jacques Gourde (Lévis—Lotbinière, CPC):

Thank you, Mr. Chair.

Over the years, the digital platforms you represent have developed very powerful, even overly powerful, tools. You are in the midst of a frantic race for performance. However, it isn't necessarily for the well-being of humanity, but rather for the personal interests of your companies.

Let me make an analogy. You have designed cars that can travel up to 250 kilometres an hour, but you rent them to drivers who travel at that speed in school zones. You have developed tools that have become dangerous, that have become weapons.

As a legislator, I do not accept that you rejected out of hand your responsibility in this regard. These tools belong to you, you have equipped them with functions, but you don't necessarily choose the users. So you rent your tools commercially to people who misuse them.

In the election we'll have in Canada in a few months, will you have the technical ability to immediately stop any fake news, any form of hate advertising or any form of advertising that would undermine our democracy? Will you be able to act very quickly? At the very least, can you stop all advertising during elections in Canada and other countries, if you cannot guarantee us absolute control over the ads that can be placed on your platforms?

We'll start with the representatives from Facebook, then I'd like to hear from Google and Twitter.

Mr. Kevin Chan:

Thank you very much, Mr. Gourde.

I'll start by saying that we'll do everything we can to protect the election in October 2019.

As you know, we are working closely with the Conservative Party, the New Democratic Party and the Liberal Party. The other parties should be mentioned, including the Green Party, the People's Party, the Bloc Québécois—

Mr. Jacques Gourde:

Excuse me, Mr. Chan, but it isn't about parties. It's about people who will have to make a choice based on the information we will provide to them, not on fake information.

Do you have the ability to quickly stop the spread of fake information or even to stop altogether any advertising that can be placed on your platforms, if you don't have control over it?

Mr. Kevin Chan:

Thank you for the question.

Here, in Canada, we have a team that works on each election. We have done this in Ontario, British Columbia, Prince Edward Island, New Brunswick—

Mr. Jacques Gourde:

Please don't list all the provinces.

I want to know if you have the ability to stop the spread of any hate advertising or any fake information at any time during the next election.

Mr. Kevin Chan:

For the time being, in all the other elections, there have been no problems that we haven't been able to resolve quickly.

Mr. Jacques Gourde:

Thank you.

I have the same question for the representatives from Google. [English]

Mr. Derek Slater:

Getting this right is absolutely essential. We do invest heavily in efforts to both anticipate and prevent efforts that would interfere with election integrity. That's by making useful information available in search or dealing with actors who might deceive or misrepresent themselves in ads.

Mr. Carlos Monje:

Twitter has spent a significant amount of time improving our internal ability to spot this type of disinformation. We've learned from elections around the globe. We've actively engaged with civil society here, most recently in the Alberta elections, and we believe we are very prepared. However, we cannot take our eye off the prize. It's going to be the people who want to manipulate the conversation who will continue to innovate and we will continue to innovate to stay ahead of them.

(1125)

[Translation]

Mr. Jacques Gourde:

Based on your answers, I remain doubtful and concerned.

You cars can drive 250 kilometres and hour, but the speed limit on the highway is 100 kilometres an hour. Are you able to reduce the capacity of your tools so that it is fair and equitable for everyone?

What is the point of having such powerful tools if it is to do evil, when a lesser performance could serve the good of humanity?

Mr. Kevin Chan:

If I may, I will speak in English to be clearer, since it's my mother tongue.[English]

I just want to say, Mr. Gourde, that's exactly what we're going to do. Next month, as your party and other parties in Canada are aware, we're introducing a very friction-intensive process for anybody who wants to run political ads. We are going to require them to authorize, to demonstrate that they're Canadian. We will need to independently validate the fact that they're Canadian, and then we're going to have to give them a code—or a key, if you will—where they're going to authenticate before they can run an ad.

This is not going to be a thing that happens in an hour. It's not going to be a thing that happens in a day. It's going to be a multi-day process. You have my assurance that we'll be reaching out and working in strict collaboration with all political parties in Canada to take them through this process. Precisely to your point about speed bumps or brakes, I would say this is going to be significant friction in the system, but we think this is the right thing to do in order to get ad transparency right, it's the right thing to do to get regulated political advertising right and it's an important thing to do to guard against foreign interference.

The Chair:

Thank you, Monsieur Gourde.

Next up is Mr. Angus.

Mr. Charlie Angus:

Thank you, Mr. Chair.

Thank you so much for these presentations. They're very helpful.

Mr. Chan, we know that Mr. Zuckerberg and Ms. Sandberg are very important people. Are they busy today?

Mr. Kevin Chan:

I am not aware of their schedules today, but I think that's right. They unfortunately had to send their regrets.

Mr. Charlie Angus:

Okay.

I'm trying to get a sense of corporate governance with Facebook. You come from Canadian politics. You worked for the Liberal Party. We're kind of meek and mild here in Canada. I don't ever remember a summons being issued against the head of a corporation. I don't know of anybody who has ever decided to ignore a summons.

Surely to God they have something really pressing to keep them busy. When Mr. Zuckerberg recently spoke, as my colleague pointed out, about his willingness, his desire to talk with legislators. Was that a joke?

This is for Mr. Chan. I'm interested in Mr. Chan because he represents us in Canada.

Mr. Kevin Chan:

Well, sir, I have to say that we do desire very much to collaborate with the Parliament of Canada and the Government of Canada. The election that's before us is going to be an important one, and an important one for us to get right at Facebook. We want to ensure a free and fair election. That's why we have done all the things that we have done.

We're complying with Bill C-76. To my knowledge, we may be the only company represented on this panel that is moving forward with an architectured system to do this. We have moved quickly on hate figures and hate organizations in Canada, and we have signed on to the Canada declaration on electoral integrity. I would—

Mr. Charlie Angus:

Yes, thank you for that. Sorry, I only have a few minutes.

I appreciate that work. I'm a big fan of Facebook.

Mr. Kevin Chan: Thank you, sir.

Mr. Charlie Angus: I've spoken greatly about the powerful tools it has in the indigenous communities I represent.

My concern is this idea of opt-in, opt-out that Facebook has when it comes to national law. First of all, you ignored a summons by Parliament because Mr. Zuckerberg may be busy. It may be his day off. I don't know.

You were recently found guilty by our regulator in the Cambridge Analytica breach. Our regulator, Mr. Therrien, said: Canadians using Facebook are at high risk that their personal information will be used in ways they may not be aware of, for purposes that they did not agree to and which may be contrary to their interests and expectations. This could result in real harms, including political...surveillance.

What was striking was that Facebook didn't concede that we have jurisdiction over our own citizens. If you're saying you're willing to work with parliamentarians, I don't get this opt-in when it works for Facebook and opt-out when....

Can you give me an example of any company saying that they just don't recognize whether or not we have jurisdiction over our citizens?

(1130)

Mr. Kevin Chan:

Sir, my eyebrows were also raised when I saw those reports, so I did read it carefully and I did talk to legal counsel about it.

My understanding is that this was in reference to the fact that, to our knowledge, based on the available evidence around the world and based on documented evidence, not only in terms of contracts and things like that, but also witnesses who have first-hand accounts, there was no Canadian, or indeed, no non-U.S. user data that was ever transferred to Cambridge Analytica. I believe, if I may—

Mr. Charlie Angus:

Okay, but on that point—I only have a short period of time—622,000 Canadians had their data taken. Facebook became aware of it in 2015, and Facebook said nothing until it was exposed internationally because of the Cambridge Analytica breach. That is a breach of Canadian law under PIPEDA.

You know that law, yet to tell Canadian legislators that we had to prove individual harm before Facebook would concede jurisdiction, that to me would be like an international auto company saying, “Yes, there were mass deaths in Brazil; yes, there were mass deaths in the United States; yes, there were mass deaths all over Europe; but since nobody died in a car accident in Canada, we are not going to comply with Canadian law.”

How do you get to decide what laws you respect and what laws you figure don't apply to you? Why do you think that?

Mr. Kevin Chan:

Mr. Angus, with all due respect, we actually go over and above the law—

Mr. Charlie Angus:

No you don't. You don't recognize that we have jurisdiction.

Mr. Kevin Chan:

—as the Parliament of Canada knows.

Mr. Charlie Angus:

How can you say that to us with a straight face, Mr. Chan? How can you?

Mr. Kevin Chan:

Because it is the truth, sir.

Mr. Charlie Angus:

So we have to take you to court to get you to recognize that we have jurisdiction to protect our citizens, after you sat on a breach that you knew about for three years and did nothing to tell us about because you didn't want to up-end your business model.

Mr. Kevin Chan:

With respect to election integrity, we are going over and above the law—

Mr. Charlie Angus:

I'm talking about the privacy rights of Canadians and the breach of our law that you were found guilty of. That's the question.

Mr. Kevin Chan:

We can talk about that as well, sir, in the time remaining, if you will permit me.

As I said, we wanted to get to a resolution with the commissioner. He has decided to take us to court, which is of course the framework that's prescribed for him—

Mr. Charlie Angus:

He had to take you to court, because you wouldn't concede that we as legislators even have jurisdiction over our own citizens. That's not coming to a resolution. That's like, “Hey, Facebook, is it okay if we come and see, and if it's okay, we'll all work things out?” That is not how law works. Maybe that's how it works for Mr. Zuckerberg, but that's not how it works internationally, which is why we are here. It's because we have international legislators who are frustrated—

Mr. Kevin Chan:

We have nothing but the utmost respect for—

Mr. Charlie Angus:

—by the lack of respect for international law.

Mr. Kevin Chan:

We have the utmost respect for the law in Canada and for legal authority around the world.

The Chair:

Thank you.

We'll go on next to Mr. Tong from Singapore.

Mr. Edwin Tong (Senior Minister of State, Ministry of Law and Ministry of Health, Parliament of Singapore):

I have limited time, so I would appreciate it if you just focus on my questions and give the answers directly.

We've heard a lot about what you wish to do, who you are engaged with, who you wish to see and how you're going to work on your policies, but let's just see what actually appears and continues to appear on your platforms.

To do that and to save some time, I have put together a little handout that summarizes several cases, which I have no doubt you're familiar with. Just thumb through them quickly. These are all cases that were sensational. They all went viral quickly. They were probably amplified by trolls and bots—fake accounts. They incite fear, they cause disaffection and tensions, and they prey on divisive social fault lines: race, religion, immigration.

One key fact is that they're all false information as well, and all resulted in real world harm: physical injuries, deaths, riots, accentuating divisions and fault lines between religions and races, causing fear.

Just go to the very last page of the handout and look at Sri Lanka, April 2019. The leader of the Easter terrorist bombings in Sri Lanka had posted videos that were on your platforms—Facebook and YouTube—for at least six months prior to the bombing itself. In the videos, he says, “Non-Muslims and people who don't accept Muslims can be killed, along with women and children.” Separately, he says, “We can kill women and children with bombs. It is right.”

This is clear hate speech, is it not?

Mr. Neil Potts:

It is hate speech.

Mr. Edwin Tong:

And it's a breach of your own policies, isn't that correct?

Mr. Neil Potts:

That would be a breach of our policies. That is correct, sir.

Mr. Edwin Tong:

These passages, posted months prior to the Easter bombings, portend what was to come, and it happened, horrifically, in April, in the same fashion as this alleged priest, Mr. Zahran Hashim, said it would—by bombs, killing women and children—on your platforms.

Why? Why was it not removed?

Mr. Neil Potts:

Thank you, Mr. Tong.

Just to quickly—

(1135)

Mr. Edwin Tong:

No. Please answer my question. Why was it not removed? You say it's a breach of your own policies. Why was it not removed in September 2018?

Mr. Neil Potts:

When we're made aware of that content, we do remove it. If it is not reported or if we have not proactively identified it, then we would not remove it, because honestly we would not know that it exists.

I want to say that our hearts go out to those people in Sri Lanka and everywhere that you've mentioned here in your handout. Intercommunal ethnic violence is a horrific thing. We don't want our platform to be co-opted and used for these activities. In fact, we have taken aggressive action to combat this. We now have more than 30,000 people working in safety and security—

Mr. Edwin Tong:

Mr. Potts, I don't need a speech on what you will be doing.

Mr. Neil Potts:

I apologize.

Mr. Edwin Tong:

How difficult is it to work out that the phrase, “We can kill women and children with bombs. It is right”, is hate speech? How difficult is it?

Mr. Neil Potts:

That question is not hard, Mr. Tong. The question would be one of identifying the content. If we are not made aware that the content exists, either through a user report or our own proactive measures, then we would not know that this content is on the platform.

Mr. Edwin Tong:

So none of the AI, or the technology, or the fact-checkers or the army of people you have scrutinizing your platforms picked this up eight months prior to the event, and you are asking us to trust the processes that you intend to put in place, trust that the AI that you now have will do so in the future.

Mr. Neil Potts:

Artificial intelligence is a great lever to help us identify this. It is not perfect. It is not salient where it will get 100% of the activity right, just as humans we will not get 100% of the activity right. I would have to check on this video specifically, but if we were made aware of this video, we would remove it. This is a very straightforward call.

Mr. Edwin Tong:

Mr. Potts, if you do some homework and check, local Muslim leaders flagged it to Facebook, and Facebook did not take it down despite being aware of it, despite it being, as you say, a clear breach of your own policies. I'd like to know why.

Mr. Neil Potts:

Sir, I would have to see how the content was shared. The way that you have—

Mr. Edwin Tong:

You said, Mr. Potts and Mr. Chan, that both of you are content specialists. You are domain specialists. You're here in place of Mr. Zuckerberg and Ms. Sandberg, and you should know. This happened a few months ago, so why was it not taken down despite Facebook being aware of it? Can you explain?

Mr. Neil Potts:

I'm trying to explain that I don't know that premise. I'd have to check to make sure that we were actually aware. I do not believe that we were aware of that video at the time.

Mr. Edwin Tong:

Let me suggest to you that you didn't remove it because such content is sensational. It incites fear, violence, hatred and conspiracy theories. As Mr. McNamee explained to us earlier, that is what drives eyeballs to your platforms. It's what drives users to your platforms and that is the engine room of your profit mechanism.

Mr. Neil Potts:

Mr. Tong, I reject the premise. I reject that wholeheartedly. If we know that something is hate speech, if we know that it is causing violence, we actually move more swiftly.

We had a discussion earlier about misinformation. If we know that misinformation is actually leading to physical harm and violence, we work with trusted partners on the ground, civil society and others, to flag that for us—law enforcement even—and then we will actually remove that content.

Mr. Edwin Tong:

Mr. Potts, Facebook was told about this. You can check. Facebook was also told about the problems in Sri Lanka on March 2018 by the Sri Lankan government. It refused to take it down on the basis that it didn't infringe on your own policies. Mr. McNamee says that as a result, governments in Sri Lanka, in Indonesia and in India have had to take proactive action to shut down social media such as Facebook and WhatsApp. Is that how you want this play out?

Can we trust the policies you have in place? Can we trust that what you do and put in place, checks to seek out and remove such content, will actually work?

The Chair:

Thank you, Mr. Tong. We'll have to go on to the next question.

We'd like to welcome our delegation from Ireland. They just landed this morning.

Welcome to our committee.

We'll start off our first five minutes with Hildegarde Naughton.

Ms. Hildegarde Naughton (Chair, Joint Committee on Communications, Climate Action and Environment, Houses of the Oireachtas):

Thank you, Mr. Chairman. We're delighted to be here this afternoon.

I'll start by listing out my questions for you, and the social media companies can answer afterwards. I have about three questions here. The first is in relation to data protection.

It's very clear that you're all scrambling to figure out how to make privacy rules clear and how to protect users' data. The inception of GDPR has been a sea change in European data protection. The Irish data protection commissioner now has the job of effectively regulating Europe, given the number of social media companies who have their headquarters based in Ireland.

In the 11 months since GDPR came into force, the commissioner has received almost 6,000 complaints. She has said that her concentration on Facebook is because she didn't think that there would be so many significant data breaches by one company, and at one point, there were breaches notified to her under GDPR every fortnight, so she opened a consolidated investigation to look at that. I want to ask Facebook if you can comment on her remarks and why you're having such difficulty protecting users' data.

Also, for this next question, I might ask Google and Facebook to comment. I and my colleague James Lawless and deputy Eamon Ryan met earlier this year with Mark Zuckerberg in Ireland, and he said that he would like to see GDPR rolled out globally. Some of Facebook's biggest markets are in the developing world, such as in Asia and Africa, and out of the top 10 countries, there are only two in the developed world, the United States and the United Kingdom. Some experts are saying that a one-size-fits-all approach won't work with GDPR, because some regions have different interpretations of the importance of data privacy.

I would like to get Google's viewpoint on that—What is your view is in relation to the rollout of GDPR globally? How would that work? Should it be in place globally?—and in relation to the concerns around the different interpretations of data privacy.

Finally, due to the work of our communications committee in the Oireachtas—the Irish parliament—the Irish government is now going to introduce a digital safety commissioner who will have legal takedown powers in relation to harmful communication online. Given that Ireland is the international and European headquarters for many social media companies, do you think that this legislation will effectively see Ireland regulating content for Europe and possibly beyond?

Whoever would like to come in first, please comment on that if you could.

(1140)

Mr. Kevin Chan:

Thank you, ma'am. I want to indicate that Neil and I spent some time with our Irish counterparts, and they have nothing but complimentary things to say about you, so it's nice to meet you.

With respect to the question of breaches that you mention, obviously we are not aware of the specifics that would have been sent to the Irish data protection authority, so I wouldn't be able to comment specifically on that, but I would say our general posture is to be as transparent as we can.

You—and various members at this committee—will probably know that we are quite forward-leaning in terms of publicly revealing where there have been bugs, where there has been some information we have found where we need to pursue investigations, where we're made aware of certain things. That's our commitment to you but also to users around the world, and I think you will continue to hear about these things as we discover them. That is an important posture for us to take, because we do want to do what is right, which is to inform our users but also to inform the public and legislators as much as possible whenever we are made aware of some of these instances.

We want to be very transparent, which is why you will hear more from us. Again, unfortunately, I cannot speak to the specifics that the DPA was referring to.

Ms. Hildegarde Naughton:

Google, can I have your comments, please?

Mr. Colin McKay:

As we outlined in our opening remarks, we look for international standards that are applicable across a variety of social, cultural and economic frameworks. We look for principle-driven frameworks, particularly in data protection. That has been the history with GDPR as well as the previous OECD principles.

The extension of GDPR beyond its current boundaries is something that is preferable. The question is, how does it adapt to the particular jurisdictions within which it has to operate, considering that the European environment and the history of data protection in Europe is very different from elsewhere in the world, especially the portions of the world, whether Africa or Asia, that you identified?

We're in agreement there. We have been applying the protections that are given to Europeans on a global basis. The question is, what does that look like within a domestic jurisdiction?

On your second question around a digital safety commissioner, I'll turn it over to my colleague Derek.

The Chair:

Thank you, Ms. Naughton. We are actually at time, so we have to move on to the next delegate. My apologies. Time is short.

For the next question, we go to the Republic of Germany.

Mr. Jens Zimmermann (Social Democratic Party, Parliament of the Federal Republic of Germany):

Thank you very much.

I will also focus first on Facebook. It's great to get to know the Canadian public policy team. I know the German public policy team.

First, I would like to comment on what my colleague from Singapore asked. From my experience in Germany, I have a relatively simple answer. It is simply that many companies, also present today, do not have enough staff to work on all these issues and all these complaints. As has already been mentioned, AI is not always sufficient to work on this. What we've learned in Germany, after the introduction of the NetzDG, is that a massive increase in staff, which is needed to handle complaints, also increases the number of complaints that are handled. I don't know the situation in other countries, but this is definitely an important aspect.

I want to ask about the antitrust ruling in Germany on the question of whether the data from Facebook, WhatsApp and Instagram should be combined without the consent of the users. You are working against that ruling in Germany, so obviously you don't agree, but maybe you can be a bit clearer on your position.

(1145)

Mr. Kevin Chan:

Thank you very much, sir. I understand from one of my colleagues in Canada that she spent some time with you yesterday at a round table. Thank you very much for the invitation.

With respect to the various platforms, our terms of service and our user data policy does underline the fact that we will share data infrastructure between various services, as you know. A big part of it, to be quite frank, is to ensure that we are able to provide some degree of security measures across platforms.

Facebook is a platform where you have your authentic identity. We want to make sure people are who they say they are, but there are lots of good reasons why you will want to have similar kinds of measures on the Instagram platform, for example. There are many instances where—and you would have heard of these in terms of even some of our coordinated inauthentic behaviour takedowns—to be able to do adequate investigations across the system, we actually have to have some ability to understand the provenance of certain content and certain accounts. Having a common infrastructure allows us to very effectively deal with those sorts of challenges.

Mr. Jens Zimmermann:

Yes, and it allows you to very effectively aggregate the data, increase the knowledge of the user and also increase the profit. Isn't that the reason behind it?

It would be possible to, again, give all the users the ability to decide on that. That would be very easy, but I think it would also be very costly for you.

Mr. Kevin Chan:

I think, sir, what you're touching on in terms of the broader arc of where we're going is correct. We do want to give people more control. We want people to be able to—

Mr. Jens Zimmermann:

Okay, but why then are you working against that ruling in Germany?

Mr. Kevin Chan:

I think the nub of this is again the question that Mr. Erskine-Smith raised: Where do the limits of competition policy start and end versus the limits of privacy?

Mr. Jens Zimmermann:

Okay. Thank you.

I also want to go to Google. You mentioned that you need clear definitions of unlawful speech. I looked into Germany's transparency report and it turns out that of 167,000 complaints in Germany, it was only in 145 cases that your colleagues needed to turn to specialists to determine whether or not this was unlawful speech. Why, then, do you think this is really a problem? Is it really a problem of definition or is it really a problem of handling the number of complaints and the massive amount of hate speech online?

Mr. Derek Slater:

That's a very important question. The NetzDG is a complex law, but one of the pieces that is relevant here is that it calls out, I believe, 22 specific statutes that it governs.

Mr. Jens Zimmermann:

Actually, the NetzDG basically says that in Germany, you need to comply with German law—full stop.

Mr. Derek Slater:

I understand that, and it says, with respect to these 22 statutes, “Here is your turnaround time and your transparency reporting requirements, leading to the data you had.” I think part of what is important there is that it refers specifically to clear statutory definitions. These definitions allow us to then act on clear notices in an expeditious manner as set within the framework of the law.

(1150)

The Chair:

Next we will go to the Republic of Estonia.

Go ahead, for five minutes.

Ms. Keit Pentus-Rosimannus (Vice-Chairwoman, Reform Party, Parliament of the Republic of Estonia (Riigikogu)):

Thank you.

I come from Europe, from Estonia. It is true that, two days after the European election, one can say that you actually have made progress in removing the fake accounts, but it is also true that those fake accounts should not have been there in the first place.

My first question is the following: What kinds of changes are you planning to use to identify your users in the beginning?

Mr. Kevin Chan:

Thank you for that. I think we are cautiously pleased with the results in terms of the way the platform has performed in Europe. However, with respect to fake accounts, I would say—and I think my colleague Neil has mentioned—that this is a bit of an arms race with our adversaries, with bad actors trying to put inauthentic accounts and content onto the platform.

I think we want to constantly get better and to constantly evolve—

Ms. Keit Pentus-Rosimannus:

How do you improve the identification process in the first place?

Mr. Kevin Chan:

One of the things I can share with you, again in terms of the political advertising piece that we are trying to do, is that we are trying to get a very good certainty as to the identity of the individuals when they run an ad.

In Canada, as I mentioned earlier, we will do this and it will be not without pain. For political advertisers in Canada, it's very much that we will need to get some kind of ID from you. We will need to independently verify that ID, and then we're going to send you some kind of key—a digital key if you will—that you're going to have to use to authenticate yourself before you can even run a political ad.

This is a very costly and significant investment. It is also not without friction. I personally worry that there will be instances where people want to run an ad, don't know about this requirement and then find it's going to take many days to do.

I also worry that there may be false positives, but I think this is the right thing to do to protect elections around the world and here in Canada in October. We're prepared to put in the time, the investment and potentially some of the friction to get it right.

Ms. Keit Pentus-Rosimannus:

All right. Thank you.

My second question will be about fake news or fake videos. What is your policy towards fake news, for example, deepfake? Will they be removed or will they just be marked as deepfake videos?

Mr. Derek Slater:

The issue of deepfakes.... Thanks for that question. It's a really important emerging issue. We have clear guidelines today about what content should be removed. If a deepfake were to fall under those guidelines, we would certainly remove it.

We also understand this needs further research. We've been working actively with civil society and academics on that.

Ms. Keit Pentus-Rosimannus:

What about Facebook?

Mr. Neil Potts:

Thank you.

We are also investigating and doing research on this policy, to make sure we are in the right place. Currently, we would identify it as being fake and then inform our users, but we constantly—

Ms. Keit Pentus-Rosimannus:

The deepfake will stay on.

Mr. Neil Potts:

We constantly iterate our policies, and we may update those policies in the future, as they evolve. We are working with research agencies and people on the ground to understand how these videos could manifest. As I mentioned before, if these videos, or any type of misinformation, led to real world harm—or off-line harm, I should say—we would remove that content.

Ms. Keit Pentus-Rosimannus:

What about Twitter?

Mr. Carlos Monje:

We also share concerns about deepfakes. If we see the use of deepfakes to spread misinformation in a way that violates our rules, we'll take down that content.

Ms. Keit Pentus-Rosimannus:

My last question will come back to what Mr. Collins asked in the beginning, about the fake video of Nancy Pelosi. Let's say a similar video were to appear, only the person there was Mr. Zuckerberg. Would that video be taken down, or just marked as a fake one?

Voices: Oh, oh!

Mr. Neil Potts:

I'm sorry, the laughter.... I didn't hear the name?

Ms. Keit Pentus-Rosimannus:

Sorry for the loud laughter. If a video similar to what has been airing, picturing Nancy Pelosi, appeared with Mark Zuckerberg, would you remove that fake video, or would you just mark it as fake news?

Mr. Neil Potts:

If it was the same video, inserting Mr. Zuckerberg for Speaker Pelosi, it would get the same treatment.

The Chair:

Thank you.

I want to give a brief explanation of what's going on behind me. Your chairs have elected to have a working lunch. Feel free to come up and grab something to eat, and we'll continue with testimony all the way through our lunch.

Next up, we have Mexico. Go ahead for five minutes.

(1155)

Hon. Antares Guadalupe Vázquez Alatorre (Senator):

[Delegate spoke in Spanish, interpreted as follows:]

Thank you. I'm going to speak in Spanish.

I have several questions. In the case of Google, what do you do to protect people's privacy? I know many cases of sexting videos that are still there in the world, and when the victims of those videos go specifically to your office in Mexico—and I have known about several cases—the Google office tells them to go to the United States to complain. These are videos that are violently attacking somebody and cannot be downloaded. What do you do in those cases?

Mr. Derek Slater:

I'm not familiar with the particular cases you're talking about, but we do have strict guidelines about things like incitement to violence, or invasion of privacy and the like. If notified, and if we become aware of it, we would take action, if it's in violation of those guidelines. I'm not familiar with the specific cases, but would be happy to inquire further.

Hon. Antares Guadalupe Vázquez Alatorre:

[Delegate spoke in Spanish, interpreted as follows:]

I have information about very specific cases, but we don't know who to turn to in Mexico because they reject people. We hope you will take over this case, because the people have to wait for years to withdraw those things.

I'd like to ask Twitter about the creation of trends with robots. It's very common in Mexico. Every day, we have trends created with robots—the so-called bot farms. I don't know what the policy is at Twitter, because you seem to allow the artificial trends, or hashtags, when they are harming somebody. Why don't you allow trends to happen organically? I agree with having trends, things becoming viral and respecting freedom of expression, but why are robots allowed? If anybody can detect them, why is it Twitter cannot?

Mr. Carlos Monje:

Trends measure the conversation in real time and try to distinguish conversations that are always having a high level of engagement, English Premier League or the Mexican election writ large. What trends are trying to identify is acceleration above the normal. When that happens organically, like you mentioned, it has a different pattern from when it happens augmented by bots.

Since 2014, which for us is a lifetime, we've had the ability to protect trends from that kind of inorganic automated activity. Kevin mentioned an arms race. I think that's a good term for the battle against malicious automation. Right now we're challenging 450 million accounts a year for being inauthentic, and our tools are very subtle, very creative. They look at signals like instant retweets or activity that's so fast that it's impossible to be human.

Despite that, 75% is what ultimately gets kicked off the service, so 25% of the people who we thought were acting in an inauthentic way were able to pass the challenge. We are over-indexing to try to stop this inauthentic activity. This is a place where there is no delta between the societal values of trusting online activity and our imperatives as a company, which is that we want people when they come to Twitter to believe in what they see, to know that they are not getting messed about with Russian bots or whatever, so we work very hard to get this right and we're continuing to make improvements on a weekly basis.

Hon. Antares Guadalupe Vázquez Alatorre:

[Delegate spoke in Spanish, interpreted as follows:] But this happens normally every day, not during elections. It's happening every time that a trend is inflated with bots. There's been no adequate response to this. There are things that are aggressive.

This is for Twitter and for Facebook. When a user reports something that has been published, very commonly they report that they are not breaching their policy but they are aggressive against the person. They tell us that it's not breaching the policy, but it's somebody who is lying, who is attacking, and the person feels vulnerable. Many a time nothing happens because it's not breaching your policies.

Also, with this thing about the authentication, when the accounts are authenticated with blue arrows, even the other accounts can be blocked. Some people say identify yourself and they block all the accounts. Meanwhile, there are thousands of fake accounts and nothing happens, even if they are reported. There are users who are constantly reporting these fake accounts. Why do you have a different policy?

(1200)

The Chair:

Give a short answer, please.

Mr. Carlos Monje:

We are working to adjust our policies. We have things that are against our rules and we have things that aren't against our rules but that people don't like. We call it, internally, the gap. What we've been doing and what our teams have been doing is trying to break those issues down, portion by portion, and understand where the expectations of our users don't match the experience they're getting.

Our approach is, again, very consistent. We want people to feel comfortable, to feel safe to come online. We also don't want to squelch public expression, and these are issues that we care about deeply and take very personally.

The Chair:

Thank you.

Next up, we'll go to the Kingdom of Morocco for five minutes. [Translation]

Mr. Mohammed Ouzzine (Deputy Speaker, Committee of Education and Culture and Communication, House of Representatives of the Kingdom of Morocco):

Thank you, Mr. Chair.

I would also like to thank the kind team doing us the honour of being here today: Kevin Chan, Derek Slater, Neil Potts, Carlos Moje and Michele Austin. We would have liked Mark Zuckerberg to be with us, but he let us down. We hope he will return some other time.

I have been very attentive to two proposals from Mr. Chan. I would like to make a linguistic clarification for interpreters: when I use the word “proposition”, in English, it refers to the term “proposition”, and not “proposal”.

In presenting the issues raised by his company, Mr. Chan said that it was not just Facebook's responsibility to resolve them. We fully agree on this point.

And then, again on these issues, he added that society must be protected from the consequences. Of course, these platforms have social advantages. However, today we are talking about the social unrest they cause; this is what challenges us more than ever.

Facebook, Twitter and YouTube were initially intended to be a digital evolution, but it has turned into a digital revolution. Indeed, it has led to a revolution in systems, a revolution against systems, a revolution in behaviour, and even a revolution in our perception of the world.

It is true that today, artificial intelligence depends on the massive accumulation of personal data. However, this accumulation puts other fundamental rights at risk, as it is based on data that can be distorted.

Beyond the commercial and profit aspect, wouldn't it be opportune for you today to try a moral leap, or even a moral revolution? After allowing this dazzling success, why not now focus much more on people than on the algorithm, provided that you impose strict restrictions beforehand, in order to promote accountability and transparency?

We sometimes wonders if you are as interested when misinformation or hate speech occurs in countries other than China or in places other than Europe or North America, among others.

It isn't always easy to explain why young people, or even children, can upload staged videos that contain obscene scenes, insulting comments or swear words. We find this unacceptable. Sometimes, this is found to deviate from the purpose of these tools, the common rule and the accepted social norm.

We aren't here to judge you or to conduct your trial, but much more to implore you to take our remarks into consideration.

Thank you.

(1205)

Mr. Kevin Chan:

Thank you very much, Mr. Ouzzine.

Again, please allow me to answer in English. It isn't because I can't answer your question in French, but I think I'll be clearer in English.[English]

I'm happy to take the first question with respect to what you were talking about—humans versus machines or humans versus algorithms. I think the honest truth on that is that we need both, because we have a huge amount of scale, obviously. There are over two billion people on the platform, so in order to get at some of the concerns that members here have raised, we do need to have automated systems that can proactively find some of these things.

I think to go back to Mr. Collins's first question, it is also equally important that we have humans that are part of this, because context is ultimately going to help inform whether or not this is malicious, so context is super important.

If I may say so, sir, on the human questions, I do think you are hitting on something very important, and I had mentioned it a bit earlier. There is this need, I think, for companies such as Facebook not to make all of these kinds of decisions. We understand that. I think people want more transparency and they want to have a degree of understanding as to why decisions were arrived at in the way they were in terms of what stays up and what goes down.

I can tell you that in the last few months, including in Canada, we have embarked on global consultation with experts around the world to get input on how to create an external appeals board at Facebook, which would be independent of Facebook and would make decisions on these very difficult content questions. We think there is—at least as our current thinking in terms of what we put out there—this question of whether they should be publicly binding on Facebook. That is sort of the way we have imagined it and we are receiving input and we will continue to consult with experts. Our commitment is to get this done by 2019.

Certainly, on our platform, we understand that this is challenging. We want a combination of humans and algorithms, if you will, but we also understand that people will have better confidence in the decisions if there is a final board of appeal, and we're going to build that by 2019.

Of course, we're all here today to discuss the broader question of regulatory frameworks that should apply to all services online. There, once again obviously, the human piece of it will be incredibly important. So thank you, sir, for raising that, because that's the nub, I think, of what we're trying to get at—the right balance and the right framework per platform but also across all services online.

The Chair:

Thank you, Mr. Chan.

Next up, we will go to Ecuador for five minutes.

Ms. Elizabeth Cabezas (President, National Assembly of the Republic of Ecuador):

[Delegate spoke in Spanish, interpreted as follows:]

Thank you very much.

I want to talk about some of the concerns that have already been mentioned at this meeting, and also express great concern regarding tweets and Twitter, on which there is a proliferation in the creation of false accounts that are not detected. They definitely remain active for a very long time on social networks and generate, in most cases, messages and trends that are negative and against different groups, both political and those that are linked to businesses or unions in many different areas.

I don't know what mechanisms you have decided to choose to verify the creation of these, because these are accounts that have to do with troll centres or troll farms, which in the case of Ecuador have really cropped up very frequently and which continue to. They have been spreading messages on a massive scale, malicious messages that counteract real information and true information and really twist the points of view.

More than continuing to mention the issues that have already been mentioned, I would urge you to think about fact-checking mechanisms that can detect these accounts in a timely manner, because definitely you do not do it quickly enough or as quickly as is necessary. This allows damaging messages to proliferate and generate different thoughts, and they distort the truth about a lot of subjects.

I don't know what the options are, in practice, or what you're going to be doing in practice to avoid this or prevent this, and to prevent the existence of these troll centres and the creation of accounts that are false, of which there are many.

(1210)

Mr. Carlos Monje:

Thank you. That is exactly the right question to ask, and one that we work on every day.

I'll just note that our ability to identify, disrupt and stop malicious automation improves every day. We are now catching—I misspoke earlier—425 million accounts, which we challenged in 2018.

Number one is stopping the coordinated bad activity that we see on the platform. Number two is working to raise credible voices—journalists, politicians, experts and civil society. Across Latin America we work with civil society, especially in the context of elections, to understand when major events are happening, to be able to focus our enforcement efforts on those events, and to be able to give people more context about people they don't understand.

I'll give you one example because I know time is short. If you go onto Twitter now, you can see the source of the tweet, meaning, whether it is coming from an iPhone, an Android device, or from TweetDeck or Hootsuite, or the other ways that people coordinate their Twitter activities.

The last piece of information or the way to think about this is transparency. We believe our approach is to quietly do our work to keep the health of the platform strong. When we find particularly state-sponsored information operations, we capture that information and put it out into the public domain. We have an extremely transparent public API that anybody can reach. We learn and get better because of the work that researchers have undertaken and that governments have undertaken to delve into that dataset.

It is an incredibly challenging issue, I think. One of the things you mentioned is that it's easy for us to identify instantaneous retweets and things that are automated like that. It is harder to understand when people are paid to tweet, or what we saw in the Venezuelan context with troll prompts, those kinds of things.

We will continue to invest in research and invest in our trolling to get better.

The Chair:

We'll move on to the last on our list and then we'll start the sequence all over again.

To Saint Lucia, please go ahead for five minutes.

Mr. Andy Daniel (Speaker, House of Assembly of Saint Lucia):

Thank you, Mr. Co-chair.

My questions are to Neil Potts, Global Policy Director. I have two questions.

The first one is that I would like to understand and to know from him and from Facebook, generally, whether or not they understand the principle of “equal arms of government”. It would appear, based on what he said earlier in his opening remarks, that he is prepared and he is willing to speak to us here, and Mr. Zuckerberg will speak to the governments. It shows a.... I do not understand...not realizing the very significant role that we play as parliamentarians in this situation.

My next question is with reference to Speaker Nancy Pelosi's video, as well as to statements made by him with reference to Sri Lanka. He said that the videos would only be taken down if there were physical violence.

Let me just make a statement here. The Prime Minister of Saint Lucia's Facebook accounts have been, whether you want to say “hacked” or “replicated”, and he is now struggling out there to try to inform persons that this is a fake video or a fake account. Why should this be? If it is highlighted as fake, it is fake and it should not be....

Let me read something out of the fake...and here is what it is saying, referring to a grant. I quote: It's a United Nation grant money for those who need assistance with paying for bills, starting a new project, building homes, school sponsorship, starting a new business and completing an existing ones. the United nation democratic funds and human service are helping the youth, old, retired and also the disable in the society....

When you put a statement out there like this, this is violence against a certain vulnerable section of our society. It must be taken down. You can't wait until there is physical violence. It's not only physical violence that's violence. If that is the case, then there is no need for abuse when it is gender relations, or otherwise. Violence is violence, whether it is mental or physical.

That is my question to you, sir. Shouldn't these videos, these pages, be taken down right away once it is flagged as fake?

(1215)

Mr. Neil Potts:

If it is the case that someone is misrepresenting a member of government, we would remove that if it is flagged. I will follow up with you after this hearing and make sure that we have that information and get it back to the team so that we can act swiftly.

Maybe perhaps to address a few of the other conversations here, there's been this kind of running theme that Mr. Zuckerberg and Ms. Sandberg are not here because they are eschewing their duty in some way. They have mandated and authorized Mr. Chan and me to appear before this committee to work with you all. We want to do that in a very co-operative way. They understand their responsibility. They understand the idea of coequal branches of government, whether that's the legislative branch, the executive branch or the judicial branch. They understand those concepts and they are willing to work. We happen to be here now to work on—

The Chair:

With respect, Mr. Potts, I'm going to step in here.

With respect, it is not your decision to select whether you're going to come or not. The committee has asked Mr. Zuckerberg and Ms. Sandberg to come, plain and simple, to appear before our international grand committee. We represent 400 million people, so when we ask those two individuals to come, that's exactly what we expect. It shows a little bit of distain from Mark Zuckerberg and Ms. Sandberg to simply choose not to come. It just shows there's a lack of an understanding about what we do, as legislators, as the member from Saint Lucia mentioned. The term “blowing us off”, I think, can be brought up again, but it needs to be stated that they were invited to appear and they were expected to appear and they're choosing not to. To use you two individuals in their stead is simply not acceptable.

I'll go back to Mr. Daniel from Saint Lucia.

Mr. Neil Potts:

Thank you, Mr. Zimmer. I want to be clear. I'm not familiar with the procedures of Canadian Parliament and what requires appearance. I respect that, but I do want to get on record that they are committed to working with government, as well as being responsible toward these issues.

Additionally—

The Chair:

I would argue, Mr. Potts, if that were the case, they would be seated in those two chairs right there.

Continue on.

Mr. Neil Potts:

Additionally, just to address another question that I think is permeating, about how we go about removing content and identifying it, we do remove content for a number of various abuse types. It's not just violence. In that specific case, where we're talking about misinformation, the appearance of some of these tropes that appeared in Sri Lanka and other countries, we removed that on the cause that it would lead to violence. But we have policies that cover things like hate speech, where violence may not be imminent. We have things like personal identifiable information, bullying, which we take very seriously, that may not lead directly to violence but we do enforce those policies directly and we try to enforce them as swiftly as possible.

We now have 30,000 people globally working on these issues. There was a comment earlier about having people with the right amount of context to really weigh in. For all the countries that are represented here, I just want to say that, within that 30,000 people, we have 15,000 content moderators who speak more than 50 languages. They work 24 hours a day, seven days a week. Some of them are located in countries that are here before us today. We take that very seriously.

Additionally, we do have a commitment to working with our partners—government, civil society and academics—so that we are arriving at the answers that we think are correct on these issues. I think we all recognize that these are very complex issues to get right. Everyone here, I think, shares the idea of ensuring the safety of our community, all of whom are your constituents. I think we share those same goals. It's just making sure that we are transparent in our discussion and that we come to a place where we can agree on the best steps forward. Thank you.

The Chair:

Thank you.

It was just brought to my attention, too, the inconsistency in your testimony, Mr. Potts.

On one hand, Mr. Collins had asked you about the Pelosi video, which you're not going to pull down. Then within 30 minutes or within an hour you just answered the member from Saint Lucia that it would come down immediately. I just would like you to be completely aware that it's expected that you completely tell the truth to this committee at this time and not to be inconsistent in your testimony.

(1220)

Mr. Neil Potts:

Mr. Zimmer, if I was inconsistent, I apologize, but I don't believe that I answered the question differently. If I had a transcript, obviously I would flag where my discrepancy was and correct it immediately.

Again, on misinformation that is not leading to immediate harm, we take an approach to reduce that information, inform users that it is perhaps false, as well as remove inauthentic accounts. If someone is being inauthentic, representing that they are someone else, we would remove that. Authenticity is core to our principles, authentic individuals on our platform. That's why we require real names.

The question that I believe Mr. Collins was asking was about the video, the video itself. It's not that the user was inauthentic in his sharing of the video. The user is a real person or there's a real person behind the page. It's not a troll account or a bot or something like that. We would remove that.

If I misspoke, I apologize, but I want to be clear that I don't think my—

The Chair:

I don't think it's any clearer to any of us in the room, but I'll move on to the next person.

We'll go to Mr. Baylis, for five minutes.

Mr. Frank Baylis (Pierrefonds—Dollard, Lib.):

Thank you. I'll start off with Mr. Slater.

A couple of weeks ago, we had another one of your gentlemen in, telling us that Google would not comply with Bill C-76, our new election campaign law. I asked, “Why not?” He said, “Well, we can't get the programming done in six months' time.”

I pointed out that Facebook can, and he said, “Well, our systems are more difficult and it's more complicated.”

He said, “We can't do it in six months”, so I asked him, “Okay, how much time do you need? When can you get it done?” He said he didn't know.

Can you explain that?

Mr. Derek Slater:

They've given you extensive information on this front, but just to add a bit, yes, we are a different service, and while we knew regrettably that we would not be in a position to offer election advertising in this time, we would look to it in the future.

Mr. Frank Baylis:

If you can say you can't do it in six months' time but you don't know how long it will take, how do you know you can't do it in six months, when Facebook can do it in six months?

Mr. Derek Slater:

We are very different services with different features of various types.

Mr. Frank Baylis:

How do you not know how long it will take?

Mr. Derek Slater:

In part, it's because things continue to change over time. It's a rapidly evolving space, both legally and in terms of our services. Therefore, in terms of exactly when it will be ready, we wouldn't want to put—

Mr. Frank Baylis:

You know you can't do it in six months.

Mr. Derek Slater:

Yes.

Mr. Frank Baylis:

However, you don't know how long it would take.

Mr. Derek Slater:

Correct.

Mr. Frank Baylis:

I was worried about that, so I asked, “What happens, then, if someone puts up an ad that they're not allowed to?” He said not to worry about that, and do you know why? He said they'll find it instantaneously; they can pick it off.

I asked, “How do you do that?” and he said they have this artificial intelligence and they have a team of people.

Now it says you can find the ad instantaneously, but our law says once you have the ad, you have to put it up. You have 24 hours to put it in a database. That, you can't do.

Can you explain that to me? How is it possible that you have all this technology, you can identify any ad from any platform instantaneously, but you can't have your programmers put it up in 24 hours on a database, and it will take more than six months to do so?

Mr. Derek Slater:

If I understand the question correctly, it is simpler to take a more conservative approach, an approach that is more broadly restrictive than one that says, yes, we're going to validate that this is an election ad operating under the law, and so on and so forth.

Mr. Frank Baylis:

You're already making a decision. You're validating it because you're blocking it. He told me that. You're doing that.

Mr. Derek Slater:

Yes, we may be blocking it for a variety of reasons if it violates our policies.

Mr. Frank Baylis:

No, not your policies; he said “political ads”. My question was very specific.

You can stop it, but you can't put it on a database. I want to understand the difference.

Mr. Derek Slater:

There is a big difference between saying we're going to take, in general, a conservative approach here and saying, on the other hand, “I'm going to say clearly this is a legitimate election ad”, taking that further step.

Mr. Frank Baylis:

Once you see that it's an ad, you're not letting it go up. You're blocking it. You can instantaneously decide it's an ad, but once you've decided it's an ad, it's too much work to program it to put it in a database. That's what our law asks: Just put it in a database.

You're saying, “That, we can't do.”

Mr. Derek Slater:

The needs of implementing the law in the specific way it was written were prohibitive for us in this period of time to get it right, and if we're going to have election ads in the country, we absolutely need to and want to get it right.

That was the decision we had to make here, regrettably, but we look forward to working on it in the future.

Mr. Frank Baylis:

You could decide that you couldn't do it in six months' time, even though someone else could do it, and you decided you can instantaneously capture any ad from anywhere at any time, but you don't have the technological capability at Google to put it in a database within 24 hours. You just don't have that capability to program that in six months.

Mr. Derek Slater:

We do not have the capability at this time to comply in fullness with that law.

(1225)

Mr. Frank Baylis:

You don't have the capability. Are you serious when you say that?

Are you serious when you say that you can identify any ad from any platform anywhere, but you can't get your programmers to put it in a database? It will take too long for you to program moving it from being identified to just putting it in a database.

Mr. Derek Slater:

I can't speak to everybody's services everywhere. To be clear, we use machines and people to monitor ads that are submitted through our systems to make sure they are in compliance with our rules.

In terms of the additional obligations, no, we were not able to meet them in this case.

Mr. Frank Baylis:

Okay. I have another question for Google and Facebook, a simple question.

I don't like your terms of use. What can I do about it?

Mr. Kevin Chan:

Sir, if you could explain to me, perhaps give me a bit more colour about what you don't like about it....

Mr. Frank Baylis:

I don't like being spied on.

Mr. Kevin Chan:

Oh, well, we don't do that, sir.

Mr. Frank Baylis:

You collect data on me that I don't want you to collect.

Mr. Kevin Chan:

As you know, I do spend a lot of time on digital literacy space. What is appropriate is for people to not put as much as they do not wish to put on the service.

Sir, if I may, to get to a different point on this, we are, as you know I think, going to be releasing a very different type of product experience in the next little while, where you're going to be able to remove not only information we have that you've put onto the service, but you're going to be able to remove also information that would have been on the service because of integrations with other services across the Internet. We are going to give you that functionality, so again, to the extent that is not desirable for you, we do want to give you that control.

The Chair:

Thank you, Mr. Baylis. Unfortunately, we have to move on.

Next up for five minutes is Mr. Kent.

Hon. Peter Kent:

Thank you, Chair.

This is a question for Mr. Chan.

If a Canadian employer came to Facebook and wanted to place an employment ad microtargeting by age and sex and excluding other demographic groups, would Facebook accept that ad?

Mr. Kevin Chan:

Sir, thank you for the question. Again, I want to also thank you for extending an invitation to us to be part of your recent round table in Oshawa. It was greatly appreciated.

That would be a violation of our policies, so it would not be accepted.

We have a couple of things and I think I understand what you're getting at—

Hon. Peter Kent:

If I can, because time is short.... Would it shock you to learn that we in the official opposition of Parliament have received an answer to an Order Paper question today that says that several Government of Canada departments have placed ads with exactly those microtargeted conditions and that your company is named a number of times.

Mr. Kevin Chan:

Sir, that is, as you know, through the incredibly thorough reporting of Elizabeth Thompson from the CBC, also out in the public domain, because I read it there first.

You should know that this is a violation of our policy, sir. We have actually moved quite aggressively in the last little while to remove a whole bunch of different targeting abilities for these types of ads. We have also—for housing, employment and credit ads, to be clear—required all advertisers on a go-forward basis to certify that they are not running housing and credit and employment ads.

Hon. Peter Kent:

Have you informed the Government of Canada that this sort of microtargeting practice by the Liberal Government of Canada will no longer be accepted? Just give a yes or no.

Mr. Kevin Chan:

We have sent out emails to all admins telling them that they cannot do this.

Hon. Peter Kent:

Coming back to Mr. Collins' original question about the manipulated, sexist, politically hostile video that has been allowed to stay on your Facebook platform, I understand that after The Washington Post contacted Facebook, a statement was issued saying, “We don't have a policy...that the info you post on Facebook must be true”.

From your earlier answers, it would seem that Facebook is refusing to remove this politically hostile video, claiming a sort of perverted defence claim of free speech, and that in the 24 hours after The Washington Post made that notification to you, they report that there was a viewership, on a single Facebook page, of more than 2.5 million views and that it was multiplied many times on other Facebook pages.

If that were to happen in the Canadian election—a similar video of a Canadian politician, perhaps the leader of one or another of the parties were to be posted and manipulated in the same way to give the impression of mental incapacity or intoxication—would Facebook remove that video, or would you do what you maintained in your answers to Mr. Collins, simply say that it's not true, despite those who would continue to exploit the falseness of the video?

(1230)

Mr. Kevin Chan:

Sir, just leaving aside the specific video in question that is originating from the United States, we have been at this and I have been at this personally for the last two-plus years, trying to find ways to better secure the platform for the upcoming election.

I can tell you that when we receive requests from various sectors and people and parties, 99% of the time when we find something that has been reported to us, we actually go beyond what the content is. We're not looking for the content. We're looking for the behaviour.

Hon. Peter Kent:

But would you take it down?

Mr. Kevin Chan:

If it originates from a fake account or if it's deemed to be spam, or if it is a violation otherwise of a community's standards, absolutely we would.

I can assure you that in almost every instance that I—

Hon. Peter Kent:

But it is false. It's not the truth. Does Facebook still defend the concept that it doesn't have to be truthful to be on your platform?

Mr. Kevin Chan:

Sir, I understand what you're getting at. I think that, if you'll permit me, the way I would like to maybe talk about it a bit is—

Hon. Peter Kent:

Yes or no would work.

Mr. Kevin Chan:

That's why we're here. We would welcome basic—

Hon. Peter Kent:

So is this a learning experience for you?

Voices: Oh, oh!

Mr. Kevin Chan:

Mr. Kent....

Hon. Peter Kent:

I ask that with respect and civility.

Mr. Kevin Chan:

We would welcome basic standards that lawmakers can impose on the platform about what should go up and what should come down. If lawmakers, in their wisdom, want to draw the line somewhere north or south of censorship, we would, obviously, oblige the local law.

Hon. Peter Kent:

Perhaps I will close by commenting.

Chris Hughes, a disillusioned co-founder of Facebook who has become something of a whistle-blower again for some, says that “Facebook isn’t afraid of a few more rules. [Facebook is] afraid of an antitrust case”.

Are you aware that, in democracies around the world, you are coming closer and closer to facing antitrust action?

Mr. Kevin Chan:

I am aware of multiple questions with respect to regulation around the world, yes, sir.

Hon. Peter Kent:

Thank you.

The Chair:

Thank you, Mr. Kent.

Just so that you're aware, I want to remind you all about the sequence of questioning. We're going one question per delegation first, through the countries. You can see how the pattern has been established. Then there are going to be different rounds until all the members have had a chance to ask a question. For example, the next member in the delegation would ask the next question, etc.

Right now we have the second member of the delegation for the U.K., Mr. Lucas. He will be asking the next five-minute question, or maybe Jo Stevens.

Prepare yourself for that. I might look to different countries. If you have a second delegate, he or she will be given the opportunity to ask a question as well.

Go ahead, Ms. Stevens, for five minutes.

Ms. Jo Stevens (Member, Digital, Culture, Media and Sport Committee, United Kingdom House of Commons):

Thank you, Mr. Chair.

Mr. Potts and Mr. Chan, I want to say thank you for coming today, but my colleagues and I from the U.K. Parliament wanted to ask Mark Zuckerberg our questions. He wouldn't come to answer our questions in London at our Parliament, so we have come across the Atlantic to make it easier for him. We can only conclude that he's frightened of scrutiny. For the avoidance of doubt, I am sick to death of sitting through hours of platitudes from Facebook and avoidance tactics with regard to answering questions. I want the boss here to take responsibility, so please take that message back to Mr. Zuckerberg.

I'd like to ask the Google representatives a question.

In any other sector, your company's monopolistic position would have been dismantled by now. What are you doing at the moment to prepare yourselves for that eventuality?

Mr. Colin McKay:

I think we're working very hard to demonstrate to our users and to regulators that we bring value to the marketplace and to our users. They have a clear understanding—whether they're using our maps in signed-in or incognito mode, whether they're using Gmail, or whether they're using our infrastructure services—that there is a value for them and that we're playing a positive role in the marketplace not only by providing value for them in terms of computing services, but also by providing products and services that help businesses grow around the world.

We think regulators have a right and, certainly, a duty to scrutinize our business and to examine it within the framework that they have that's been set up through their local jurisdictions. We will participate in that process and try to explain how we think we're providing that value when we're meeting the obligations of the regulations as they have interpreted them.

(1235)

Ms. Jo Stevens:

However, you're not taking any steps at the moment to prepare yourself for cases.

Mr. Colin McKay:

At the moment, we're focusing on providing services that both fulfill and anticipate the needs of our users.

Mr. Ian Lucas:

Perhaps I could ask about a specific hearing that Facebook gave evidence at in February 2018. When we asked Facebook about Cambridge Analytica in Washington, we were not informed of the data incident involving Cambridge Analytica and Aleksandr Kogan.

Mr. Potts, with regard to transparency, which you raised, why were we not informed about the Cambridge Analytica incident, which we specifically raised on that day?

Mr. Neil Potts:

Thank you, Mr. Lucas.

I'm sorry, but I'm not quite clear on what happened during that hearing. I can try to find out exactly what was presented and what evidence was given, but I, unfortunately, don't recall what was given.

Mr. Ian Lucas:

It's a matter of public record. The reason we want Mark Zuckerberg here is that we want clear evidence from Facebook executives about specific questions that we've asked.

Mr. Chan, can you answer the question for me?

Mr. Kevin Chan:

Sir, I'm afraid that I don't want to speak out of turn, but we're not familiar with the transcript of what happened in, I think you said, February 2018. Certainly we would undertake to find out.

Mr. Ian Lucas:

I can tell you exactly what happened. I could read the position. We raised the issue of Cambridge Analytica, the data incident and the issue related to Cambridge Analytica. We were not told that there had been a data incident involving Aleksandr Kogan, which came out subsequently in the newspapers within two months. You're aware of that incident, I assume.

Mr. Neil Potts:

We are aware of Cambridge Analytica. Again, we don't know, I guess, what attestations were made.

Mr. Ian Lucas:

Did you regard that incident as a serious matter, the Cambridge Analytica incident?

Mr. Neil Potts:

Yes, Mr. Lucas.

Mr. Ian Lucas:

Do you know what steps were taken within Facebook when the Cambridge Analytica incident involving Aleksandr Kogan...? What steps were taken? Do you know?

Mr. Kevin Chan:

If I understand your question, since 2014 we have significantly reduced—

Mr. Ian Lucas:

I asked you a specific question. What steps were taken within Facebook when you became aware of the Cambridge Analytica incident? I'm choosing my words very carefully, more sympathetically than most would. Some people would call this a data breach, but on the incident involving Aleksandr Kogan, what steps were taken by Facebook?

Mr. Kevin Chan:

Specifically with Aleksandr Kogan's app, that app is banned from the platform, sir.

Mr. Ian Lucas:

Who made that decision?

Mr. Kevin Chan:

The company.... I couldn't tell you. If you were looking for a specific individual, I really couldn't tell you, but the company—

Mr. Ian Lucas:

The specific individual I'd like to be asking this question of is Mark Zuckerberg because I want to know if he knew about this incident then. Did he know?

I've asked Mike Schroepfer this question and he told me he'd get back to me. That was last summer. Did Mark Zuckerberg know about that breach in 2015?

Mr. Kevin Chan:

Sir, we are very happy to get you an answer to that. To the extent that you haven't had it, which seems to be what you are saying, we apologize. We obviously want to always co-operate with questioning—

Mr. Ian Lucas:

Can I just stop you there?

You said, Mr. Potts, that the incident was serious. Can you give me an example of a business or an individual who has been taken off the Facebook platform for the type of incident or breach that happened involving Aleksandr Kogan, the sharing of information?

Mr. Neil Potts:

I think that you just named one. Mr. Lucas, I don't work on those issues directly, the privacy issues. Those go through a separate team.

I do want to say that we are committed, as Mr. Chan said, to getting back to you. I've had the pleasure of giving testimony in evidence before a committee recently and—

(1240)

Mr. Ian Lucas:

I'm sorry, Mr. Potts. We want basic honesty, which is a universal value, and you have people from around the world at this table. We all understand honesty. We've got different legal systems—

Mr. Neil Potts:

I fully—

Mr. Ian Lucas:

—and I want straight answers. I've heard from you four times in evidence.

Mr. Neil Potts:

Mr. Lucas, I fully agree with you about honesty and—

The Chair:

I'm sorry Mr. Potts—

Mr. Neil Potts:

—and to impugn somebody's integrity, it is a strong action.

The Chair:

Mr. Potts, the priority is given to members of the committee, and Mr. Lucas has the floor.

Go ahead, Mr. Lucas.

Mr. Ian Lucas:

I have not had a straight answer from your company. You've been sent here by Mr. Zuckerberg to speak on behalf of Facebook. He's had plenty of notice of these questions.

Mr. Kevin Chan:

I'm sorry, sir, let me just.... If I understand correctly, your question was: Are there other apps that have been banned from the platform for inappropriate use or abuse of the platform? The answer is yes.

Mr. Ian Lucas:

For transferring data....

The Chair:

We're at time, so I have to move on to the next questioner, who is Mr. Lawless from Ireland.

Mr. James Lawless (Member, Joint Committee on Communications, Climate Action and Environment, Houses of the Oireachtas):

Mr. Chair, thanks for including us here today. I'm glad to be here.

We've had engagement, obviously, at our Irish committee with the companies and we met Mr. Zuckerberg in Dublin recently.

I have to say that I welcome the engagement of the representatives from the tech companies that are here, but I do find extraordinary some of the statements that have been made, such as the statement made by Mr. Potts a few minutes ago that he wasn't familiar with the parliamentary procedure, and that was maybe to explain some gap in the evidence.

I also find it extraordinary that some of the witnesses are unfamiliar with previous hearings and previous discourse on these matters in all of our parliaments. I would have thought that was a basic prerequisite before you entered the room, if you were qualified to do the job. I caveat my questions with that. It is disappointing. I want to put that on record.

Moving on to the specifics, we've heard a lot of words, some positive words, some words that are quite encouraging if we were to believe them, both today and previously, from the executive down. However, I suppose actions speak louder than words—that's my philosophy. We heard a lot today already about the Cambridge Analytica-Kogan scandal. It's worth, again, putting on record that the Irish data protection commissioner actually identified that in 2014 and put Facebook on notice. However, I understand that it wasn't actually followed up. I think it was some two or three years, certainly, before anything was actually done. All that unfolded since could have been avoided, potentially, had that actually been taken and followed up on at the time.

I'm following that again to just, I suppose, test the mettle of actions rather than words. These first few questions are targeted to Facebook.

We heard Mr. Zuckerberg say in public, and we heard again from witnesses here today, that the GDPR is a potential gold standard, that the GDPR would be a good model data management framework and could potentially be rolled out worldwide. I think that makes a lot of sense. I agree. I was on the committee that implemented that in Irish law, and I can see the benefits.

If that is so, why is it that Facebook repatriated 1.5 billion datasets out of the Irish data servers the night before the GDPR went live? Effectively, we have a situation where a huge tranche of Facebook's data worldwide was housed within the Irish jurisdiction because that's the EU jurisdiction, and on the eve of the enactment of GDPR—when, of course, GDPR would have become applicable—1.5 billion datasets were taken out of that loop and repatriated back to the States. It doesn't seem to be a gesture of good faith.

Perhaps we'll start with that question, and then we'll move on if we have time.

Mr. Kevin Chan:

Thank you very much, sir.

I very much agree with you that actions speak louder than words. I think that, to the degree that we need to demonstrate that, we will be working in the coming months and in the coming years through our actions to demonstrate that we intend to keep our service secure and the privacy of individuals safe, and that we intend to do the right thing.

In terms of what you mentioned with respect to the transfer.... Again—full declaration—I am not a lawyer, but I understand that's consistent with our terms of service.

Mr. James Lawless:

It's consistent, but it's also incredibly convenient that it was on the night before the GDPR became effective.

I'll ask another question in the same vein. My understanding is that Facebook is continuing to appeal a number of decisions. The U.K. information commissioner had a negative finding against Facebook recently, which Facebook is appealing. My colleague, Hildegarde Naughton, has talked about the Irish data protection commissioner's findings.

If you're putting your hands up and saying, “We got some things wrong”, and demonstrating good faith, which I would welcome if that were the case, why are you continuing to appeal many of these decisions?

(1245)

Mr. Kevin Chan:

There are instances.... Because they are subject to court processes, there are limits to what I think we can say today. As you are probably aware, we are trying very hard to arrive at resolutions on other open matters. I think that I would urge you to observe our actions as we can make them public through these processes and make a determination at that time.

Mr. James Lawless:

I just have a very quick question for Google.

I understand that Google's approach has been to not run political advertising at all, certainly in the Canadian context. We saw a similar decision in Ireland during the abortion referendum a year ago. I have concerns about that decision because I think that it allows malevolent actors to take the stage in terms of misinformation that's not targeted. I think that perhaps it's actually more bona fide to have political actors be transparent and run ads in a legitimate, verified context.

I'm just concerned about that, and I hope that's not going to be long term. Maybe that's an interim move.

Mr. Colin McKay:

With the few seconds we have left, I have an observation. Both in Ireland and in Canada, we found ourselves in a position where we were seeing uncertainty in what we could guarantee to the electorate. We wanted to make sure we had a strict framework around how we were serving advertising and recognizing our responsibilities. As my colleague mentioned earlier, a goal of ours moving forward is that we have the tools in place so that, whether it's a question of ambiguity or malevolent actors, there is transparency for users and it's done in a clear and consistent way across all our products.

The Chair:

Thank you, Mr. Lawless.

We'll go into our next round now.

Go ahead, Singapore.

Ms. Sun Xueling (Senior Parliamentary Secretary, Ministry of Home Affairs and Ministry of National Development, Parliament of Singapore):

I would like to come back to the example of Sri Lanka, with Mr. Neil Potts.

Mr. Potts said earlier that he was not aware that the incendiary videos had been sent up to Facebook. I would like to highlight that in an article in The Wall Street Journal, Mr. Hilmy Ahamed, Vice-President of the Muslim Council of Sri Lanka, said that Muslim leaders had flagged Hashim's inflammatory videos to Facebook and YouTube using the services that were built into your reporting system.

Can I just confirm with Mr. Potts that if you were aware of these videos, Facebook would have removed them?

Mr. Neil Potts:

Yes, ma'am. That's correct. If we are aware, we would remove the videos. With this specific case, I don't have the data in front of me to ensure we were put on notice, but if we were aware, these videos would have been removed.

Ms. Sun Xueling:

Thank you.

Similarly, can I then confirm in the same spirit that if Facebook were aware of a video being falsified—and we discussed the case of Nancy Pelosi earlier—Facebook would then carry a clarification that they are aware the video is falsified?

Mr. Neil Potts:

When one of our third party, fact-checking partners.... We have over 50 now who are international, global and that adhere to the Poynter principles. They would rate that as being false. We would then put up the disclaimer. We would also aggressively reduce that type of information and also signal to users who are not only engaging with it but trying to share, or have shared, that it has been rated false.

Ms. Sun Xueling:

Your disclaimer would actually say that you understand that the information contained is false.

Mr. Neil Potts:

It would have a link or a header to the article from one of the fact-checkers that disputes and claims it is false.

Ms. Sun Xueling:

This would be circulated to all who would have seen the original video.

Mr. Neil Potts:

If you are engaging with it currently, you would see it, whether at the bottom in your newsfeed or perhaps on the side if you are on desktop. If you have shared it, you would be informed that there has been an action disputing the validity of the content.

Ms. Sun Xueling:

Mr. Chan, previously you had talked about Facebook putting friction into the system. Can I then confirm with you that Facebook is committed to cutting out foreign interference in political activities and elections, and that you would actively put friction into the system to ensure that such foreign interference is weeded out?

Mr. Kevin Chan:

I suspect you're asking about potential legislation in Singapore. You would be well served to look at the Elections Modernization Act that Canada put in place—

Ms. Sun Xueling:

My question was quite specific. I wanted you to confirm what you said earlier, that you are putting “friction” into the system. You specifically used that term.

Mr. Kevin Chan:

Parliament has given us great guidance and we have decided to put friction into the system. We would recommend that the Canadian model be something that you consider as you develop legislation elsewhere.

(1250)

Ms. Sun Xueling:

Thank you.

The Chair:

We've gone through just about all the delegates. We're going to go back to the U.K. for another kick. You didn't have to share your time, so we're going to give you some more time.

We're going to go to Mr. Erskine-Smith, and I think Mr. Angus has another question. Ms. Stevens...again, and then I think we've completed everybody.

As chair, I'm going to try to give everybody a five-minute turn. Once we have gone through everybody, we have David to follow the sequence. Then we'll look at second questions in second five-minute times, so if you wish to ask another question, please let the chair know, and I'll try to put them in priority.

Next up, we have Mr. Erskine-Smith.

Mr. Nathaniel Erskine-Smith:

Thank you very much.

I just want to pick up where I left off with Google. Would you support a competition framework that includes privacy in the competition commissioner's purview?

Mr. Colin McKay:

We have two regulatory mechanisms in Canada, one for competition and one for data protection. This was highlighted in the government's recent digital charter. They've both been identified for review over the next year and that's a process where I think we can discuss that balance.

Mr. Nathaniel Erskine-Smith:

So Google doesn't have a view right now. Okay.

To Twitter...and I ask this partly because our competition commissioner, unbeknownst to Facebook in particular, on Thursday is engaged in this very conversation. It's not just the German regulator. They're holding a data forum at the National Arts Centre.

Does Twitter have a view of competition policy and privacy?

Mr. Carlos Monje:

Thank you for the question, and thank you also for distinguishing the platforms that are on here. Twitter has a single-digit share of the advertising market. We have 130-odd million daily users. We treasure them all. We work to keep their trust and to keep them engaged, and are closely watching these antitrust and competition—

Mr. Nathaniel Erskine-Smith:

Do you agree that privacy should play a central role in competition law?

Mr. Carlos Monje:

I'd have to examine that a little bit more closely.

Ms. Michele Austin (Head, Government and Public Policy, Twitter Canada, Twitter Inc.):

We would echo the same comments said by Google. We would look forward—

Mr. Nathaniel Erskine-Smith:

So you have no view right now.

Ms. Michele Austin:

—to working on the marketplace framework, which is the basis of competition law.

Mr. Nathaniel Erskine-Smith:

Right. Okay, so none of you have a view on a really important issue of our day.

In terms of algorithmic accountability, the Government of Canada now has algorithmic impact assessments. Have any of your companies conducted algorithmic impact assessments? Facebook for News Feed, Google for the recommendation function on YouTube, and Twitter, have you conducted internal algorithmic impact assessments, yes or no?

Mr. Kevin Chan:

I think broadly, yes. I don't know exactly what you mean, but if you're asking if we have a work stream to understand the implications of algorithms—

Mr. Nathaniel Erskine-Smith:

To understand a risk assessment of positive and negative outcomes of the algorithms that you're currently employing on millions of people....

Mr. Kevin Chan:

Sir, not only do we have a team on it internally. We also have an international working group of experts on algorithmic bias that we convene on a regular basis to discuss these matters.

Mr. Nathaniel Erskine-Smith:

Your company has never had analysts look at the News Feed, and the algorithms that are employed on that News Feed, and said here are the positive and negative outcomes that we should be considering.

Mr. Kevin Chan:

I thought I just answered in the positive.

Mr. Nathaniel Erskine-Smith:

So you have. Okay.

Google, with respect to the YouTube recommendation function...?

Mr. Derek Slater:

Similarly, we're constantly assessing and looking to improve.

Mr. Nathaniel Erskine-Smith:

You have internal documentation that says these are the positive outcomes, these are the negative outcomes, and this is the risk assessment with respect to the algorithms we employ. Is it fair to say you have that?

Mr. Derek Slater:

We constantly do that sort of assessment, yes.

Mr. Nathaniel Erskine-Smith:

Great.

And Twitter, is it the same?

Mr. Carlos Monje:

We are assessing it. I'd also note that Twitter's use of algorithms is substantially different. People can turn it off at any point.

Mr. Nathaniel Erskine-Smith:

Would you provide the internal risk assessments to this committee?

Mr. Derek Slater:

Speaking for ourselves and the YouTube recommendation algorithm, we continue to try to improve the transparency that we have.

Mr. Nathaniel Erskine-Smith:

Would you provide those internal risk assessments? They ought to be public, frankly, as far as I'm concerned, in the same way the Government of Canada has an algorithmic impact assessment and any departmental agency that wants to employ an algorithm has to be transparent about it. None of you billion-dollar companies have to be, and I think you should be.

Would you provide to this committee the algorithmic impact assessments, which you've said you have done, and engage in some transparency?

Mr. Kevin Chan:

I thank you for that. I think we're going to go further than that. We are in the process, as I've mentioned, of providing more transparency on a number of things that you will see on the platform. We have actually introduced in some markets already, as a test, something called WAIST, which is “Why Am I Seeing This?” That gives you a very good sense of how things are being ranked and sorted by News Feed.

Mr. Nathaniel Erskine-Smith:

Because you're going to go further, I assume that it's, yes, you will provide that internal documentation to this committee.

Mr. Kevin Chan:

I think we're going to do better. We're going to speak by our actions, as we talked about earlier, sir.

Mr. Nathaniel Erskine-Smith:

I can't tell if it's a yes or a no.

Google...?

Mr. Derek Slater:

We will continue to communicate on how we're doing.

Mr. Nathaniel Erskine-Smith:

I take that as a no.

Twitter...?

Mr. Carlos Monje:

We believe transparency is key. I think there are a couple of points to consider. One is that each of these algorithms is proprietary. It's important to think about those things.

Mr. Nathaniel Erskine-Smith: I understand, yes.

Mr. Carlos Monje: The other is understandable. We often talk very different languages. Bad actors, and their understanding of how we do our things...and also to judge us on the outcomes and not necessarily the inputs.

(1255)

Mr. Nathaniel Erskine-Smith:

Okay.

I'm running out of time, so I want to talk about liability and the responsibility for content on your platforms. I understand that for very harmful content...and we can talk about the nature of the content itself. If it's very harmful, if it's child porn or terrorism, you will take it down. If it's clearly criminal hate speech, you take it down, because these are harmful just by the nature of the content. There would be liability in Germany, certainly, and we've recommended at this committee that there be liability. If it's obviously hateful content, if it's obviously illegal content, there should be liability on social media platforms if they don't take it down in a timely way. That makes sense to me.

The second question, though, is not about the nature of the content. It's about your active participation in increasing the audience for that content. Where an algorithm is employed by your companies and used to increase views or impressions of that content, do you acknowledge responsibility for the content? I'm looking for a simple yes or no.

Let's go around, starting with Google.

Mr. Derek Slater:

We have a responsibility for what we recommend, yes.

A voice: For sure.

A voice: Yes.

Mr. Carlos Monje:

Yes, we take that responsibility extremely seriously.

Mr. Nathaniel Erskine-Smith:

Thanks very much.

The Chair:

We'll go back to the U.K. delegation for another five-minute slot.

Just so it's clear, Estonia has asked for a second question. Germany, Mexico and members of our committee have as well. There's Singapore, whose hand I've seen just now, Charlie Angus, Damian Collins and then I'll finish.

Mr. Lucas or Ms. Stevens, go ahead.

Mr. Ian Lucas:

To all the platforms, do you have a satisfactory age verification process in place for your platform?

Mr. Monje.

Mr. Carlos Monje:

We do. We implement the GDPR age gating procedures and are trying to figure out ways to do that in a way that protects the privacy of our users. Often you have to collect more information from minors in order to verify they are who they say they are.

Mr. Ian Lucas:

Facebook, do you have a satisfactory age verification process in place?

Mr. Kevin Chan:

I thought Carlos's answer was quite good. That's exactly the tension we're looking at.

Having said that, I understand the spirit of your question. We can always get better. I have to tell you—and I think you've heard it from colleagues of mine who recently appeared in the U.K.—

Mr. Ian Lucas:

You do read transcripts of evidence, then.

Mr. Kevin Chan:

Actually, I didn't. I spent time with a colleague, Karina Newton, whom members may know. She's a lovely lady and she spent some of her time briefing me on how she thought it went. She thought it went really well. There were really deep and piercing questions, sir, with respect to age verification.

Unfortunately, though, the technology is not quite there yet.

Mr. Ian Lucas:

Google...?

Mr. Derek Slater:

Yes, we have requirements in place and broadly agree with what was said.

Mr. Ian Lucas:

You may have requirements in place, but I've actually been able to join Instagram as a 10-year-old, I think, during the course of a committee meeting. It seems to me, from the evidence I've heard and from what I hear from my constituents in the U.K., people are extremely concerned and don't believe there are satisfactory age verification processes in place. Indeed, the evidence I received was that the platforms themselves in the U.K. seemed to be suggesting there weren't satisfactory age verification procedures in place.

Do you disagree with that? Do you think the position is okay? That is basically what most of us have been asking.

Mr. Kevin Chan:

Sir, what I said earlier was that we can always do better. The technology is not where we'd like it to be.

Mr. Ian Lucas:

Okay.

For Facebook, I'm a little confused about the relationship you have with WhatsApp and Instagram, and the transfer of data. If I give information to Facebook, is it freely transferable to Instagram and to WhatsApp?

Mr. Kevin Chan:

As you know—I believe, because Karina mentioned that you had an exchange on this in the U.K.—Facebook and Instagram are governed by one set of terms of service, and WhatsApp is governed by another.

(1300)

Mr. Ian Lucas:

That means information is shared between Instagram and Facebook.

Mr. Kevin Chan:

Correct. As we discussed earlier, it is important for us to be able to leverage infrastructure in order to do a lot of the things we do to try to keep people safe. Karina kind of mentioned this, although she said she didn't know if it was completely clear. Having real world identities on Facebook actually allows us to do some of the things we wouldn't be able to do with Instagram on its own to ensure we're able to get greater certainty on these questions of age, real world identity and so on. Facebook enables us to leverage some of the security systems and apply them to Instagram, because Instagram, as you obviously know, functions quite differently and has a very different set of practices in terms of how people use the service.

Mr. Ian Lucas:

Finally, to all the platforms, if you were legally responsible for the content of your platforms, would you be able to function as businesses?

Mr. Derek Slater:

There are existing legal frameworks with respect to our responsibility for illegal content, which we abide by.

Mr. Ian Lucas:

If it were possible to conduct legal actions against the separate platforms because of information that you circulated, which we knew could cause harm in the future, do you think you would be able to continue to trade or do you think that would put you out of business?

Mr. Carlos Monje:

I'm most familiar with the American context where we do have a degree of immunity. It was under the Communications Decency Act, and it was designed to give us the flexibility to implement our terms of service so that we wouldn't get sued. America is a very litigious society, as you know, and that protection has enabled us to create and maintain a much safer platform than it otherwise would be.

What you've seen across this table and across the world are many different regimes trying different mechanisms to do that. There has been independent research about the implications of that, including places where accusations were that the platforms overcorrect and squelch good speech. In the U.S. we don't often get criticisms from government to take things down because it is a violation of our hate speech or hateful conduct policy, but rather because it is a violation of copyright law, because the copyright rules in the United States are very strict, and we have to take it down within a certain period of time.

Rather than taking somebody who is critical of the government and asking them to take it down because of other terms of service, they go to the strictest regime, and that has a very negative impact on free expression.

The Chair:

Thank you.

We have to move on. I want to highlight what's going to happen in the next 30 minutes. We have two members of the Canadian committee who haven't spoken yet. We're going to give them five minutes each. That gives us, with the people who have asked for second questions, about 20 minutes, approximately three minutes per individual.

Again, we'll go to Mr. Graham first and Mr. Saini, and then we'll go by country.

Go ahead, Mr. Graham.

Mr. David de Burgh Graham (Laurentides—Labelle, Lib.):

Thank you very much.

I want to get straight into this. I'm going to focus on Google and Facebook for a minute.

Do you accept the term “surveillance capitalism”, Google?

Mr. Colin McKay:

I think it's an exaggeration of the situation, but it reflects social pressures and a recognition that there is an increasing worry about the data that's collected about individuals.

Mr. David de Burgh Graham:

Facebook...?

Mr. Kevin Chan:

I cringed, I think, when I read it the first time.

Mr. David de Burgh Graham:

You track individuals on the Internet in any way, shape or form without their knowledge or explicit consent at any time for any reason, and you do so for profit.

Mr. Colin McKay:

We have a pretty clear relationship with our users about what information we collect and what we use it for. We secure consent for the information that we use.

Mr. David de Burgh Graham:

But you don't only track information on users. You track information on anybody on the Internet. If you look at Google Analytics and any of these other services that track anybody passing through another website that has nothing to do with Google, you're collecting vastly more data than what is provided voluntarily by users. My question is, again, are you collecting data on people for profit and, if so, is that not surveillance capitalism?

Mr. Colin McKay:

I think in the broad circumstance you just described around people using the Internet, we're not collecting information about people. We're measuring behaviour and we're measuring.... Sorry, that's the wrong term. I can hear the chuckle.

We're measuring how people act on the Internet and providing data around that, but it's not around an individual. It's around an actor.

(1305)

Mr. David de Burgh Graham:

Or it's around a type of individual, an IP address or this type of information. You are collecting data that can be annexed to people. My point, and I want to take it further than that, is that governments have a tremendous surveillance capacity, as we all know. At least in this country and a lot of other countries around this table, we now have a committee of parliamentarians to oversee our security apparatus, and they go in a classified setting. They dive deeply into the intelligence agencies, what they do, how they do it and why, and they report it back.

If these committees were either created to just focus on social media companies or this committee was applied to it, what surprises would they find?

Mr. Kevin Chan:

Sir, as I've indicated, we want to do more than that by our actions. We're going to make all of that available and then people can...including things that are off platform. If there's a site that uses, let's say, a plug-in or something like that from Facebook, you have available all that information and you can do whatever it is you want with it. You can remove things. You can delete things. You can transfer it. You can download it. That is our commitment and we will be moving fast to get it done.

Mr. David de Burgh Graham:

I appreciate that, but if you go into Facebook and ask it to download your data, the data that it gives you is not a comprehensive collection of what Facebook has on you as a user.

Mr. Kevin Chan:

Right. I think you're referring to when you download your information you get things like the photos and the videos.

Mr. David de Burgh Graham:

You get a handful of your pictures, a handful of your updates and have a nice day.

Mr. Kevin Chan:

That's right. What we want to do is build...and it takes a bit of time. If you can bear with me, it takes a little bit more time to build something that's much more ambitious, which is to then give you actual control over not just the things that you put on Facebook but all the activity that you may have done with social plugs-ins elsewhere, where we can give you the ability to control and remove stuff if you so choose.

Mr. David de Burgh Graham:

If Mark Zuckerberg were to run for president of the United States, for example, what limits his ability to use Facebook's data, machines, algorithms and collection to feed his campaign?

Mr. Kevin Chan:

Sir, if I may, that is a very good question, and that's precisely why we have the policies that we have in place and why we hold so steadfastly to them. It's not...and I think the question kind of came about in a different way. It was, “What if there was a photo of Mark Zuckerberg or a video of Mark Zuckerberg?” The treatment would be the same. That's because these policies have to hold regardless of the direction the wind blows.

As I said before, we understand that people may not be comfortable with the degree of transparency and the degree to which Facebook is able to make these decisions about what happens on our service, which is why we're building this external oversight board, so that these decisions, so that many of these hard precedential decisions, will not be made by Facebook alone. There will be an ability to appeal to an independent body that can make these decisions that would govern the speech on a platform.

Mr. David de Burgh Graham:

I only have seconds, and I want to come back to the independent body in a second.

My point is, if Neil Potts runs for president of the United States and Mark Zuckerberg runs for president of the United States, I suspect that the support from Facebook and the data usage from Facebook would not be the same. On that basis, it would be very hard to say that having Mark Zuckerberg and Neil Potts here is equivalent.

Mr. Kevin Chan:

Again, our policies are for everyone. We would not make any exceptions for anybody, which is in fact why we have these kinds of robust conversations.

Mr. David de Burgh Graham:

Does Mr. Zuckerberg have a—

The Chair:

We're actually out of time. Sorry, Mr. Graham.

We'll go to Mr. Saini for five minutes.

Mr. Raj Saini (Kitchener Centre, Lib.):

Good afternoon.

One of the things we've heard from many experts is that a lot of the issues that have happened with data were when the machine learning really came into force. There was an inflection point. Many experts agree that self-regulation is not viable anymore. Rules have to be in place. The business model just can't regulate itself, and it doesn't align with the public interest.

I have two points. My concern is that right now, we're a mature democracy. A lot of the countries represented around this table are mature democracies. My worry is for nascent democracies that are trying to elevate themselves but don't have the proper structure, regulation, education and efficiency in place, or a free or advanced press. There has been some suggestion that maybe this self-regulation should be internationalized, as with other products. Even though some countries may not have the ability to effectively regulate certain industries, the mature democracies could set a standard worldwide.

Would that be something that would be accepted, either through a WTO mechanism or some other international institution that's maybe set apart? Part of the conversation has been around the GDPR, but the GDPR is only for Europe. There are the American rules, the Canadian rules, the South Asian rules.... If there were one institution that governed everybody, there would be no confusion, wherever the platforms were doing business, because they would accede to one standard worldwide.

(1310)

Mr. Kevin Chan:

You are correct. Where we can have harmonization of standards across the world, that's helpful. We've called for that in multiple realms, including in the privacy realm.

I would say that's actually one of the key challenges. It's a vigorous debate that we have when we talk about the oversight board. In the consultations we've had around the world, including in Canada, the big question that's come up is, “How can you have a global board make decisions that have local impact?” It's come up, and I can say we've had some interesting conversations with the Assembly of First Nations. Obviously they have some unique questions about what the right governing framework is for content online and how we marry the international with the local.

I absolutely agree with you, sir. That's a very good and astute question, and one that we wrestle with.

Mr. Raj Saini:

Google...?

Mr. Colin McKay:

This is a challenge we've recognized since the early days of implementing machine learning in our products, and it's one of the reasons we came out over a year ago with a very clear set of principles around how we will use artificial intelligence in our products.

We certainly underline that there needs to be an active conversation between industry and governments around the world. In the past, this sort of principles-based development of regulation that was led by the OECD around data protection has served us well for developments according to region and in levels of sophistication.

I agree with you that this sort of principles-based global collaboration, especially in concert with the companies that will have to execute on it, will result in a fairer regulatory system that's as broadly applicable as possible, whether in this room or globally.

Mr. Raj Saini:

Thank you for that. Obviously you're going to take in the local effect of any country you work in, but there are some basic principles that I think can be agreed upon worldwide.

My final question is a bit philosophical but also a bit practical. In certain countries in which you operate, you know there are no standards and no regulation. The rule of law is lacking, a free press is lacking and the government structure is not that advanced. The content could be exploited in a much more heinous or worse way in those countries than in other parts of the world.

Is there no moral incumbency on the platforms to make sure that when they go into those jurisdictions they are helping to elevate the governance structure, so that when they're doing business in those countries, it's done in a more equitable manner?

Mr. Colin McKay:

I have a twofold response to that.

First, as my colleague, Mr. Slater, mentioned, we work very hard to make sure the policies and guidelines around all of our products apply to circumstances in those countries as well as what we might describe as more developed or more stable countries.

However, that's also why people like me work at the company. We work on teams that focus on AI and on privacy and data protection. We have those engagements, whether in the country itself or at international organization meetings, so that we can have an ongoing conversation and share information about how we're seeing these policies and technologies develop internationally. We can provide a comparison with how they're seeing that develop within their own jurisdiction.

It's an honest and forthright exchange, recognizing that we're on the forefront of a technology that is having a significant impact on our products and a significant benefit for our users.

Mr. Raj Saini:

Thank you very much.

The Chair:

Thank you, Mr. Saini.

Now, we'll go into the countries again. We're at about two minutes each. If it can be quick that would be great. We have Estonia, Germany, Mexico, Singapore, Ireland and then we have some closing statements from us.

Go ahead, Estonia.

Ms. Keit Pentus-Rosimannus:

Thank you.

It has been pointed out that the disinformation phenomenon is becoming more complex and cross-channel or cross-platforms, meaning that the different phases or different stages of the disinformation campaigns happen often on different channels.

How do you co-operate? How do you see what could be the model for co-operation between the different platforms in order to fight the disinformation problem?

Mr. Derek Slater:

We do our own threat assessments to prevent and anticipate new trends, and then we work collaboratively among the industry, and where appropriate with law enforcement and others, to make sure information and indicators are shared. We actively want to be a participant in that sort of process.

Mr. Carlos Monje:

I'll just say that the companies do work together on these issues and work closely with governments. In Mr. Saini's comments, I was thinking about the role of government and how forward-leaning Estonia has been, under the thumb of Russian disinformation for a long time, in working to improve media literacy and working with the platforms in a way that it makes our jobs easier.

Everyone has a role and the companies do work together to try to address common threats.

(1315)

Mr. Neil Potts:

A good place to perhaps look is the work that we do as the Global Internet Forum to Counter Terrorism. All of our companies are members of that forum, where we have shared responsibilities of information sharing, technological co-operation and then support for research.

The Chair:

Next up is Germany.

Go ahead.

Mr. Jens Zimmermann:

Thank you, Mr. Chairman.

I would like to ask a few questions of Twitter.

During the recent European elections you introduced several measures, especially concerning fake news about the electoral process as such. That sounded like a good idea in the first place, but we ended up having elected officials in Germany being blocked for tweets that obviously didn't have any failed information in them.

Obviously, the complaint mechanism from Twitter was used by right-wing activists to flag completely legal posts by members of Parliament, for example. It was really the problem that you did it that way, and it took quite some time until everything was solved.

Have you monitored these developments? What are your lessons learned, and how will that evolve during upcoming elections?

Mr. Carlos Monje:

Thank you for that question.

I followed that as well from the U.S., the disinformation reporting flow that we launched in the EU and in India. I think this is one of the challenges and blessings of being a global platform—every time you turn around there's another election. We have Argentina coming up. We have the U.S. 2020 elections to follow, and Canada, of course, in October.

What we learned is that, as always, when you create a rule and create a system to implement that rule, people try to game the system. What we saw in Germany was a question of how and whether you sign a ballot. That was one of the issues that arose. We are going to learn from that and try to get better at it.

What we found—and Neil mentioned the GIFCT—was that our contribution to the effort, or what Twitter does, is to look at behavioural items first, which is not looking at the content but how are different accounts reacting to one another. That way we don't have to read the variety of contexts that make those decisions more complicated.

The Chair:

Thank you.

We'll go to Singapore for two minutes.

Mr. Edwin Tong:

Mr. Potts, earlier you had said in answer to my colleague's question that you were not aware of being told prior to or after the bombings in Sri Lanka that it, in fact, had been flagged to Facebook prior to that. Do you recall that?

Mr. Neil Potts:

Yes, sir.

Mr. Edwin Tong:

This was a serious and horrific massacre where videos were carried on Facebook for some time and, as you said, it's hate speech in clear breach of your policies. The alleged bomber himself, in fact, had a Facebook account, which I'm sure you know. I'm surprised that you didn't check, because that's something that I would have thought Facebook would want to know.

They would have wanted to know how it is that, with videos having been spread on Facebook, this was something that Facebook had missed, if at all you had missed it. I'm surprised you are not aware today as to whether or not this was something flagged to Facebook. Can you confirm that?

Mr. Neil Potts:

For the specific video, sir, I'm happy to follow up after this hearing, and to come back to show you exactly that timeline. When we were made aware of the attack of the individual, we quickly removed—

Mr. Edwin Tong:

I know. That's not my focus. Why it is that today, about two months after the event, you still don't know if, prior to the attack, Facebook had been made aware of the existence of the videos? I would have thought that, if you were to have us believe that the policies you now have in place—AIs and other mechanisms for the future.... If I were Facebook, I would have wanted to know how this was missed. I'm surprised that you don't know, even today.

Mr. Neil Potts:

That is correct. We do a formal after-action process where we review these incidents to make sure that our policies—

(1320)

Mr. Edwin Tong:

It didn't come up.

Mr. Neil Potts:

I would just have to get the information back for you. I don't want to speak out of turn.

Mr. Edwin Tong:

You, yourself, Mr. Potts, just last month, gave evidence to the U.K. Parliament, where this issue came up in that session. Was that not correct?

Mr. Neil Potts:

I believe the attack happened on Easter Sunday. We gave evidence, I believe, on that Tuesday. It was very much in the nascent stages when we gave evidence.

Mr. Edwin Tong:

Fair enough, but I would like to say that I'm surprised Facebook didn't see fit to check whether something had been missed.

Mr. Kevin Chan:

If I may say, sir, there is one thing I want to assure—

Mr. Edwin Tong:

If it's an answer to my question, then, yes, please explain, but otherwise—

Mr. Kevin Chan:

It's about our security posture, sir.

The Chair:

I'm sorry. If it's not an answer directly to Mr. Tong, we don't have the time.

I'm sorry, Mr. Tong. We're out of time.

We have to move on to Ireland for two minutes, and then we will make some closing remarks.

I apologize. I wish we had more time. We just don't.

Go ahead.

Ms. Hildegarde Naughton:

Thank you, Mr. Chair.

I didn't have a chance to get the answer to my first question in relation to Google's viewpoint on the GDPR. Many of the social media companies are based in Ireland. Effectively, our data protection commissioner is regulating for Europe, and Facebook's Mark Zuckerberg has called on a GDPR-type approach to be rolled out globally.

What is your view on that? Will it work?

Mr. Colin McKay:

We think the GDPR provides a strong framework for a conversation around the world on what extended privacy protections would look like. The question is how it adapts to local jurisdictions, and also reflects the political and social background of each of those jurisdictions.

Ms. Hildegarde Naughton:

You can't be definitive about whether it would work.

Are you in agreement with Mr. Zuckerberg in relation to the rollout of GDPR globally?

Mr. Colin McKay:

We've already made a broad and detailed statement about the need for increased work on privacy regulation. It was last fall. It builds on a lot of the work around the development of GDPR.

I'm just being careful, because I recognize that, around the table, there are many different types of data protection regulations in place right now.

Ms. Hildegarde Naughton:

In different countries....

In relation to Ireland yet again, because it's the base of a lot of the social media companies.... You're all based, your European international headquarters are based in Ireland. We're working on digital safety commissioner legislation, which will effectively mean that Ireland will be legislating in relation to takedown online content moderation for Europe, and potentially beyond that.

Is that how you would see it? What is your viewpoint on that, very briefly?

Mr. Derek Slater:

Consistent with what we said at the outset, clear definitions by government of what's illegal, combined with clear notices, are critical to platforms acting expeditiously. We welcome that sort of collaboration in the context of illegal content.

Ms. Hildegarde Naughton:

Can you see that being rolled out, maybe beyond Europe, because of the legislation in Ireland.

Mr. Derek Slater:

Whether or not it's that specific law, I think the basics of notice and take down of illegal content, speaking broadly, is something there is increasing consensus around.

Ms. Hildegarde Naughton:

Facebook, do you want to come in on this?

Mr. Kevin Chan:

I think what Mr. Slater said is absolutely right. We do want to work with you. I understand our team is, in fact, working with the Irish public authorities on this.

We are also working with President Macron and the Government of France on what he's calling smart regulation. We would welcome, I think, the opportunity to discuss with you and others in Ireland how that is evolving. I think it's worth having additional conversations on it.

Mr. Carlos Monje:

In addition to the importance of having precise terminology, I think accountability is important, beyond the regulatory agency to the Parliament and the people who can be held accountable by their constituents.

I would also note that it's important, especially on these issues of content moderation, which we take extremely seriously, to recognize how those tools can be used in the hands of autocratic regimes. I was listening to the testimony yesterday about pre-Nazi Germany. The tools used there to protect democracy in one case were then used to squelch it on the back end. I think they are difficult questions and I'm glad that this committee is taking it so seriously.

The Chair:

Thank you, Ms. Naughton.

We appreciate all the testimony today.

We have some closing statements, starting with Mr. Angus....

My apologies to Mexico, you did put up your hand, so we'll give you a quick two minutes. Go ahead.

Hon. Antares Guadalupe Vázquez Alatorre:

[Delegate spoke in Spanish, interpreted as follows:]

I just briefly would like to ask you, what is the path that a victim must follow when the controls fail that are going against [Technical difficulty—Editor] and Google in particular.

Mr. Derek Slater:

If I understand correctly, before you were asking about content that violates our community guidelines on YouTube. We have flagging systems where a user can click and say, “This violates your guidelines in this particular way.” That notice is then sent and put into a queue for review. They can do that right under the video there.

(1325)

Hon. Antares Guadalupe Vázquez Alatorre:

[Delegate spoke in Spanish, interpreted as follows:]

What happens when they are told that there is no breach in the policies, and there is a video with a person who is naked and everybody can see that?

Mr. Derek Slater:

From the context, if it violates our guidelines, we would remove it. If we don't, there are appeal mechanisms, and so on and so forth.

Hon. Antares Guadalupe Vázquez Alatorre:

[Delegate spoke in Spanish, interpreted as follows:]

I know of cases, many cases, that have followed all the routes online and always the answer has been, “This is not against our policies,” on the three platforms. What does the victim do? How do they appeal to anybody?

As I told you, in a particular case, when they went to the Google office in Mexico, they were told to go to Google in the United States. Therefore, what does a victim do when the images against that person still appear? They are up there.

Mr. Derek Slater:

I'm not familiar with the particular cases you're talking about, but we'd be happy to follow up.

Hon. Antares Guadalupe Vázquez Alatorre:

[Delegate spoke in Spanish, interpreted as follows:]

In any case, what's next?

Mr. Derek Slater:

In general, if something were to violate someone's privacy or be defamatory or incite violence, and so on and so forth, against our guidelines, we would take it down. The case you're describing is something I'm not familiar with, but we'd be happy to receive more information and take it back to our teams.

The Chair:

We'd better move on.

We'll go to Mr. Angus for just a couple of minutes, and then Mr. Collins and me.

Go ahead, Mr. Angus.

Mr. Charlie Angus:

Thank you, Mr. Chair.

I want to make a confession. I'm a recovering digital utopian. I came here as a young democratic socialist and I fought hard against regulation. Imagine that, because we saw all the start-ups and we saw a great digital future. That was 2006. Now in 2019, I have conservative chairs here who are pushing for government regulation. That's the world we're in with you folks.

It's because we're talking about democratic rights of citizens, re-establishing the rights of citizens within the realm that you control. We're talking about the power of these platforms to up-end our democratic systems around the world, which is unprecedented. We're talking about the power of these platforms to self-radicalize people in every one of our constituencies, which has led to mass murder around the world. These are serious issues. We are just beginning to confront the issues of AI and facial recognition technologies and what that will mean for our citizens.

It's what our Privacy Commissioner has called the right of citizens to live free of surveillance, which goes to the heart of the business model, particularly of Facebook and Google, and it came up yesterday and today from some of the best experts in the world that the front line of this fight over the public spaces and the private lives of citizens will be fought in the city of Toronto with the Google project.

Mr. McKay, we asked you questions on Sidewalk Labs before, but you said you didn't speak for Sidewalk Labs, that it was somehow a different company.

Mr. Slater, we had experts say this is a threat to the rights of our citizens. Mr. McNamee said he wouldn't let Google within 100 miles of Toronto.

How is it that the citizens of our country should trust this business model to decide the development of some of the best urban lands in our biggest city?

Mr. Derek Slater:

I, too, do not work for Sidewalk Labs. You're right. We want your trust, but we have to earn your trust, through transparency, through development of best practices with you and accountability. I think then different sites will make different choices. That is in general the case, but I can't speak to that specific company because I'm not a part of it.

The Chair:

Thank you, Mr. Angus.

Mr. Collins.

Mr. Damian Collins:

Thank you.

I would just like to pick up on a couple of things that were touched on in this session.

Mr. Potts, you mentioned briefly the changes to the Facebook Live policy as a result of the Christchurch attack. I understand that as a restriction on people who have broadcast the most serious footage through Facebook Live, and who would then have their accounts automatically suspended. Is that correct?

Mr. Neil Potts:

That part is correct, but also, I think, more broadly, if you have a community standards violation for specific types of actions, you would lose your access for a period of time—30 days, 60 days, 90 days—to enable yourself to go on the live product.

(1330)

Mr. Damian Collins:

You wouldn't be able to use the live product.

Mr. Neil Potts:

Correct.

Mr. Damian Collins:

Would that be at a maximum of 90 days suspension?

Mr. Neil Potts:

I think for egregious violations of our community standards, we also reserve the right to disable your account.

Mr. Damian Collins:

Okay.

What about people who have shared serious content that has been broadcast through Facebook Live? They're not the broadcaster themselves, but they've shared that footage with others on the platform. Is there any action taken against them?

Mr. Neil Potts:

We try to look at the intent of the sharer. I think that in the Christchurch example, we had many people just sharing for awareness purposes. We had some, definitely, who were sharing for malicious purposes, to subvert our policies, to subvert our AI. Those would be actioned against. If we knew that you were sharing—even media companies shared the video—we would try to read in some context and try to understand the intent of why you were sharing.

Mr. Damian Collins:

Did people who you believe maliciously shared the footage have their accounts cancelled?

Mr. Neil Potts:

In some cases there have been individuals who had their accounts disabled. In other cases they received penalties.

Mr. Damian Collins:

Would you be able to write to us to tell us how many accounts have been disabled as a consequence of this?

Mr. Neil Potts:

I'd be happy to follow up after the hearing.

Mr. Damian Collins:

These changes obviously take retrospective action against people who have done it. Is there anything Facebook has done to stop something like Christchurch from happening again, in terms of the way it is broadcast and shared through your systems?

Mr. Neil Potts:

We are continuing to invest in the AI.

In the Christchurch case, the use of the first-person video from the GoPro is very difficult for AI to recognize. We're continuing to invest to try to get better, to try to give training data to the machine learning so that we can identify and prevent. We have introduced new protocols for routing those types of videos to human reviewers in the moment, but it's important to note that the actual video was never reported while it was live.

Mr. Damian Collins:

Okay. I'm not sure I'm clear on that, but there are a couple of more things.

You've said quite a lot about the deletion of inauthentic accounts. Facebook, I believe, said that there were 3.3 billion inauthentic accounts deleted over the previous six months. That is considerably greater than the active user base of the company. Based on that, how confident can you be that there are only about 5% of accounts at any one time that are inauthentic?

Mr. Neil Potts:

We have data science teams that study this closely, so I defer to their expertise and analysis on that.

Mr. Damian Collins:

Monika Bickert said that the inauthentic accounts are far more likely to be sharing disinformation, so of those 3.3 billion accounts, how many of those were actively sharing disinformation?

Mr. Neil Potts:

I do not have that figure. I believe she said that they are more likely to...a combination of abusive behaviour, so not only disinformation but hate speech. Your point is taken and I can follow up.

Mr. Damian Collins:

Would Facebook be able to write to the committee with the answer to that question?

Mr. Kevin Chan:

Well, sir, I should clarify. I think it is the case, if you look at the transparency report—

Mr. Damian Collins:

So sorry, sir, we're running out of time.

I just want to say, if you don't have the answer to that question now—

Mr. Kevin Chan:

We do have the answer, sir.

Mr. Damian Collins:

—the company can write to us with it.

Mr. Kevin Chan:

The vast majority of accounts are actually disabled before a human can even interact with them.

Mr. Damian Collins:

Okay.

Could Facebook commit to the write to the committee to say—

Mr. Neil Potts:

We will write.

Mr. Damian Collins:

—how many of those accounts that were deleted, those 3.3 billion, were sharing disinformation? The company is saying that they're more likely to be sharing disinformation than other sorts of accounts.

Mr. Neil Potts:

If we have [Inaudible—Editor].

Mr. Damian Collins:

Finally, in the wake of the Cambridge Analytica scandal last year, Facebook announced that there would be a new feature for users to be able to clear their browser history. I understand that Facebook announced that this will launch later this year. This does seem to be a long period of time. If this were a product launch that Facebook would be making money out of, one sort of feels it would have come on quicker. This doesn't seem to be a case of moving fast and breaking things, but of moving slowly.

Is Facebook able to commit to a date when the “clear browser history” function will be live?

Mr. Kevin Chan:

Sir, I think I've mentioned it a few times, including, I think, with various members about this new feature. It would probably be inadvisable for me to commit to a date, obviously, at this time. I don't want to get out ahead of my skis, but I could just say that even with the transparency measures we're putting in place in Canada, we are working down to the wire to get this right. We're going to try to roll this other product out globally. That will take—

Mr. Damian Collins:

I would just say, these sorts of functions are pretty widespread across the web. I think the fact that it's now been over a year since this was announced and that you can't even give a date this year when it will come into force is really poor.

Mr. Kevin Chan:

I appreciate that.

The Chair:

I want to thank everybody for your testimony today.

I applaud Mr. Chan on some of the changes that you say are coming. We've heard this story many times, so I guess we will wait to see what we get at the end of the day.

It goes to what we were asking for in the first place. In good faith we asked your CEO and your COO to come before us today to work together for a solution to what these problems are that a whole bunch of countries and a whole bunch of people around the globe see as common issues. To me, it's shameful that they are not here today to answer those specific questions that you could not fully answer.

That's what's troubling. We're trying to work with you, and you're saying you are trying to work with us. We just had a message today that was forwarded to me by my vice-chair. It says, “Facebook will be testifying at the International Grand Committee this morning. Neil Potts and Kevin Chan will be testifying. Neither of whom are listed in this leadership chart of the policy team's 35 most senior officials”.

Then we're told you're not even in the top 100. No offence to you individuals, you're taking it for the team for Facebook, so I appreciate your appearance here today, but my last words to say before the committee is shame on Mark Zuckerberg and shame on Sheryl Sandberg for not showing up today.

That said, we have media availability immediately following this meeting to answer questions. We're going to be signing the Ottawa declaration just over here so we're going to have a member from each delegation sitting here as representatives.

After that, all the members of Parliament visiting from around the world are invited to attend our question period today. I'm going to point out my chief of staff, Cindy Bourbonnais. She will help you get the passes you need to sit in the House if you wish to come to QP today.

Thank you again for coming as witnesses. We will move right into the Ottawa declaration.

The meeting is adjourned.

Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique

(1040)

[Traduction]

Le président (M. Bob Zimmer (Prince George—Peace River—Northern Rockies, PCC)):

Je déclare ouverte la 153e séance du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique, et, par conséquent, le Grand Comité international sur les mégadonnées, la protection des renseignements personnels et la démocratie. Des représentants des pays prendront aussi la parole. Nous allons commencer par mon coprésident, M. Damian Collins, du Royaume-Uni.

Voici le fonctionnement structurel: nous ferons passer les délégations, à commencer par un représentant par pays, suivi du deuxième représentant. Vous devriez tous avoir votre propre période de cinq minutes.

Avant de commencer, M. Angus veut dire quelque chose.

M. Charlie Angus (Timmins—Baie James, NPD):

Monsieur le président, permettez-moi d'invoquer le Règlement à l'intention de notre comité; nous sommes très surpris, je crois, que M. Zuckerberg ait décidé — ainsi que Mme Sandberg — de faire fi de l'assignation d'un comité parlementaire, particulièrement à la lumière du fait que nous avons ici des représentants internationaux. À ma connaissance, nous n'avons même pas été informés de son absence. Je n'ai jamais vu de situation où un dirigeant d'entreprise fait fi d'une assignation légale.

À la lumière de ce fait, j'aimerais donner un avis de motion à mettre aux voix: Que le Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique, en raison du refus de M. Mark Zuckerberg et de Mme Sheryl Sandberg d'y comparaître le 28 mai, dirige le président à livrer une assignation s'ils arrivent au Canada pour quelconque raison pour comparaître devant le Comité à la prochaine réunion après la date de l'assignation, et s'ils sont convoqués pendant que la Chambre ne siège pas, que le Comité dirige le président de convenir une réunion extraordinaire aussi tôt que possible en raison d'obtenir leur témoignage.

Monsieur le président, j'ignore si nous avons déjà utilisé une assignation ouverte au Parlement — nous avons vérifié et n'en avons pas trouvé —, mais je crois que vous jugerez que c'est en règle. Si M. Zuckerberg ou Mme Sandberg décidaient de venir ici pour une conférence sur les technologies ou pour aller pêcher, le Parlement pourrait signifier cette assignation et les faire venir ici.

Le président:

Merci, monsieur Angus.

Pour les membres d'office du Comité, nous sommes saisis d'une motion sur laquelle nous devrons voter, et il y aura donc un certain débat.

D'autres membres souhaitent-ils débattre de la motion?

Monsieur Kent, allez-y.

L'hon. Peter Kent (Thornhill, PCC):

Merci, monsieur le président.

Oui, l'opposition officielle, le Parti conservateur, est tout à fait disposée à appuyer la motion de M. Angus. Comme nous l'avons entendu dans certains des témoignages précédents, Facebook, parmi d'autres grandes plateformes, a manifesté un manque de respect et un mépris extrêmes devant les gouvernements étrangers et les comités qui les représentent, à l'égard de leurs préoccupations et de leur recherche d'explications quant à la raison pour laquelle des mesures utiles n'ont pas été prises à ce jour et n'a pas fourni d'explication claire et explicite concernant sa réponse aux préoccupations du monde entier, et certainement des démocraties et des membres du grand comité international.

Nous appuierons cette motion. Merci.

Le président:

Nous avons déjà discuté du fait qu'aucune motion de fond n'avait été présentée au Comité. Cela dit, avec l'assentiment de tout le monde ici, je crois que nous pourrions convenir de l'entendre — et nous l'entendons aujourd'hui — et de voter sur celle-ci.

Avons-nous...? Je vois que tout le monde est en faveur du dépôt de la motion dont nous sommes saisis.

Y a-t-il d'autres commentaires au sujet de la motion?

Monsieur Lucas, allez-y.

M. Ian Lucas (membre, Comité sur le numérique, la culture, les médias et le sport, Chambre des communes du Royaume-Uni):

C'est un cas de récidive de la part de M. Zuckerberg. C'est une situation qui s'est déjà produite et qui nous préoccupe vivement. C'est une préoccupation particulièrement grande pour moi, car malheureusement, les gouvernements continuent de rencontrer M. Zuckerberg, et je crois qu'il est important que nous témoignions, en tant que parlementaires, de notre préoccupation au sujet du manque de respect dont fait preuve M. Zuckerberg à l'égard des parlementaires du monde entier. Ils devraient examiner l'accès qu'ils donnent à M. Zuckerberg, l'accès aux gouvernements et aux ministres, en privé, sans nous respecter nous, en tant que parlementaires, et sans respecter nos électeurs, qui sont exclus des discussions confidentielles qui ont lieu sur ces affaires cruciales.

Le président:

Merci, monsieur Lucas.

Monsieur Erskine-Smith, vous avez la parole.

M. Nathaniel Erskine-Smith (Beaches—East York, Lib.):

J'aimerais juste dire que je trouve comique que le 30 mars, soit il y a moins de deux mois, Mark Zuckerberg ait écrit un article dans le Wall Street Journal. Il a écrit qu'il croit que Facebook a une responsabilité pour réagir au contenu préjudiciable, protéger les élections, protéger les renseignements personnels et les données ainsi que la portabilité des données — les questions mêmes dont nous discutons aujourd'hui — et qu'il était impatient d'en parler avec les législateurs du monde entier. C'était ses mots il y a moins de deux mois. S'il avait été honnête en les écrivant, il serait assis dans ce fauteuil aujourd'hui.

Le président:

Merci, monsieur Erskine-Smith.

Y a-t-il d'autres commentaires sur la motion?

Bien franchement, pour répondre à votre question, en tant que président des deux comités, le comité international et notre comité de l'éthique, je trouve odieux qu'il ne soit pas ici aujourd'hui et que Mme Sandberg ne soit pas là non plus. On leur a fait savoir très clairement qu'ils devaient comparaître devant nous aujourd'hui. Une assignation a été délivrée, ce qui est déjà un geste inhabituel pour un comité. Je crois qu'il est donc tout naturel que l'on prépare un mandat de comparution. Dès que M. Zuckerberg ou Mme Sandberg mettront les pieds dans notre pays, ils se verront signifier une assignation et devront comparaître devant notre comité. S'ils décident de ne pas le faire, la prochaine étape consistera à les reconnaître coupables d'outrage.

Je crois que les mots sont forts, monsieur Angus, et je vous félicite de votre motion.

S'il n'y a pas d'autres interventions relativement à la motion, nous passerons au vote.

(La motion est adoptée.)

Le président: Merci, monsieur Angus.

Nous passons maintenant aux plateformes, en commençant par Facebook, puis Google, puis...

Je vais mentionner les noms. Nous recevons Kevin Chan, directeur des politiques mondiales pour le Canada, et Neil Potts, directeur des politiques mondiales, de Facebook Inc. Nous accueillons Derek Slater, directeur mondial, Politique de l'information, de Google LLC; et Colin McKay, chef, Relations gouvernementales et politiques publiques, de Google Canada. Nous recevons Carlos Monje, directeur, Politique publique, et Michele Austin, chef, gouvernement, Politique publique, Twitter Canada, de Twitter Inc.

Je tiens à dire que ce ne sont pas juste les PDG de Facebook qui ont été invités aujourd'hui. Les PDG de Google ont été invités, tout comme le PDG de Twitter. Nous sommes plus que déçus qu'ils aient décidé eux aussi de ne pas se présenter.

Nous allons commencer par M. Chan, pour sept minutes.

Merci.

(1045)

M. Kevin Chan (directeur des politiques mondiales, Facebook Inc.):

Merci beaucoup, monsieur le président.

Je m'appelle Kevin Chan, et je suis accompagné aujourd'hui de mon collègue Neil Potts. Nous sommes tous les deux directeurs des politiques mondiales chez Facebook.

Internet a transformé la façon dont des milliards de personnes vivent, travaillent et communiquent ensemble. Des entreprises comme Facebook ont d'immenses responsabilités pour assurer la sécurité des personnes sur leurs services. Chaque jour, nous avons comme défi de prendre des décisions pour savoir quels discours sont préjudiciables, ce qui constitue des publicités politiques et comment prévenir des cyberattaques élaborées. Il s'agit d'un travail essentiel pour assurer la sécurité de nos collectivités, et nous reconnaissons que ce travail n'est pas quelque chose que des entreprises comme la nôtre devraient faire seules. [Français]

De nouvelles règles pour Internet devraient permettre de préserver ce qu'il y a de mieux en matière d'économie numérique et d'Internet, encourager l'innovation, soutenir la croissance des petites entreprises et permettre la liberté d'expression, tout en protégeant la société contre des dommages plus graves. Ce sont des enjeux très complexes à résoudre, et nous souhaitons travailler avec les gouvernements, les universitaires et la société civile pour garantir l'efficacité de la nouvelle réglementation.[Traduction]

Nous sommes ravis de vous faire part aujourd'hui de certaines de nos nouvelles réflexions dans quatre domaines d'action réglementaire possibles: le contenu préjudiciable, la protection de la vie privée, la portabilité des données et l'intégrité électorale.

Cela dit, je vais céder la parole à mon collègue Neil, qui aimerait échanger avec vous au sujet du contenu préjudiciable.

M. Neil Potts (directeur des politiques mondiales, Facebook Inc.):

Monsieur le président, mesdames et messieurs, merci de me fournir l'occasion d'être ici aujourd'hui.

Je m'appelle Neil Potts, et je suis le directeur chargé de la surveillance de l'élaboration et de la mise en œuvre des normes communautaires de Facebook. Voici nos lignes directrices concernant les types de contenus qui sont autorisés sur notre plateforme.

Toutefois, avant de continuer, j'aimerais juste signaler que M. Chan et moi sommes des directeurs des politiques mondiales, des experts en la matière, qui sommes prêts à échanger avec vous sur ces questions. M. Zuckerberg et Mme Sandberg, notre PDG et notre directrice des opérations, sont déterminés à travailler avec le gouvernement de façon responsable. Ils estiment qu'ils nous ont mandatés pour comparaître devant vous aujourd'hui afin de discuter de ces sujets, et nous sommes heureux de le faire.

Comme vous le savez, la mission de Facebook est de donner aux gens le pouvoir de bâtir une communauté et de rapprocher le monde. Plus de deux milliards de personnes utilisent notre plateforme chaque mois pour communiquer avec des membres de la famille et des amis, découvrir ce qui se passe dans le monde, créer leur entreprise et aider ceux dans le besoin.

Quand nous donnons une voix aux gens, nous voulons nous assurer qu'ils ne l'utilisent pas pour blesser d'autres personnes. Facebook assume pleinement la responsabilité de s'assurer que les outils que nous créons sont utilisés pour faire le bien et que nous assurons la sécurité des gens. Nous prenons ces responsabilités très au sérieux.

Plus tôt ce mois-ci, Facebook a signé l'Appel à l'action de Christchurch visant à éliminer les contenus terroristes et extrémistes violents en ligne, et nous avons pris des mesures immédiates touchant la diffusion en direct. Concrètement, les gens qui ont enfreint certaines règles sur Facebook, ce qui comprend notre politique « Individus et organismes dangereux », se verront interdire l'utilisation de Facebook Live.

Nous investissons aussi 7,5 millions de dollars dans de nouveaux partenariats de recherche avec d'éminents universitaires pour composer avec la manipulation médiatique contradictoire que nous avons vue après l'événement de Christchurch — par exemple, quand certaines personnes ont modifié la vidéo pour éviter d'être repérées afin de pouvoir la republier après son retrait.

Puisque le nombre d'utilisateurs de Facebook a augmenté et que la difficulté liée au fait de trouver le juste milieu entre la liberté d'expression et la sécurité s'est accrue, nous sommes parvenus à la conclusion que Facebook ne devrait pas prendre seule un si grand nombre de ces décisions difficiles. C'est pourquoi nous allons créer un comité de surveillance externe pour aider à régir les discours sur Facebook d'ici la fin de 2019. Le comité de surveillance sera indépendant de Facebook, et il s'agira d'un dernier niveau d'appel pour le contenu qui reste sur notre plateforme et celui qui est retiré.

Malgré la mis en place du comité de surveillance, nous savons que des gens utiliseront une panoplie de plateformes et de services en ligne différents pour communiquer, et nous nous en porterions tous mieux s'il existait des normes de base claires pour toutes les plateformes. C'est pourquoi nous aimerions travailler avec les gouvernements à établir des cadres clairs liés au contenu préjudiciable en ligne.

Nous avons collaboré avec le président Macron de la France sur exactement ce type de projet et nous sommes ouverts à la possibilité de dialoguer avec un plus grand nombre de pays dans l'avenir.

Monsieur Chan, voulez-vous prendre le relais?

(1050)

M. Kevin Chan:

Pour ce qui est de la protection de la vie privée, nous comprenons très clairement notre responsabilité importante en tant que gardiens des données des gens et de la nécessité pour nous de faire mieux. C'est pourquoi, depuis 2014, nous avons pris des mesures importantes pour réduire de façon radicale la quantité de données auxquelles des applications tierces peuvent accéder sur Facebook et ce pourquoi nous mettons sur pied une fonction en matière de protection de la vie privée beaucoup plus importante et vigoureuse au sein de l'entreprise. Nous avons aussi réalisé des progrès considérables afin de donner aux gens plus de transparence et de contrôle sur leurs données.

Nous reconnaissons que, même si nous menons beaucoup plus d'activités sur la protection de la vie privée, nous nous portons tous mieux lorsque des cadres généraux régissent la collecte et l'utilisation des données. De tels cadres devraient protéger votre droit de choisir la façon dont votre information est utilisée, tout en permettant l'innovation. On devrait tenir des entreprises comme Facebook responsables en imposant des sanctions lorsque nous commettons des erreurs et l'on devrait clarifier les nouveaux sujets d'étude, y compris le moment où les données peuvent être utilisées pour le bien public et la façon dont cela devrait s'appliquer à l'intelligence artificielle.

Il existe déjà certains bons modèles que l'on peut reproduire, y compris le Règlement général sur la protection des données de l'Union européenne et la Loi sur la protection des renseignements personnels et les documents électroniques du Canada. L'atteinte d'un certain degré d'harmonisation autour du monde serait souhaitable et faciliterait la croissance économique.

Nous croyons aussi que le principe de la portabilité des données est suprêmement important pour le choix des consommateurs et pour assurer un marché dynamique et compétitif en matière de services numériques. Les gens devraient être en mesure de prendre les données qu'ils ont mises sur un service et de les déplacer vers un autre service. On doit ensuite se demander comment la portabilité des données peut se faire d'une façon sécuritaire qui protège la vie privée. La portabilité des données n'est utile que s'il y a en place des normes communes, et c'est pourquoi nous soutenons un format standard pour le transfert des données et le projet de transfert des données ouvertes.

Enfin, Facebook fait tout son possible pour protéger les élections sur sa plateforme dans le monde entier en investissant considérablement dans les gens, la technologie et les partenariats. Nous avons triplé le nombre de personnes qui travaillent sur des questions de sécurité dans le monde, le faisant passer de 10 000 à 30 000 personnes. Nous avons mis au point une technologie d'intelligence artificielle de pointe qui nous permet de déceler et de retirer de faux comptes en masse.

Bien sûr, nous ne pouvons pas réussir si nous faisons cavalier seul, et nous nous sommes donc associés à un vaste éventail d'organisations. Au Canada, nous sommes fiers de travailler avec l'Agence France-Presse sur la vérification de faits par des tiers, HabiloMédias sur la littéracie numérique et l'organisme À voix égales pour assurer la sécurité des candidats, plus particulièrement des candidates, en ligne.

Facebook est une ardente défenseure des règlements qui font la promotion de la transparence des publicités politiques en ligne. Nous croyons qu'il est important que les citoyens puissent voir toutes les publicités politiques qui sont offertes en ligne, particulièrement celles qui ne leur sont pas destinées. C'est pourquoi nous appuyons et respecterons le projet de loi C-76, la Loi sur la modernisation des élections du Canada, que le Parlement a adoptée, et nous dialoguerons au cours des prochaines semaines avec des publicitaires politiques canadiens, y compris les partis politiques fédéraux représentés ici aujourd'hui, sur des changements importants au chapitre des publicités politiques qui seront apportés sur la plateforme d'ici la fin juin.

Enfin, monsieur le président, comme vous le savez, Facebook est partie à la Déclaration du Canada sur l'intégrité électorale en ligne, qui énonce 12 engagements que le gouvernement du Canada et certaines plateformes en ligne acceptent d'entreprendre ensemble en prévision des élections fédérales d'octobre. Il s'agit d'une expression forte de la mesure dans laquelle nous prenons au sérieux nos responsabilités au Canada, et nous sommes impatients de travailler de pair avec des représentants pour nous prémunir contre l'ingérence étrangère.

Merci de m'avoir donné l'occasion d'être ici. [Français]

Nous avons hâte de répondre à vos questions. [Traduction]

Le président:

Merci, monsieur Chan.

Nous passons maintenant à M. Slater, de Google.

M. Derek Slater (directeur mondial, Politique de l'information, Google LLC):

Merci de me donner l'occasion de comparaître devant vous aujourd'hui.

Je m'appelle Derek Slater, et mon rôle chez Google est d'aider à façonner l'approche de l'entreprise à l'égard des politiques d'information et de la réglementation du contenu. Je suis accompagné de mon collègue Colin McKay, chef des politiques publiques pour Google au Canada.

Nous reconnaissons votre leadership et sommes heureux d'avoir l'occasion de discuter de l'approche de Google afin d'examiner nos nombreux enjeux en commun.

Pendant près de 20 ans, nous avons conçu des outils pour aider les utilisateurs à accéder à de l'information, à en créer et à en partager comme jamais auparavant, en leur donnant plus de choix, de possibilités et d'exposition à une diversité de ressources et d'opinions. Toutefois, nous savons que les plateformes mêmes qui ont procuré ces avantages sociétaux peuvent aussi faire l'objet d'abus, et cela va du hameçonnage à l'extrémisme violent et plus encore. L'examen attentif des législateurs et de nos utilisateurs guide et améliore nos produits ainsi que les politiques qui les régissent.

Nous n'avons pas attendu la réglementation du gouvernement pour nous attaquer aux défis d'aujourd'hui. Le fait de réagir au contenu illégal et problématique en ligne est une responsabilité partagée qui nécessite la collaboration entre les gouvernements, la société civile et l'industrie, et nous faisons notre part et continuerons de la faire.

Je vais faire ressortir certaines de nos activités en ce moment. Sur YouTube, nous combinons des examens automatisés et humains pour repérer et retirer le contenu qui contrevient aux règlements. Nous nous sommes améliorés au fil du temps et avons éliminé plus rapidement une partie de ce contenu, et ce, même avant qu'il soit consulté. Entre janvier et mars 2019, YouTube a retiré près de 8,3 millions de vidéos qui violaient ses lignes directrices communautaires, et 76 % de celles-ci ont été signalées par des machines plutôt que par des gens. Parmi les vidéos repérées par des machines, plus de 75 % n'avaient jamais été visionnées une seule fois.

Lorsqu'il s'agit de lutter contre la désinformation, nous avons investi dans nos systèmes de classement pour nous assurer que la qualité compte dans l'élaboration de politiques, la surveillance de menaces et les mécanismes d'application de la loi afin de nous attaquer à des comportements malveillants, de même que dans des outils qui fournissent aux utilisateurs plus de contexte, comme la vérification des faits ou les panneaux d'information sur la recherche Google et YouTube.

De plus, dans le contexte de l'intégrité électorale, nous concevons depuis plus de 10 ans des produits qui fournissent des renseignements en temps opportun et faisant autorité au sujet des élections du monde entier. En outre, nous avons consacré des ressources importantes pour aider les campagnes, les candidats et les représentants électoraux à améliorer leur posture en matière de cybersécurité à la lumière des menaces existantes et émergentes. Notre site Web Protection Élections offre des ressources gratuites comme la protection avancée, qui offre le compte de sécurité optimal de Google, et Project Shield, un service gratuit conçu pour atténuer le risque d'attaques de déni de service distribué qui inondent les sites de trafic dans le but de les fermer.

Même si l'industrie doit faire sa part, les décideurs, bien sûr, ont un rôle fondamental à jouer pour faire en sorte que tout le monde récolte les avantages personnels et économiques des technologies modernes tout en tenant compte des coûts sociaux et en respectant les droits fondamentaux. Les gouvernements et les assemblées législatives de près de 200 pays et territoires dans lesquels nous exerçons des activités sont parvenus à des conclusions différentes quant à la façon de régler des problèmes comme la protection des données, la diffamation et les discours haineux. Les cadres juridiques et réglementaires d'aujourd'hui sont le produit de processus délibératifs, et à mesure que la technologie et les attentes de la société évoluent, nous devons rester attentifs à la façon de mieux améliorer ces règles.

Dans certains cas, les lois doivent être modernisées, par exemple, dans le cas de la protection des données et de l'accès des organismes d'application de la loi aux données. Dans d'autres cas, une nouvelle collaboration entre l'industrie, le gouvernement et la société civile peut se traduire par des institutions et des outils complémentaires. Le récent Appel à l'action de Christchurch sur l'extrémisme violent n'est qu'un exemple de ce type de collaboration pragmatique et efficace.

De même, nous avons travaillé avec l'Union européenne sur le récent code de conduite contre les discours haineux, ce qui renferme un processus de vérification pour surveiller la façon dont les plateformes respectent leurs engagements, et sur le récent code de bonnes pratiques de l'Union européenne contre la désinformation. Nous avons convenu d'aider des chercheurs à étudier ce sujet et d'assurer la vérification régulière de nos prochaines étapes associées à cette lutte.

De nouvelles approches comme celles-là doivent reconnaître les différences pertinentes entre des services aux fonctions et aux fins différentes. La surveillance des politiques sur le contenu devrait naturellement se focaliser sur les plateformes de partage de contenu. Les médias sociaux, les sites d'échange de vidéos et d'autres services dont le but principal est d'aider des gens à créer du contenu et à le communiquer à un vaste public devraient être différenciés d'autres types de services comme des services de recherche, des services d'entreprise, et des services de stockage de dossiers et de courriels, qui nécessitent des ensembles de règles différents.

Cela dit, nous voulons faire ressortir aujourd'hui quatre éléments clés à prendre en considération dans le cadre de l'évolution de la surveillance et de la discussion concernant les plateformes de partage de contenu.

Premièrement, il fait établir des définitions claires.

Les plateformes sont responsables d'établir des règles du jeu claires pour ce qui est ou non permissible, et les gouvernements ont aussi la responsabilité d'établir les règles par rapport à ce qu'ils estiment être des discours illégaux. Les restrictions devraient être nécessaires et proportionnelles, établies à partir de définitions claires et de risques fondés sur les données probantes et élaborées en consultation avec les parties prenantes pertinentes. Ces définitions claires, combinées à des avis clairs au sujet d'éléments de contenu particuliers, sont essentielles pour que les plateformes puissent agir.

(1055)



Deuxièmement, on doit élaborer des normes concernant la transparence et les pratiques exemplaires.

La transparence est le fondement d'une discussion éclairée et elle aide à établir les pratiques efficaces dans l'ensemble de l'industrie. Les gouvernements devraient adopter une approche souple qui renforce la recherche et soutient l'innovation responsable. Des exigences trop restrictives comme des délais de retrait universels, l'utilisation obligatoire de technologies particulières ou des sanctions disproportionnées réduiront au bout du compte l'accès du public à de l'information légitime.

Troisièmement, on doit miser sur des défaillances systémiques récurrentes plutôt que sur des cas isolés.

La détermination du contenu problématique et la réaction par rapport à celui-ci est semblable, d'une certaine façon, à la sécurité de l'information. Il y aura toujours de mauvais acteurs, des bogues et des erreurs. L'amélioration dépend de la collaboration entre de nombreux joueurs qui utilisent des approches axées sur les données pour comprendre si des cas particuliers sont exceptionnels ou représentatifs de problèmes systémiques récurrents plus importants.

Quatrièmement et finalement, on doit renforcer la coopération internationale.

Comme le démontre la réunion d'aujourd'hui, ces préoccupations et ces enjeux sont mondiaux. Les pays devraient s'échanger leurs pratiques exemplaires et éviter des approches conflictuelles qui imposent des fardeaux de conformité indus et créent de la confusion pour les clients. Cela dit, des pays individuels feront des choix différents au sujet des discours permissibles en fonction de leurs traditions juridiques, de leur histoire et de leurs valeurs, conformément aux obligations internationales en matière de droits de la personne. Un contenu illégal dans un pays pourrait être légal dans un autre.

Ces principes ont pour but de contribuer à une conversation aujourd'hui sur la façon dont les législateurs et les gouvernements devraient s'attaquer aux enjeux que nous sommes susceptibles d'aborder, y compris les discours haineux, la désinformation et l'intégrité électorale.

Pour terminer, je dirai qu'Internet présente des défis pour les institutions traditionnelles qui aident la société à organiser, à conserver et à communiquer de l'information. Quant à nous, nous sommes déterminés à réduire au minimum le contenu qui s'éloigne des éléments utiles que nos plateformes ont à offrir. Nous espérons travailler avec les membres du Comité et des gouvernements du monde entier pour surmonter ces difficultés à mesure que nous continuons d'offrir des services qui préconisent et diffusent des renseignements fiables et utiles.

Merci.

(1100)

Le président:

Merci.

Nous allons maintenant passer à Twitter. Je crois que M. Monje prendra la parole.

Allez-y.

M. Carlos Monje (directeur, Politique publique, Twitter inc.):

Merci beaucoup.

Monsieur le président Zimmer, monsieur le président Collins et chers membres du Comité, je m'appelle Carlos Monje, et je suis directeur des politiques publiques pour Twitter. Je suis accompagné de Michele Austin, qui est notre chef des politiques publiques pour le Canada.

Au nom de Twitter, j'aimerais reconnaître le travail acharné de tous les membres du Comité par rapport aux questions qui vous sont présentées. Nous vous remercions de votre dévouement et de votre volonté de travailler avec nous.

Twitter a pour objectif de servir la conversation publique. Toute tentative pour miner l'intégrité de notre service érode les principes mêmes de la liberté d'expression en ligne. C'est la valeur sur laquelle repose notre entreprise.

Les questions soulevées au Comité nous préoccupent profondément en tant que personnes. Nous voulons que les gens se sentent en sécurité sur Twitter et qu'ils comprennent notre approche à l'égard de la santé et de la sécurité du service. Il y aura toujours plus de choses à faire, mais nous avons réalisé des progrès considérables.

J'aimerais aborder brièvement notre approche à l'égard de la protection de la vie privée des gens, et j'ai hâte d'entendre vos questions.

Twitter s'efforce de protéger la vie privée des gens qui utilisent notre service. Nous croyons que la protection de la vie privée est un droit de la personne fondamental. Twitter est publique par défaut. Cela distingue notre service d'autres sites Internet. Quand un particulier crée un compte Twitter et commence à envoyer des gazouillis, ceux-ci sont immédiatement visibles et consultables par n'importe qui dans le monde. Les gens comprennent la nature publique par défaut de Twitter et ils vont sur le site en s'attendant à voir une conversation publique et à s'y joindre. Eux seuls contrôlent le contenu qu'ils partagent sur Twitter, y compris la mesure dans laquelle ce contenu peut être personnel ou privé.

Nous croyons que lorsque des gens nous confient leurs données, nous devrions nous montrer transparents dans notre façon de fournir un contrôle utile quant aux données qui sont recueillies, à la façon dont elles sont utilisées et au moment où elles sont communiquées. Ces paramètres sont facilement accessibles et conçus dans un esprit de convivialité. Nos paramètres de données qui permettent la plus grande personnalisation sont situés sur une seule page.

Twitter rend aussi accessible la trousse à outils « Vos données Twitter », qui offre aux personnes un instantané des types de données stockées par nous, comme le nom d'utilisateur, l'adresse de courriel, le numéro de téléphone associés au compte, des détails sur la création du compte et de l'information au sujet des inférences que nous pourrions avoir tirées. À partir de cet ensemble d'outils, les gens peuvent faire des choses comme modifier les intérêts présumés, télécharger leurs renseignements et comprendre ce que nous offrons.

Twitter cherche aussi de manière proactive à contrer les pourriels, l'automatisation malveillante, la désinformation et la manipulation des plateformes en améliorant les politiques et en élargissant les mesures d'application de la loi, en fournissant un plus grand contexte aux utilisateurs, en renforçant les partenariats avec les gouvernements et les experts et en assurant une plus grande transparence. Tout cela vise à renforcer la santé du service et à protéger les gens qui utilisent Twitter.

Nous continuons de promouvoir la santé de la conversation publique en contrant toutes les formes de manipulation des plateformes. Nous définissons la manipulation des plateformes comme l'utilisation de Twitter pour perturber la conversation en participant à une activité agressive ou trompeuse en bloc. Nous avons réalisé des progrès considérables. De fait, en 2018, nous avons repéré et remis en question plus de 425 millions de comptes que l'on a soupçonné avoir participé à la manipulation des plateformes. De ceux-là, environ 75 % ont fini par être suspendus. De plus en plus, nous utilisons des méthodes de détection automatisées et proactives pour trouver les abus et les manipulations sur notre service avant qu'ils n'aient une incidence sur l'expérience de qui que ce soit. Plus de la moitié des comptes que nous suspendons sont retirés dans la semaine suivant leur enregistrement — et bon nombre, au bout de quelques heures à peine.

Nous continuerons d'améliorer notre capacité de lutter contre le contenu manipulatif avant qu'il n'influence l'expérience des gens qui utilisent Twitter. Twitter se préoccupe beaucoup de la désinformation dans tous les contextes, mais l'amélioration de la santé de la conversation au sujet des élections revêt la plus grande importance. Un aspect clé de notre stratégie électorale est l'élargissement des partenariats avec la société civile pour accroître notre capacité de comprendre, de repérer et de faire cesser les tentatives de désinformation.

Ici, au Canada, nous travaillons avec Élections Canada, le commissaire aux élections fédérales, le Centre canadien pour la cybersécurité, le Bureau du Conseil privé, des institutions démocratiques et des partenaires de la société civile, comme le Centre Samara pour la démocratie et le Projet Démocratie.

En plus de déployer des efforts pour protéger le service, nous estimons que la transparence est un outil éprouvé et puissant dans la lutte contre la désinformation. Nous avons pris un certain nombre de mesures pour perturber les activités étrangères et limiter la suppression d'électeurs et avons augmenté de manière considérable la transparence au sujet de ces mesures. Nous avons mis à la disposition du public et des chercheurs les plus grandes archives sur les activités d'information au monde. Nous avons parcouru des données et des renseignements sur plus de 9 600 comptes, y compris des comptes en provenance de la Russie, de l'Iran et du Venezuela, pour un total de plus de 25 millions de gazouillis.

Nous croyons fondamentalement que ces comptes et leur contenu devraient être accessibles et consultables, de sorte que les membres du public, les gouvernements et les chercheurs puissent mener des enquêtes, tirer des apprentissages et acquérir des capacités en matière de littératie médiatique pour l'avenir. Ils nous aident aussi à nous améliorer.

(1105)



J'aimerais souligner un exemple particulier dans le cadre de nos efforts pour lutter contre la désinformation ici, au Canada.

Plus tôt ce printemps, nous avons lancé un nouvel outil pour diriger les personnes vers des ressources de santé publique crédibles lorsqu'elles cherchaient des mots clés associés aux vaccins sur Twitter. Dans ce cas-ci, nous nous sommes associés à l'Agence de la santé publique du Canada. Ce nouvel investissement s'appuie sur notre travail existant pour nous protéger contre l'amplification artificielle de contenu non crédible au sujet de la sécurité et de l'efficacité des vaccins. De plus, nous nous assurons déjà que le contenu publicitaire ne contient pas d'affirmations trompeuses au sujet du remède, du traitement, du diagnostic ou de la prévention de toute maladie, y compris des vaccins.

Pour terminer, Twitter continuera d'imaginer de nouveaux moyens de maintenir son engagement à l'égard de la protection de la vie privée, de lutter contre la désinformation sur son service et de demeurer responsable et transparente à l'égard des gens du monde entier. Nous avons réalisé des progrès notables et constants, mais notre travail ne sera jamais terminé.

Encore une fois, merci de nous avoir donné l'occasion d'être ici. Nous sommes impatients de répondre à vos questions.

Le président:

Merci.

Tout d'abord, nous allons nous tourner vers mon coprésident, Damian Collins, puis nous observerons la séquence.

Vous aurez chacun cinq minutes. Essayez d'être aussi succincts que vous le pouvez.

Monsieur Collins, c'est à vous.

M. Damian Collins (président, Comité sur le numérique, la culture, les médias et le sport, Chambre des communes du Royaume-Uni):

Merci, monsieur le président.

Je vais adresser ma première question aux représentants de Facebook. Je suis sûr que vous savez que l'une des principales préoccupations des membres du Comité a été que des renseignements trompeurs, communiqués de manière délibérée et malveillante par l'intermédiaire des outils créés par les entreprises de médias sociaux, portent préjudice à la démocratie, et cette désinformation est utilisée pour nuire à des politiciens chevronnés et à des personnalités publiques, à des institutions publiques et au processus politique.

Cela dit, Facebook pourrait-elle expliquer pourquoi elle a choisi de ne pas retirer la vidéo de Nancy Pelosi qui donne une fausse impression d'elle pour miner sa réputation publique? La raison pour laquelle je crois que c'est très important, c'est que nous savons tous très bien que la nouvelle technologie va faciliter la création de ces sortes de documents faux ou manipulés. Vous pourriez peut-être expliquer pourquoi Facebook ne va pas retirer ce film.

M. Neil Potts:

Merci, monsieur Collins.

Je suis heureux d'expliquer de façon un peu plus claire notre approche à l'égard de la désinformation pour le Comité.

D'abord, je tiens à exprimer clairement que nous prenons des mesures contre cette vidéo...

M. Damian Collins:

Je suis désolé, monsieur Potts, mais nous n'avons pas beaucoup de temps. J'aimerais que vous répondiez à la question qui vous a été posée, plutôt que de faire une déclaration au sujet des politiques de Facebook sur la désinformation ou ce que vous auriez pu faire d'autre. J'aimerais que vous répondiez à la question: pourquoi vous, contrairement à YouTube, ne retirez pas ce film?

M. Neil Potts:

Nous prenons des mesures dynamiques pour déclasser ce...

M. Damian Collins:

Je sais que vous êtes en train de le déclasser. Pourquoi ne retirez-vous pas le film?

M. Neil Potts:

Nous avons pour politique d'informer les gens lorsque nous détenons des renseignements sur la plateforme qui pourraient être faux, pour qu'ils puissent prendre leurs propres décisions au sujet de ce contenu.

M. Damian Collins:

Mais il s'agit de contenu qui est largement considéré, à mon avis, comme étant faux. YouTube l'a retiré. Les vérificateurs des faits qui travaillent auprès de Facebook disent que c'est un faux; pourtant, on permet que la vidéo reste en ligne, et sa présence est beaucoup plus puissante que toute clause de non-responsabilité qui pourrait être écrite en dessous ou au-dessus.

Pourquoi ne dites-vous pas que les films qui sont clairement faux et sont désignés de façon indépendante comme étant faux, qui sont là pour tromper les gens par rapport à certains des politiciens les plus chevronnés de notre pays, seront retirés?

M. Neil Potts:

Nous effectuons des recherches sur nos traitements de l'information. C'est le traitement qui révèle que quelque chose est faux. Par exemple, si quelqu'un souhaitait partager cette vidéo avec ses amis ou qu'il l'avait déjà partagée ou la voyait dans un fil de nouvelles, il recevrait un message disant que c'est faux.

M. Damian Collins:

Facebook accepte que ce film soit une déformation des faits, n'est-ce pas?

M. Kevin Chan:

Monsieur Potts, vous êtes plus près de cela, mais je crois comprendre que la vidéo en question a été ralentie. Est-ce bien le cas?

M. Neil Potts:

C'est exact. Je crois que c'est manipulé...

M. Damian Collins:

C'est un film qui a été manipulé pour créer l'impression déformée que Nancy Pelosi était en quelque sorte en état d'ébriété lorsqu'elle parlait. C'est ce qui s'est produit et c'est pourquoi YouTube a retiré le film et pourquoi il y a eu une reconnaissance générale, y compris par les vérificateurs des faits indépendants qui travaillent pour Facebook, que ce film est déformé et qu'il crée une impression déformée de la personne qui vient au troisième rang des politiciens les plus expérimentés aux États-Unis.

(1110)

M. Neil Potts:

Puisque vous avez mentionné les vérificateurs des faits, nous travaillons avec plus de 50 vérificateurs des faits à l'échelle internationale qui sont...

M. Damian Collins:

Ce n'est pas remis en question. Les vérificateurs des faits reconnaissent que c'est faux. Vous dites que la vidéo peut rester là. Ne voyez-vous pas que ce que Facebook fait donne le feu vert à quiconque dans le monde veut faire un film déformé ou un faux documentaire au sujet d'un politicien d'expérience, ou peut-être utiliser dans l'avenir la technologie des hypertrucages pour le faire, en sachant que, peu importe ce qui se passe, Facebook ne va pas retirer le film?

M. Neil Potts:

Je crois que vous posez une question philosophique, monsieur. Devrions-nous retirer le film ou aviser les gens qu'il est faux? Nous avons choisi d'aviser les gens que c'est faux, de manière à ce qu'ils comprennent pourquoi la vidéo se trouve sur la plateforme et quelles autres parties indépendantes ont jugé qu'elles l'étaient. Elles ont considéré qu'elle était fausse et elles voient maintenant cela sur notre plateforme si elles y vont pour la partager. À mon avis, toutes ces questions sont très complexes, mais cela permet aux gens de prendre leurs propres décisions et de dire aux autres qu'elle est fausse.

Vous avez mentionné que la vidéo est ralentie, ce que tout le monde et les vérificateurs des faits ont dit, mais je crois qu'il existe de nombreux cas différents où les vidéos sont ralenties et ne seraient peut-être pas une justification pour le Comité...

M. Damian Collins:

La question ici, c'est de dire que si quelqu'un fait un film, ralentit un film ou le manipule, il essaie de créer la fausse impression qu'une personnalité publique d'expérience n'est pas apte à assumer ses fonctions, c'est donc une tentative de lui nuire, ainsi que nuire à sa charge publique.

Ce n'est pas une question d'opinion ni de liberté de parole. C'est une question de gens qui manipulent du contenu pour nuire à des personnalités publiques, et ma préoccupation, c'est que le fait de laisser ce type de contenu en ligne, que l'on sait faux et déformé de manière indiscutable, et de permettre le partage de ce contenu et la promotion par d'autres utilisateurs est irresponsable.

YouTube a retiré ce contenu. Je ne comprends pas pourquoi Facebook ne fait pas la même chose.

M. Neil Potts:

Monsieur, je comprends vos préoccupations, mais je crois que vos questions sont les bonnes et qu'elles révèlent la complexité de cet enjeu et aussi peut-être le fait que l'approche que nous adoptons fonctionne. Vous n'entendez pas les gens...

M. Damian Collins:

Désolé, mais avec tout le respect que je vous dois, ce que cela montre, c'est la simplicité de ces enjeux, la solution de simplicité qu'a choisie une autre entreprise, reconnaissant les mêmes enjeux. Il s'agit simplement de dire que c'est clairement faux et déformé, que c'est fait pour nuire à des personnalités publiques d'expérience et que cela ne devrait en fait pas avoir sa place sur la plateforme ni faire partie de votre communauté.

M. Neil Potts:

Vous avez raison, et je respecte évidemment l'opinion de YouTube comme entreprise indépendante, mais nous n'entendons pas des gens parler de cette vidéo comme si elle était réelle. Nous les entendons plutôt discuter du fait qu'elle est fausse et qu'elle se trouve sur la plateforme; donc, par rapport à la question de savoir si nous avons informé les gens du fait que la vidéo était fausse, oui, nous l'avons fait. Je crois que c'est le discours prédominant en ce moment. Que ce soit dans la conversation que nous tenons en ce moment, que ce soit dans les nouvelles ou ailleurs, les gens comprennent que cette vidéo est fausse, et ils peuvent prendre d'autres décisions à partir de là.

M. Damian Collins:

Mon inquiétude à ce sujet, c'est que cela établit un précédent très dangereux. Votre collègue Monika Bickert a dit la semaine dernière à CNN que, essentiellement, Facebook a pour politique de ne pas retirer tout contenu politique, tout contenu de désinformation lié aux politiques: on mettrait des notes pour les utilisateurs afin qu'ils voient que les faits sont contestés, mais le contenu ne sera jamais retiré.

Si vous acceptez que des gens qui produisent des films de désinformation ciblant des utilisateurs dans le but de miner la démocratie abusent ainsi de votre plateforme, et que la meilleure solution, que vous ayez trouvée, c'est simplement de les signaler pour dire que certaines personnes contestent ce film, je crois que vous créez un précédent très dangereux.

Le président:

Merci, monsieur Collins.

Nous allons maintenant passer à M. Erskine-Smith.

Allez-y, pour cinq minutes.

M. Nathaniel Erskine-Smith:

Merci beaucoup.

Vous parlez assez souvent à M. Zuckerberg, parce que vous êtes ici en son nom. Rappelez-moi pourquoi il n'est pas ici aujourd'hui.

M. Neil Potts:

Je suis désolé, monsieur. Je n'arrive pas à voir votre nom.

M. Nathaniel Erskine-Smith:

C'est M. Erskine-Smith.

M. Neil Potts:

Monsieur Erskine-Smith, M. Zuckerberg et Mme Sandberg nous ont chargés de représenter l'entreprise ici aujourd'hui. Nous sommes des experts en la matière dans ces domaines et sommes plus qu'heureux d'avoir l'occasion d'être ici, mais je veux...

M. Nathaniel Erskine-Smith:

Il a dit: « J'ai hâte de discuter de ces problèmes avec les législateurs du monde entier » il y a moins de deux mois. Il ne voulait pas juste dire ces législateurs-là, mais aussi d'autres législateurs, j'en suis sûr.

Je vais parler de la protection de la vie privée. Dans son plus récent rapport, notre commissaire à la protection de la vie privée a dit que le cadre de protection de la vie privée de Facebook était « une coquille vide ». Puis, le 7 mai, devant le Comité, notre commissaire à la protection de la vie privée a dit que les conclusions s'appliquent toujours, soit que c'est une coquille vide. Si Facebook prend au sérieux la protection de la vie privée, et j'entends M. Chan dire qu'il le fait — ce ne sont pas mes mots; ce sont ceux du commissaire à la protection de la vie privée — pourquoi avait-il « rejeté d'emblée ou refusé de mettre en œuvre » les recommandations du commissaire à la protection de la vie privée?

M. Kevin Chan:

Vu que le commissaire a annoncé qu'il allait porter l'affaire devant la Cour fédérale, nous sommes en quelque sorte limités dans ce que nous pouvons dire, mais ce que je peux vous raconter, c'est que...

M. Nathaniel Erskine-Smith:

Vous n'êtes pas du tout limité dans ce que vous pouvez dire, monsieur Chan.

M. Kevin Chan:

Je vais continuer avec ce que je peux vous raconter, c'est-à-dire que nous avons en fait travaillé très dur au cours des derniers mois pour parvenir à une résolution et à une marche à suivre avec le commissaire à la protection de la vie privée du Canada...

M. Nathaniel Erskine-Smith:

Donc vous n'avez pas rejeté d'emblée ou refusé de mettre en œuvre les recommandations.

M. Kevin Chan:

Je crois que nous avons entamé une conversation sur la façon dont nous pourrions atteindre les objectifs que nous recherchons tous.

(1115)

M. Nathaniel Erskine-Smith:

Lorsque le commissaire à la protection de la vie privée a écrit ces mots précis dans son rapport particulier, il avait tort, à votre avis.

M. Kevin Chan:

Je ne... Si je peux me permettre, j'aimerais juste expliquer un peu plus, parce que je suis limité dans ce que je peux dire...

Le président:

En fait, monsieur Chan...

Monsieur Chan, la priorité est donnée aux membres du Comité, donc si vous voulez continuer de parler, vous devez entendre.

M. Nathaniel Erskine-Smith:

Mark Zuckerberg a aussi dit que l'avenir est privé. Fait intéressant, cependant, selon la politique sur la protection de la vie privée de Facebook en 2004, l'entreprise n'avait pas et n'utiliserait pas de témoins pour recueillir des renseignements privés auprès de tout utilisateur. Cela a changé en 2007. Au départ, Facebook a donné aux utilisateurs la capacité d'empêcher la collecte de leurs renseignements personnels par des tiers, et cela a aussi été changé.

Quand M. Zuckerberg a dit que l'avenir est privé, veut-il dire que l'avenir retourne à notre passé, lorsqu'on se souciait davantage de la protection de la vie privée que des profits?

M. Kevin Chan:

Je crois que nous faisons des pieds et des mains pour repenser ce à quoi les services de communications en ligne vont ressembler. Je pense que beaucoup de choses intéressantes ont été écrites, pas juste par des gens de l'entreprise, mais dans le monde entier. Nous voyons une ligne de tendance où les gens se concentrent de plus en plus sur les communications individuelles. Elles sont privées, par définition, mais ce que cela soulève, monsieur, en matière de questions de politiques publiques, c'est un équilibre très intéressant entre la protection de la vie privée et l'accès légitime à de l'information ainsi que des questions d'encryptage. Ce sont de fortes tensions. Je crois qu'elles ont été soulevées plus tôt, y compris dans des législatures précédentes au Canada, mais nous espérons dialoguer sur ces questions.

M. Nathaniel Erskine-Smith:

Pour ce qui est de dialoguer sur ces questions, le RGPD a été adopté par l'Union européenne. Nous avons déjà recommandé, au Comité, que le Canada aille plus loin.

L'an dernier, Facebook a fait 22 milliards de dollars, et Alphabet, 30 milliards de dollars. Dans le passé, vous avez utilisé des millions de ces dollars pour des activités de lobbyisme contre le RGPD. Maintenant, vous convenez que c'est une norme qui devrait être en place ou que des normes semblables devraient être en place.

J'aimerais une réponse simple par oui ou non, monsieur Chan et monsieur Slater.

M. Kevin Chan:

Oui, nous appuyons pleinement le RGPD.

M. Nathaniel Erskine-Smith:

Et vous, monsieur Slater?

M. Colin McKay (chef, Relations gouvernementales et politiques publiques, Google Canada):

Si vous n'y voyez pas d'inconvénient, monsieur Erskine-Smith, je vais répondre en tant qu'expert en matière de protection de la vie privée.

M. Nathaniel Erskine-Smith:

Bien sûr.

M. Colin McKay:

Oui.

M. Nathaniel Erskine-Smith:

M. McNamee était ici et il a dit que le consentement ne devrait peut-être pas être la seule règle en jeu et que, dans certains cas, nous devrions simplement interdire certaines pratiques. Il a utilisé le suivi sur le Web.

À quand remonte la dernière fois que Google a lu mes courriels pour me cibler au moyen de publicités? C'était il y a combien d'années?

M. Colin McKay:

Nous avons cessé d'utiliser votre contenu Gmail pour faire de la publicité en 2017. Ce contenu était propre à vous. Cette information n'a jamais été communiquée à l'externe.

M. Nathaniel Erskine-Smith:

Est-ce quelque chose que nous devrions songer à interdire, de sorte que les personnes ne pourraient jamais consentir à ce que leurs courriels soient lus afin qu'on puisse les cibler au moyen de publicités? Seriez-vous à l'aise avec cette idée?

M. Kevin Chan:

C'est certainement la pratique en ce moment. J'hésite à utiliser le mot « interdiction », parce qu'un vaste éventail de services qui pourraient être utilisés dans ce contexte particulier sont raisonnables.

M. Nathaniel Erskine-Smith:

L'autorité de la concurrence allemande a dit ceci en février dernier: En raison de la position de l’entreprise sur le marché, une acceptation obligatoire des conditions générales d’utilisation n’est pas une base suffisante pour un traitement des données aussi intensif. Le seul choix qui s'offre à l'utilisateur est d'accepter la combinaison complète des données ou de s'abstenir d'utiliser le réseau social. Dans une situation aussi difficile, le choix de l'utilisateur ne peut être considéré comme un consentement volontaire.

Messieurs Chan et Slater, croyez-vous que la protection de la vie privée est une considération clé dans les décisions relatives à la concurrence et aux fusions, et les autorités de la concurrence du monde entier devraient-elles tenir compte des questions sur la protection de la vie privée?

M. Kevin Chan:

Je suis désolé. Pourriez-vous répéter la question, juste pour que je m'assure que je la comprends?

M. Nathaniel Erskine-Smith:

Êtes-vous d'accord pour dire que les autorités de la concurrence du monde entier devraient examiner la protection de la vie privée — tout comme elles examinent actuellement les prix — et la collecte de données de nos renseignements personnels comme considération clé dans le droit de la concurrence et au moment d'examiner des fusions et des acquisitions?

M. Kevin Chan:

C'est une question de politiques publiques très intéressante. On peut supposer que certains...

M. Nathaniel Erskine-Smith:

Vous pouvez juste répondre par oui ou non.

M. Kevin Chan:

Ce sont des questions complexes, monsieur, comme vous pouvez le comprendre, et si vous me le permettez, j'aimerais juste dire quelques mots de plus par rapport à cette question, car je crois que c'est compliqué.

Je crois qu'il est clair que les politiques en matière de concurrence et celles sur la protection de la vie privée sont assez différentes. Je soupçonne que les autorités responsables de la protection des données dans le monde entier auraient des points de vue très différents par rapport au fait de savoir si c'est ou non approprié de déverser des concepts propres à d'autres domaines dans la loi sur la protection des données.

M. Nathaniel Erskine-Smith:

Ce n'est pas ce que je dis. Je demande si, puisque nous protégeons actuellement les consommateurs par rapport au prix, nous ne devrions pas les protéger par rapport à la vie privée? Nous avons une autorité de la concurrence allemande qui laisse entendre que nous devrions le faire.

M. Kevin Chan:

Je vois, je suis désolé. Je comprends mieux ce que vous dites.

(1120)

M. Nathaniel Erskine-Smith:

J'ai lu directement une citation de l'autorité de la concurrence allemande.

M. Kevin Chan:

Vous avez tout à fait raison de dire que la protection des données... que nous devrions traiter la protection de la vie privée comme le pilier fondamental de l'économie numérique.

M. Nathaniel Erskine-Smith:

Du droit de la concurrence.

M. Kevin Chan:

Je crois que ce sont deux choses très distinctes. Je ne suis pas le seul à le croire. Je pense que si vous parlez aux autorités de la concurrence et aux autorités de la protection des données, elles pourraient très bien arriver à des points de vue semblables.

M. Nathaniel Erskine-Smith:

Ce n'est pas l'extrait que je vous ai lu.

M. Kevin Chan:

Nous sommes bien au courant de cela. J'ai parlé de cette question avec certains de mes collègues en Allemagne. Selon notre compréhension, le RGPD doit évidemment être appliqué et interprété par les autorités responsables de la protection des données en Europe.

Le président:

Merci.

Nous allons continuer.

Nous passons maintenant à M. Gourde, pour cinq minutes. [Français]

M. Jacques Gourde (Lévis—Lotbinière, PCC):

Merci, monsieur le président.

Les plateformes numériques que vous représentez ont mis au point, au fil des années, des outils très performants, même excessivement performants. Vous êtes en train de mener une course effrénée à la performance. Or, ce n'est pas nécessairement pour le bien-être de l'humanité, mais plutôt pour les intérêts personnels de vos compagnies.

Je vais faire une analogie. Vous avez conçu des automobiles qui peuvent rouler jusqu'à 250 kilomètres à l'heure, mais vous les louez à des utilisateurs qui roulent à cette vitesse dans des zones scolaires. Vous avez mis au point des outils qui sont devenus dangereux, qui sont devenus des armes.

En tant que législateur, je n'accepte pas que vous rejetiez du revers de la main la responsabilité que vous avez à cet égard. Ces outils vous appartiennent, vous les avez dotés de fonctions, mais vous ne choisissez pas nécessairement les utilisateurs. Vous louez donc vos outils de façon commerciale à des gens qui les utilisent à mauvais escient.

Au cours de l'élection que nous allons vivre dans quelques mois au Canada, aurez-vous la capacité technique d'arrêter immédiatement toute fausse nouvelle, toute forme de publicité haineuse ou toute forme de publicité qui porterait atteinte à notre démocratie? Pourrez-vous agir de façon très rapide? À la rigueur, pourrez-vous enrayer toute publicité pendant les élections au Canada et dans les autres pays, si vous ne pouvez pas nous garantir le contrôle absolu des publicités qui peuvent être placées sur vos plateformes?

Nous allons commencer par les représentants de Facebook, puis j'aimerais entendre ceux de Google et de Twitter.

M. Kevin Chan:

Merci beaucoup, monsieur Gourde.

Je vais commencer par dire que c'est sûr que nous voulons faire tout ce que nous pouvons pour protéger l'élection d'octobre 2019.

Comme vous le savez, nous travaillons en étroite collaboration avec le Parti conservateur, le Nouveau Parti démocratique et le Parti libéral. Il faut mentionner aussi les autres partis, comme le Parti vert, le Parti populaire, le Bloc québécois...

M. Jacques Gourde:

Excusez-moi, monsieur Chan, mais ce n'est pas une question de partis. Il est question de la population qui devra faire un choix en s'appuyant sur des informations que nous allons lui communiquer, et non pas sur de fausses informations.

Avez-vous la capacité d'arrêter rapidement la diffusion de fausses informations ou même d'enrayer carrément toute publicité qui peut être mise sur vos plateformes, si vous n'en avez pas le contrôle?

M. Kevin Chan:

Merci de la question.

Ici, au Canada, nous avons une équipe qui travaille sur chaque élection. Nous avons fait cela en Ontario, au Québec, en Colombie-Britannique, à l'Île-du-Prince-Édouard, au Nouveau-Brunswick...

M. Jacques Gourde:

Ne me nommez pas toutes les provinces.

Je veux savoir si vous avez la capacité d'enrayer en tout temps toute publicité haineuse ou toute fausse information durant la prochaine élection.

M. Kevin Chan:

Pour le moment, au cours de toutes les autres élections, il n'y a pas eu de problèmes que nous n'ayons pu résoudre rapidement.

M. Jacques Gourde:

Merci.

Je pose la même question aux représentants de Google. [Traduction]

M. Derek Slater:

Il est absolument essentiel de bien faire les choses. Nous investissons fortement dans des activités visant à prévoir et à prévenir les tentatives de miner l'intégrité électorale. Pour ce faire, nous rendons des renseignements utiles accessibles dans des recherches ou nous traitons avec les acteurs qui pourraient faire des déclarations trompeuses ou donner d'eux-mêmes une image inexacte dans des publicités.

M. Carlos Monje:

Twitter a consacré beaucoup de temps à l'amélioration de notre capacité interne de repérer ce type de désinformation. Nous avons tiré des apprentissages des élections dans le monde entier. Nous avons activement dialogué avec la société civile ici, et récemment durant les élections en Alberta, et nous estimons être très bien préparés. Toutefois, nous ne pouvons pas perdre de vue le prix. Ce sont les gens qui veulent manipuler la conversation qui continueront d'innover, et nous continuerons d'innover afin d'avoir une longueur d'avance sur eux.

(1125)

[Français]

M. Jacques Gourde:

À la suite de vos réponses, je reste dans le doute et dans l'inquiétude.

Vos véhicules peuvent rouler à 250 kilomètres à l'heure, mais la limite sur l'autoroute est de 100 kilomètres à l'heure. Êtes-vous capables de réduire la capacité de vos outils, pour que ce soit juste et équitable envers tout le monde?

Qu'est-ce que cela donne d'avoir des outils si performants, si c'est pour faire le mal, alors qu'une moins grande performance pourrait servir le bien de l'humanité?

M. Kevin Chan:

Si vous me le permettez, je vais m'exprimer en anglais pour être plus clair, puisque c'est ma langue maternelle.[Traduction]

J'aimerais juste dire, monsieur Gourde, que c'est exactement ce que nous allons faire. Le mois prochain, comme votre parti et d'autres partis au Canada le savent, nous présenterons un processus très intensif pour quiconque veut publier des publicités politiques. Nous obligerons ces gens à obtenir une autorisation ou à démontrer qu'ils sont Canadiens. Nous devrons valider indépendamment le fait qu'ils sont Canadiens, puis nous leur donnerons un code — ou une clé, si vous le voulez — avec quoi ils devront s'authentifier avant de pouvoir diffuser une publicité.

Ce processus ne se fera pas dans une heure ou une journée, mais sur plusieurs jours. Je vous garantis que nous dialoguerons et travaillerons en étroite collaboration avec tous les partis politiques du Canada pour les guider dans le cadre de ce processus. Concernant les ralentisseurs ou les freins, je dirais que ce sera un mécanisme de ralentissement important dans le système, mais je crois que c'est ce qu'il faut faire pour assurer la transparence des publicités, pour réglementer le droit de faire des publicités politiques et pour se prémunir contre l'ingérence étrangère.

Le président:

Merci, monsieur Gourde.

Le prochain est M. Angus.

M. Charlie Angus:

Merci, monsieur le président.

Merci beaucoup de ces exposés. Ils sont très utiles.

Monsieur Chan, nous savons que M. Zuckerberg et Mme Sandberg sont des personnes très importantes. Sont-elles occupées aujourd'hui?

M. Kevin Chan:

Je ne suis pas au courant de leur horaire aujourd'hui, mais je crois que c'est exact. Elles ont malheureusement dû transmettre leurs excuses.

M. Charlie Angus:

D'accord.

Je vais essayer de comprendre la gouvernance d'entreprise de Facebook. Vous venez du milieu politique canadien. Vous avez travaillé pour le Parti libéral. Nous sommes en quelque sorte doux et dociles ici, au Canada. Je n'ai même pas souvenir qu'on ait délivré une assignation au chef d'une société. Je ne connais personne qui ait déjà décidé de faire fi d'une assignation.

J'ose croire qu'ils ont quelque chose de vraiment pressant qui les garde occupés. Quand M. Zuckerberg a parlé récemment, comme mon collègue l'a souligné, au sujet de sa volonté, de son désir de parler avec les législateurs, est-ce que c'était une blague?

Ma question s'adresse à M. Chan. J'aimerais savoir ce qu'il en pense, parce qu'il nous représente au Canada.

M. Kevin Chan:

Eh bien, monsieur, je dois dire que nous souhaitons beaucoup collaborer avec le Parlement et le gouvernement du Canada. L'élection qui s'en vient sera importante, et elle sera importante pour nous afin que nous fassions bien les choses à Facebook. Nous voulons assurer une élection libre et juste. C'est pourquoi nous avons fait tout ce que nous avons fait.

Nous nous conformons au projet de loi C-76. À ma connaissance, nous pourrions être la seule entreprise représentée ici qui va de l'avant avec un système d'architecture pour le faire. Nous avons réagi rapidement aux promoteurs de haine au Canada, autant les organisations que les particuliers, et nous avons signé la Déclaration du Canada sur l'intégrité électorale. J'aimerais...

M. Charlie Angus:

Oui, et je vous en remercie. Désolé, je n'ai que quelques minutes.

Je reconnais ce travail. Je suis un grand admirateur de Facebook.

M. Kevin Chan: Merci, monsieur.

M. Charlie Angus: J'ai beaucoup parlé des outils puissants qu'il offre dans les collectivités autochtones que je représente.

Mon inquiétude a trait à cette idée d'adhésion et de retrait de Facebook quand il s'agit de la législation nationale. Tout d'abord, vous avez fait fi d'une assignation du Parlement, parce que M. Zuckerberg pourrait être occupé. C'est peut-être son jour de congé. Je ne sais pas.

Vous avez récemment été reconnu coupable par notre organisme de réglementation de la violation par Cambridge Analytica. M. Therrien a dit ceci: Le risque est élevé pour les Canadiens qui utilisent Facebook de voir leurs renseignements personnels utilisés à des fins qui leur sont inconnues pour lesquelles ils n'ont pas consenti et qui peuvent être contraires à leurs intérêts ou à leurs attentes. Les préjudices peuvent être très réels, notamment le [...] politique et la surveillance.

Ce qui était frappant, c'est que Facebook n'a pas reconnu que nous avons compétence sur nos propres citoyens. Si vous dites que vous êtes prêts à travailler avec les parlementaires, je ne comprends pas cette adhésion quand cela fonctionne pour Facebook et ce retrait quand...

Pourriez-vous me donner un exemple d'une entreprise qui dit qu'elle ne reconnaît juste pas si oui ou non nous avons compétence sur nos citoyens?

(1130)

M. Kevin Chan:

Monsieur, j'ai aussi été surpris quand j'ai vu ces rapports, et j'ai donc lu l'affaire avec attention et j'en ai parlé à un conseiller juridique.

Ce que je comprends, c'est que cela faisait allusion au fait que, à notre connaissance, selon les données probantes disponibles dans le monde et les preuves documentées, pas seulement en ce qui concerne des contrats et des choses du genre, mais aussi selon des témoins qui ont des récits de première main, aucune donnée de Canadiens ou, en fait, d'utilisateurs non américains n'a jamais été transférée à Cambridge Analytica. Je crois, si je peux...

M. Charlie Angus:

D'accord, mais sur ce point — je n'ai que peu de temps — 622 000 Canadiens se sont vu prendre leurs données. Facebook en a eu connaissance en 2015, et l'entreprise n'a rien dit jusqu'à ce qu'elle ait été exposée à l'échelle internationale, en raison de la violation dont s'est rendue coupable Cambridge Analytica. Il s'agissait d'une violation du droit canadien en contravention de la LPRPDE.

Vous connaissez cette loi; pourtant, le fait de dire aux législateurs canadiens que nous devions prouver les préjudices individuels avant que Facebook puisse reconnaître la compétence, pour moi, ce serait la même chose qu'une entreprise automobile internationale qui dit: « Oui, il y a eu de nombreux décès au Brésil; oui, il y a eu des morts en masse aux États-Unis; oui, il y a eu des morts en masse dans toute l'Europe; mais puisque personne n'est mort dans un accident automobile au Canada, nous n'allons pas nous conformer à la loi canadienne ».

Comment décidez-vous quelles lois vous respectez et quelles lois ne s'appliquent pas à vous? Pourquoi pensez-vous cela?

M. Kevin Chan:

Monsieur Angus, avec tout le respect que je vous dois, nous respectons entièrement la loi...

M. Charlie Angus:

Non, vous ne le faites pas. Vous ne reconnaissez pas notre compétence.

M. Kevin Chan:

... comme le sait le Parlement du Canada.

M. Charlie Angus:

Comment pouvez-vous nous dire cela sans broncher, monsieur Chan? Comment est-ce possible?

M. Kevin Chan:

Parce que c'est la vérité, monsieur.

M. Charlie Angus:

Donc nous devons vous traduire devant les tribunaux pour que vous reconnaissiez que nous avons la compétence de protéger nos citoyens, après que vous avez caché une violation dont vous étiez au courant depuis trois ans et n'avez rien fait pour nous le dire, car vous ne vouliez pas mettre fin à votre modèle opérationnel.

M. Kevin Chan:

Pour ce qui est de l'intégrité des élections, nous respectons la loi...

M. Charlie Angus:

Je parle du droit à la vie privée des Canadiens et de la violation de notre loi dont vous avez été reconnu coupable. C'est la question.

M. Kevin Chan:

Nous pouvons aussi en parler, monsieur, dans le temps qu'il nous reste, si vous me le permettez.

Comme je l'ai dit, nous voulions parvenir à une résolution avec le commissaire. Il a décidé de nous amener devant les tribunaux, ce qui est bien sûr le cadre qui est prescrit pour lui...

M. Charlie Angus:

Il devait vous traduire en justice, parce que vous ne vouliez pas reconnaître que nous, en tant que législateurs, avions même compétence sur nos propres citoyens. Il ne s'agit pas de parvenir à une résolution. C'est comme dire: « Hé, Facebook, est-ce que cela vous va si nous venons jeter un coup d'œil et que nous arrangeons les choses? » Ce n'est pas ainsi que la loi fonctionne. Peut-être que c'est ainsi que cela fonctionne pour M. Zuckerberg, mais sur la scène internationale, ce n'est pas comme ça, et c'est pourquoi nous sommes ici. C'est parce que nous avons des législateurs internationaux qui sont frustrés...

M. Kevin Chan:

Nous avons le plus grand respect pour...

M. Charlie Angus:

... par le manque de respect du droit international.

M. Kevin Chan:

Nous avons le plus grand respect pour le droit au Canada et pour l'autorité juridique dans le monde.

Le président:

Merci.

Nous allons maintenant passer à M. Tong, de Singapour.

M. Edwin Tong (ministre d'État principal, Ministère de la justice et Ministère de la santé, Parlement de Singapour):

Mon temps est limité, donc je vous serais reconnaissant si vous vous en teniez à mes questions et donniez directement les réponses.

Nous avons beaucoup entendu parler de ce que vous souhaitez faire, des gens avec qui vous avez noué un dialogue, des gens que vous souhaitez voir et de la façon dont vous allez travailler sur vos politiques, mais voyons juste ce qui se passe dans la réalité et ce qui continue d'apparaître sur vos plateformes.

Pour ce faire et pour gagner du temps, j'ai préparé un petit document qui résume plusieurs cas, et je suis certain que vous les connaissez. Veuillez juste les parcourir rapidement. Ce sont tous des cas qui ont été sensationnels. Ils sont tous devenus viraux rapidement. Ils ont probablement été amplifiés par des trolls et des bots — de faux comptes. Ils incitent à la peur, ils causent une désaffection et des tensions et ils s'attaquent à des lignes de faille sociales qui divisent: la race, la religion et l'immigration.

Un fait essentiel, c'est que ce sont tous de faux renseignements également, et tout cela a entraîné des préjudices dans le monde réel: des blessures physiques, des décès, des soulèvements, l'accentuation des divisions et des lignes de faille entre les religions et les races, qui ont causé de la peur.

Si vous pouvez juste aller à la dernière page du document et regarder le Sri Lanka, en avril 2019. Le chef des terroristes ayant fait exploser des bombes à Pâques au Sri Lanka avait publié des vidéos qui se trouvaient sur vos plateformes — Facebook et YouTube — pendant au moins six mois avant les attentats à la bombe proprement dits. Dans les vidéos, il dit: « les non-musulmans et les gens qui n'acceptent pas les musulmans peuvent être tués, en plus des femmes et des enfants ». Ailleurs, il dit: « Nous pouvons tuer des femmes et des enfants avec des bombes. C'est juste. »

Il s'agit clairement d'un discours haineux, n'est-ce pas?

M. Neil Potts:

C'est un discours haineux.

M. Edwin Tong:

Et c'est une violation de vos propres politiques, est-ce exact?

M. Neil Potts:

Ce serait une violation de nos politiques. C'est exact, monsieur.

M. Edwin Tong:

Ces passages, publiés des mois avant les attentats de Pâques, prédisent ce qu'il va se passer, et c'est arrivé, horriblement, en avril, de la même manière que ce prêtre allégué, M. Zahran Hashim, a dit que cela arriverait — des bombes ont tué des femmes et des enfants — sur vos plateformes.

Pourquoi? Pourquoi est-ce que cela n'a pas été retiré?

M. Neil Potts:

Merci, monsieur Tong.

Rapidement, juste pour...

(1135)

M. Edwin Tong:

Non, veuillez répondre à ma question. Pourquoi cela n'a-t-il pas été retiré? Vous dites que c'est une violation de vos propres politiques. Pourquoi la vidéo n'a-t-elle pas été retirée en septembre 2018?

M. Neil Potts:

Quand nous prenons connaissance de ce contenu, nous le retirons. Si ce n'est pas signalé ou si nous ne l'avons pas repéré de manière proactive, alors nous ne le retirons pas, car honnêtement, nous ne savons pas que ça existe.

J'aimerais dire que nos pensées vont aux gens du Sri Lanka et d'ailleurs que vous avez mentionnés ici, dans votre document. La violence ethnique intercommunautaire est une chose horrible. Nous ne voulons pas que nos plateformes soient entraînées dans ces activités et utilisées à ces fins. En fait, nous avons pris des mesures vigoureuses pour nous y attaquer. Nous avons maintenant plus de 30 000 personnes qui travaillent à la sécurité...

M. Edwin Tong:

Monsieur Potts, je n'ai pas besoin de discours sur ce que vous allez faire.

M. Neil Potts:

Je m'excuse.

M. Edwin Tong:

Quelle est la difficulté de comprendre que les phrases: « Nous pouvons tuer des femmes et des enfants avec des bombes. C'est juste » est un discours haineux? Quelle est la difficulté là-dedans?

M. Neil Potts:

La question n'est pas difficile, monsieur Tong. Il s'agit plutôt de repérer le contenu. Si nous ne sommes pas mis au courant de l'existence du contenu, que ce soit au moyen d'un rapport d'utilisateur ou de nos propres mesures proactives, alors nous ne savons pas que ce contenu se trouve sur la plateforme.

M. Edwin Tong:

Donc rien, ni l'intelligence artificielle ou la technologie, ni les vérificateurs des faits ou l'armée de gens qui ont scruté vos plateformes n'a repéré cela huit mois avant l'événement, et vous nous demandez de faire confiance aux processus que vous avez l'intention de mettre en place, d'avoir confiance, car l'intelligence artificielle que vous détenez maintenant le fera dans l'avenir.

M. Neil Potts:

L'intelligence artificielle est un excellent levier pour nous aider à repérer cela. Ce n'est pas parfait. Il n'est pas évident qu'elle permettra de découvrir 100 % des activités, tout comme les humains ne découvriront pas 100 % des activités. Il me faudrait vérifier précisément cette vidéo, mais si nous en avions eu connaissance, nous l'aurions retirée. C'est une décision très directe.

M. Edwin Tong:

Monsieur Potts, si vous faites vos devoirs et vos vérifications, les dirigeants musulmans locaux l'ont signalée sur Facebook, et Facebook ne l'a pas retirée même si l'entreprise était au courant, même s'il s'agissait, comme vous le dites, d'une violation claire de vos propres politiques. J'aimerais savoir pourquoi.

M. Neil Potts:

Monsieur, il me faudrait voir comment le contenu a été partagé. La façon dont vous avez...

M. Edwin Tong:

Vous avez dit, messieurs Potts et Chan, que vous êtes tous deux des spécialistes du contenu. Vous êtes des spécialistes du domaine. Vous êtes ici pour remplacer M. Zuckerberg et Mme Sandberg, et vous devriez le savoir. Cela s'est produit il y a quelques mois, donc pourquoi la vidéo n'a-t-elle pas été retirée, même si Facebook était au courant? Pourriez-vous expliquer pourquoi?

M. Neil Potts:

J'essaie d'expliquer que je ne connais pas la situation. Il faudrait que je vérifie pour m'assurer que nous le savions. Je ne crois pas que nous étions au fait de cette vidéo à ce moment-là.

M. Edwin Tong:

Je dirais que vous n'avez pas retiré la vidéo parce que son contenu était sensationnel, à même de susciter la peur, la violence, la haine et les théories du complot. Comme M. McNamee nous l'a expliqué précédemment, c'est ce qui attire les gens sur vos plateformes. C'est ce qui attire les utilisateurs vers vos plateformes et c'est ainsi que vous générez des profits.

M. Neil Potts:

Monsieur Tong, je rejette cette affirmation. Je la rejette sans réserve. Si nous sommes au fait d'un cas de discours haineux, si nous savons que cela suscite la violence, nous agissons plus rapidement.

Nous avons eu une discussion précédemment sur la mésinformation. Si nous savons qu'un cas de mésinformation peut mener à des préjudices physiques et à de la violence, nous travaillons avec des partenaires dignes de confiance sur le terrain, la société civile et d'autres intervenants, pour qu'ils nous le disent — et même les représentants de l'application de la loi —, puis, en fait, nous retirons le contenu en question.

M. Edwin Tong:

Monsieur Potts, Facebook a été informée de tout cela. Vous pouvez vérifier. Facebook a aussi été informée des problèmes au Sri Lanka en 2018 par le gouvernement sri lankais. L'entreprise a refusé de retirer le contenu parce qu'il ne violait pas ses propres politiques. M. McNamee affirme que, en conséquence, les gouvernements au Sri Lanka, en Indonésie et en Inde ont pris des mesures proactives pour interdire l'accès aux médias sociaux comme Facebook et WhatsApp. Est-ce ainsi que vous voulez que les choses se passent?

Pouvons-nous faire confiance aux politiques que vous mettez en place? Pouvons-nous être sûrs que ce que vous faites et ce que vous mettez en place — les vérifications pour trouver et retirer de tels éléments de contenu — fonctionneront?

Le président:

Merci, monsieur Tong. Il faut passer au prochain intervenant.

Nous tenons à souhaiter la bienvenue à la délégation d'Irlande. Les représentants viennent d'arriver ce matin par avion.

Bienvenue.

Nous allons donner les cinq premières minutes à Hildegarde Naughton.

Mme Hildegarde Naughton (présidente, Comité mixte sur les communications, l'action sur le climat et l'environnement, Parlement de la République d'Irlande):

Merci, monsieur le président. Nous sommes heureux d'être ici cet après-midi.

Je vais commencer par formuler mes questions, puis les entreprises des médias sociaux pourront répondre. J'ai environ trois questions. La première est liée à la protection des données.

Il est évident que vous vous efforcez tous de trouver une façon de rendre les règles claires en matière de protection de la vie privée et de protéger les données des utilisateurs. La mise en place du RGPD a changé complètement la donne en ce qui a trait à la protection des données en Europe. En fait, la commissaire irlandaise à la protection des données a maintenant la tâche de réglementer l'Europe, vu le nombre d'entreprises des médias sociaux dont les sièges sociaux sont situés en Irlande.

Dans les 11 mois qui ont suivi l'entrée en vigueur du RGPD, la commissaire a reçu près de 6 000 plaintes. Elle a dit s'être concentrée sur Facebook parce qu'elle ne pensait pas qu'il pouvait y avoir autant de violations importantes touchant les données associées à une seule entreprise. En outre, à un moment donné, elle était informée de manquements en vertu du RGPD aux deux semaines, alors elle a mis en place une enquête conjointe pour se pencher sur la situation. J'aimerais demander à Facebook de formuler des commentaires sur ses remarques et d'expliquer pourquoi l'entreprise a tellement de difficultés à protéger les données des utilisateurs.

Pour ce qui est de la prochaine question, je vais peut-être demander à Google et Facebook de répondre. Mon collègue James Lawless, le sous-ministre Eamon Ryan et moi avons rencontré plus tôt cette année Mark Zuckerberg, en Irlande, et il a dit qu'il aimerait que le RGPD soit adopté à l'échelle internationale. Certains des plus gros marchés de Facebook se trouvent dans des pays en développement, comme l'Asie et l'Afrique et, parmi les 10 principaux pays, il y en a seulement deux du monde industrialisé, soit les États-Unis et le Royaume-Uni. Certains experts affirment qu'une approche universelle ne fonctionnera pas en ce qui a trait au RGPD, parce que certaines régions ont des interprétations différentes de l'importance de la protection des renseignements personnels.

J'aimerais obtenir le point de vue de Google là-dessus: que pensez-vous de la mise en place d'un RGPD à l'échelle internationale? De quelle façon cela fonctionnerait-il? Devrait-on mettre un tel règlement en place à l'échelle internationale? Et j'aimerais aussi connaître vos préoccupations quant aux différentes interprétations faites de la protection des renseignements personnels.

Et pour terminer, en raison du travail de notre comité responsable des communications dans l'Oireachtas — le Parlement irlandais — le gouvernement irlandais est sur le point de créer un commissaire à la sécurité numérique qui aura le pouvoir juridique de demander le retrait de communications néfastes en ligne. Vu que l'Irlande accueille les sièges sociaux internationaux et européens de nombreuses entreprises des médias sociaux, croyez-vous qu'une telle loi permettra réellement à l'Irlande de réglementer le contenu en Europe et, possiblement, au-delà des frontières européennes?

Quiconque le désire peut répondre en premier.

(1140)

M. Kevin Chan:

Merci, madame. Je tiens à souligner que Neil et moi avons passé du temps avec nos homologues irlandais et qu'ils n'ont que de bonnes choses à dire à votre sujet, alors je suis heureux de vous rencontrer.

En ce qui concerne la question des violations que vous avez mentionnées, évidemment, nous ne sommes pas au courant des renseignements précis qui auraient été envoyés à l'autorité irlandaise responsable de la protection des données, alors je ne peux pas vous parler précisément de cela, mais je peux dire que notre position générale, c'est d'être le plus transparents possible.

Vous — et divers membres du Comité — savez probablement que nous sommes assez francs en ce qui a trait à la communication publique de nos failles, des situations où nous avons trouvé des renseignements justifiant des enquêtes, des situations où nous avons été mis au fait de certaines choses. C'est notre engagement à votre égard, mais aussi à l'égard des utilisateurs partout dans le monde, et je crois que vous continuerez d'entendre parler de ces choses à mesure que nous les découvrons. C'est une position importante pour nous, parce que nous voulons faire la bonne chose, soit informer nos utilisateurs, mais aussi informer le public et les législateurs le plus possible lorsque nous découvrons de telles situations.

Nous voulons être très transparents, et c'est la raison pour laquelle vous entendrez de plus en plus parler de nous. Encore une fois, malheureusement, je ne peux pas vous parler précisément de ce à quoi faisait référence l'autorité responsable de la protection des données.

Mme Hildegarde Naughton:

Google, puis-je, s'il vous plaît, connaître vos points de vue à ce sujet?

M. Colin McKay:

Comme nous l'avons décrit dans notre déclaration préliminaire, nous cherchons des normes internationales applicables à une diversité de cadres sociaux, culturels et économiques. Nous misons sur des cadres fondés sur les principes, particulièrement lorsqu'il est question de protection des données. C'est ce qu'on a pu voir relativement au RGPD et aussi au sujet des principes antérieurs de l'OCDE.

Le fait d'élargir la portée du RGPD au-delà des frontières actuelles est quelque chose que nous jugeons souhaitable. La question est la suivante: de quelle façon peut-on l'adapter dans des administrations précises où il faudra l'appliquer, vu que l'environnement européen et l'histoire européenne en matière de protection des données sont très différents de ce qu'on retrouve ailleurs dans le monde, surtout dans certaines régions du globe, qu'on parle de l'Afrique, ou de l'Asie, que vous avez mentionnées?

Nous sommes d'accord là-dessus. Nous avons même appliqué les mesures de protection accordées aux Européens à l'échelle internationale, mais il faut se demander à quoi cela peut ressembler au sein d'un pays.

Pour ce qui est de votre deuxième question sur le commissaire responsable de la sécurité numérique, je vais céder la parole à M. Slater.

Le président:

Merci, madame Naughton. En fait, le temps est écoulé, alors nous devons passer au prochain délégué. Toutes mes excuses. Nous avons peu de temps.

Pour la prochaine question, nous nous tournons vers la République d'Allemagne.

M. Jens Zimmermann (Parti social-démocrate, Parlement de la République fédérale d'Allemagne):

Merci beaucoup.

Je vais aussi commencer par Facebook. Je suis heureux de rencontrer l'équipe canadienne responsable des politiques publiques. Je connais l'équipe allemande.

Pour commencer, j'aimerais revenir sur ce que mon collègue de Singapour a demandé. À la lumière de l'expérience en Allemagne, j'ai une réponse relativement simple. C'est tout simplement que de nombreuses entreprises — aussi présentes aujourd'hui — n'ont pas assez d'employés pour s'occuper de tous ces problèmes et traiter toutes ces plaintes. Comme cela a déjà été mentionné, l'intelligence artificielle n'est pas toujours suffisante pour faire ce travail. Après l'adoption de la NetzDG en Allemagne, nous avons constaté qu'une augmentation massive du nombre d'employés était nécessaire pour gérer toutes les plaintes et qu'elle permettait aussi d'accroître le nombre de plaintes traitées. Je ne connais pas la situation dans d'autres pays, mais c'est assurément un aspect important.

Je veux poser une question sur une décision antitrust en Allemagne concernant le fait de savoir si les données de Facebook, WhatsApp et Instagram devraient être combinées sans le consentement des utilisateurs. Vous allez à l'encontre de la décision allemande, alors, évidemment, vous n'êtes pas d'accord, mais vous pourriez peut-être décrire un peu plus clairement votre position.

(1145)

M. Kevin Chan:

Merci beaucoup, monsieur. Une de mes collègues au Canada m'a dit avoir passé du temps avec vous, hier, dans le cadre d'une table ronde. Merci beaucoup de l'invitation.

En ce qui a trait aux diverses plateformes, comme vous le savez, nos conditions de service et notre politique sur les données des utilisateurs soulignent le fait que nous allons communiquer l'infrastructure de données entre les divers services. C'est en grande partie, franchement, pour nous assurer de pouvoir offrir un certain niveau de sécurité d'une plateforme à l'autre.

Facebook est une plateforme qui exige la vraie identité des utilisateurs. Nous voulons nous assurer que les gens sont bien qui ils disent être, mais il y a beaucoup de bonnes raisons pour lesquelles on voudra mettre ce même genre de mesures en place sur la plateforme Instagram, par exemple. Il y a de nombreuses situations où — et vous avez entendu parler de tout ce qui concernait même notre lutte coordonnée contre les comportements inauthentiques — pour pouvoir réaliser des enquêtes adéquates à l'échelle du système, nous devons avoir une certaine capacité de comprendre la provenance de certains éléments de contenu et de certains comptes. Le fait d'avoir une infrastructure commune nous permet de relever ce genre de défi de façon très efficace.

M. Jens Zimmermann:

Oui, et cela vous permet aussi de regrouper très efficacement des données et d'accroître votre connaissance des utilisateurs et vos profits. N'est-ce pas là la raison sous-jacente?

Il serait possible, encore une fois, de donner à tous les utilisateurs la capacité de prendre ces décisions. Ce serait très facile, mais je crois que ce serait aussi très coûteux pour vous.

M. Kevin Chan:

Monsieur, je crois que, lorsque vous parlez de notre objectif plus général et de la situation vers laquelle nous nous dirigeons, c'est exact. Nous voulons donner aux gens plus de contrôle. Nous voulons que les gens puissent...

M. Jens Zimmermann:

D'accord, mais alors pourquoi allez-vous à l'encontre de la décision rendue en Allemagne?

M. Kevin Chan:

Je crois que le nœud du problème, encore une fois, tient à la question posée par M. Erskine-Smith: où commence et où se termine la politique sur la concurrence relativement aux limites du droit à la vie privée?

M. Jens Zimmermann:

D'accord. Merci.

Je veux aussi m'adresser à Google. Vous avez mentionné avoir besoin de définitions claires de la notion de « discours illicites ». Je me suis penché sur le rapport allemand sur la transparence, et il s'avère que, des 167 000 plaintes en Allemagne, seulement 145 cas ont exigé que vos collègues se tournent vers des spécialistes pour déterminer si, oui ou non, il était question de discours illicites. Pourquoi, alors, croyez-vous que c'est vraiment problématique? Est-ce vraiment un problème de définition ou est-ce plutôt un problème lié à la gestion du nombre de plaintes et à l'immense quantité de discours haineux en ligne?

M. Derek Slater:

C'est une question très importante. La NetzDG est une loi complexe, mais l'une des composantes pertinentes, ici, c'est qu'elle cerne, si je ne m'abuse, 22 lois précises qu'elle régit.

M. Jens Zimmermann:

En fait, la NetzDG dit essentiellement que, en Allemagne, il faut respecter les lois allemandes, un point c'est tout.

M. Derek Slater:

Je comprends, et ce qui a été dit au sujet de ces 22 lois, c'est: « Voici les exigences en matière de délai de traitement et de rapport sur la transparence ayant mené aux données que vous aviez. » Selon moi, une des choses importantes dans ce cas-ci, c'est qu'on parle précisément de définitions législatives claires. Ces définitions nous permettent ensuite d'agir en fonction d'avis clairs de façon rapide et conformément au cadre législatif.

(1150)

Le président:

Nous allons maintenant passer à la République d'Estonie.

Allez-y, vous avez cinq minutes.

Mme Keit Pentus-Rosimannus (vice-présidente, Parti réformateur, Parlement de la République d'Estonie (Riigikogu)):

Merci.

Je viens d'Europe, de l'Estonie. C'est vrai que, deux jours après les élections européennes, on pourrait dire que vous avez fait des progrès en ce qui a trait au retrait de faux comptes, mais c'est aussi vrai que ces faux comptes n'auraient jamais dû exister d'entrée de jeu.

Ma première question est la suivante: quel genre de changements prévoyez-vous mettre en place pour identifier vos utilisateurs dès le départ?

M. Kevin Chan:

Merci de la question. Je crois que nous sommes prudents, mais heureux des résultats en ce qui a trait au rendement de la plateforme en Europe. Cependant, pour ce qui est des faux comptes, je dirais — et je crois que mon collègue M. Potts l'a mentionné — qu'il y a un genre de course à l'armement entre nous et nos adversaires, les délinquants qui essaient de créer des comptes et du contenu inauthentiques sur la plateforme.

Je crois que nous devons constamment nous améliorer et évoluer...

Mme Keit Pentus-Rosimannus:

De quelle façon pouvez-vous améliorer le processus d'identification initial?

M. Kevin Chan:

L'une des choses que je peux vous dire — et encore là il est question de la publicité politique que nous tentons de gérer —, c'est que nous voulons être assez sûrs de l'identité des personnes qui font de la publicité.

Au Canada, comme je l'ai mentionné précédemment, nous le ferons, et ce ne sera pas facile. Les annonceurs politiques au Canada devront obtenir une preuve d'identité quelconque. Il faudra vérifier de façon indépendante cette preuve d'identité, puis nous enverrons à la personne une clé quelconque — une clé numérique, si vous voulez — qu'elle utilisera pour s'authentifier avant de pouvoir faire de la publicité politique.

C'est très coûteux, et il s'agit d'un investissement important. Ce n'est pas non plus quelque chose qui se fera sans créer certaines frictions. Personnellement, je crains qu'il y ait des situations où les gens voudront publier une publicité sans connaître l'exigence, pour ensuite constater qu'il leur faudra plusieurs jours avant de pouvoir le faire.

Je crains aussi qu'il y ait de faux positifs, mais je crois que c'est la bonne chose à faire pour protéger les élections partout dans le monde et ici même, au Canada, en octobre. Nous sommes prêts à y consacrer le temps et l'argent et, possiblement, à composer avec certaines des frictions pour bien faire les choses.

Mme Keit Pentus-Rosimannus:

D'accord. Merci.

Ma deuxième question concerne les fausses nouvelles et les fausses vidéos. Quelle est votre politique en matière de fausses nouvelles, par exemple, les vidéos truquées? Seront-elles retirées ou indiquera-t-on tout simplement qu'il s'agit de vidéos truquées?

M. Derek Slater:

La question des vidéos truquées... Merci de la question. C'est un nouvel enjeu très important. Nous avons des lignes directrices claires aujourd'hui au sujet du contenu qu'il faut retirer. Si une vidéo truquée est visée par nos lignes directrices, nous la retirerons.

Nous comprenons aussi qu'il faut faire plus de recherches. Nous avons travaillé activement avec la société civile et le milieu universitaire à cet égard.

Mme Keit Pentus-Rosimannus:

Et qu'en est-il de Facebook?

M. Neil Potts:

Merci.

Nous menons aussi des enquêtes et réalisons des recherches sur cette politique pour nous assurer de faire la bonne chose. Actuellement, nous indiquerions que c'est un faux, nous informerions les utilisateurs, mais nous tentons constamment...

Mme Keit Pentus-Rosimannus:

Les vidéos truquées ne seront pas retirées.

M. Neil Potts:

Nous mettons constamment à jour nos politiques, et nous pourrons les mettre à jour à l'avenir, à mesure que les choses évoluent. Nous travaillons avec des organismes de recherche et des gens sur le terrain pour comprendre de quelle façon ces vidéos pourraient se manifester. Comme je l'ai déjà mentionné, si ces vidéos — ou tout type de mésinformation — peuvent mener à des préjudices dans le vrai monde — à des préjudices hors ligne, en fait — nous retirerons le contenu.

Mme Keit Pentus-Rosimannus:

Et du côté de Twitter?

M. Carlos Monje:

Nous partageons la même préoccupation au sujet des vidéos truquées. Si nous constatons que des vidéos truquées sont utilisées pour transmettre de faux renseignements en contravention de nos règles, nous retirerons le contenu.

Mme Keit Pentus-Rosimannus:

Ma dernière question sera à nouveau adressée à M. Collins. C'est la question qui a été posée au début, au sujet de la fausse vidéo de Nancy Pelosi. Disons qu'une vidéo similaire devait être produite, mais qu'elle mettait en scène M. Zuckerberg, serait-elle retirée ou indiqueriez-vous seulement que c'est une fausse vidéo?

Des voix: Ha, ha!

M. Neil Potts:

Je suis désolé, à cause des rires... Je n'ai pas entendu le nom.

Mme Keit Pentus-Rosimannus:

Désolée pour les éclats de rire. Si une vidéo similaire à ce qui a été présenté — la vidéo de Nancy Pelosi — était affichée, mais qu'elle mettait en vedette Mark Zuckerberg, la retireriez-vous ou indiqueriez-vous simplement qu'il s'agit d'une fausse nouvelle?

M. Neil Potts:

Si c'était la même vidéo, mais qu'il s'agissait de M. Zuckerberg plutôt que de la présidente Pelosi, le traitement serait le même.

Le président:

Merci.

Je veux expliquer rapidement ce qui se passe derrière moi. Vos présidents ont décidé de continuer de travailler durant le dîner, alors n'hésitez pas à aller chercher quelque chose. Nous continuerons les témoignages durant le dîner.

Nous passons maintenant au Mexique. Allez-y. Vous avez cinq minutes.

(1155)

L’hon. Antares Guadalupe Vázquez Alatorre (sénatrice):

[Le témoin s'exprime en espagnol et l'interprétation en anglais de ses propos est traduite ainsi:]

Merci. Je vais parler dans ma langue.

J'ai plusieurs questions. Dans le cas de Google, que faites-vous pour protéger les renseignements personnels des gens? Je sais qu'il y a beaucoup de cas de vidéos liés à du sextage qui sont encore accessibles, et quand les victimes de ces vidéos se tournent vers vos bureaux à Mexico — et je suis au fait de plusieurs cas — Google leur dit de présenter la plainte aux États-Unis. On parle de vidéos qui constituent une attaque violente contre une personne et ne peuvent pas être téléchargées. Que faites-vous dans de tels cas?

M. Derek Slater:

Je ne connais pas les cas précis dont vous parlez, mais nous avons des lignes directrices strictes lorsqu'on parle de choses qui peuvent inciter à la violence ou qui constituent des violations de la vie privée, par exemple. Si nous sommes informés et que nous sommes mis au fait de quelque chose du genre, nous passons à l'action, s'il s'agit d'une violation des lignes directrices en question. Je ne suis pas au fait des cas précis, mais je serais heureux de faire un suivi.

L’hon. Antares Guadalupe Vázquez Alatorre:

[Le témoin s'exprime en espagnol et l'interprétation en anglais de ses propos est traduite ainsi:]

J'ai des renseignements sur des cas très précis, mais nous ne savons pas vers qui nous tourner au Mexique, parce que les représentants ne font rien. Nous espérons que vous vous occuperez de ce dossier, parce que les gens doivent attendre des années avant que ces choses soient retirées.

J'aimerais poser une question à Twitter sur la création de tendances au moyen de robots. C'est très courant au Mexique. Chaque jour, il y a des tendances créées par des robots, ce qu'on appelle les fermes de robots. Je ne sais pas quelle est la politique de Twitter, parce que vous semblez permettre les tendances artificielles — ou les mots-clics — lorsqu'ils sont préjudiciables pour quelqu'un. Pourquoi ne laissez-vous pas les tendances se produire de façon organique? Je suis d'accord avec les tendances, des choses deviennent virales et il faut respecter la liberté d'expression, mais pourquoi permettre l'utilisation de robots? Si tout le monde peut détecter ces choses, pourquoi Twitter n'y arrive-t-elle pas?

M. Carlos Monje:

Les tendances mesurent la conversation en temps réel et essaient de distinguer les conversations qui suscitent toujours un haut niveau d'engagement, le Championnat d'Angleterre de football, par exemple, ou les élections mexicaines. Ce que les tendances tentent de cerner, c'est une accélération au-dessus de la moyenne. Lorsque cela se produit de façon organique, comme vous l'avez mentionné, la tendance est différente de ce que l'on constate lorsque le processus est accéléré par des robots.

Depuis 2014, ce qui est il y a très longtemps pour nous, nous avons la capacité de protéger les tendances de ce genre d'activités automatisées non organiques. M. Chan a mentionné une course à l'armement. Je crois que c'est une bonne expression pour exprimer la lutte contre l'automatisation à des fins malicieuses. Actuellement, nous vérifions 450 millions de comptes par année que nous croyons être inauthentiques, et nos outils sont très subtils, très créatifs. On regarde des choses comme les gazouillis partagés ou les activités qui se passent si vite que c'est impossible que ce soit le fait d'un humain.

Et malgré cela, on en a éliminé 75 %, et il y a donc 25 % des comptes que nous estimions être inauthentiques qui ont subi le test avec succès. Nous ratissons plus large que nécessaire pour essayer de mettre fin à ces activités inauthentiques. C'est un contexte où il n'y a pas d'écart entre les valeurs sociétales de confiance à l'égard des activités en ligne et nos impératifs en tant qu'entreprise, soit le fait que nous voulons que les gens se tournent vers Twitter pour croire ce qu'ils voient, en sachant que les robots russes ou peu importe ne leur jouent pas des tours, alors nous travaillons très dur pour bien faire les choses et nous continuons d'apporter des améliorations chaque semaine.

L’hon. Antares Guadalupe Vázquez Alatorre:

[Le témoin s'exprime en espagnol et l'interprétation en anglais de ses propos est traduite ainsi:] Mais c'est quelque chose qui se passe normalement chaque jour, pas seulement durant les élections. C'est quelque chose qui se passe chaque fois qu'une tendance est gonflée par des robots. La réaction à tout cela a été inadéquate. Il y a des choses qui sont agressives.

J'ai une question pour Twitter et Facebook. Lorsqu'un utilisateur signale une publication, très souvent, on précise que la chose reprochée n'enfreint pas la politique, mais c'est tout de même quelque chose d'agressif aux yeux de l'utilisateur. On nous dit que la publication n'enfreint pas la politique, mais c'est tout de même quelqu'un qui ment, qui attaque, et la personne visée se sent vulnérable. Très souvent, il ne se passe rien parce que vos politiques ne sont pas enfreintes.

De plus, pour ce qui est de toute la question de l'authentification, lorsque les comptes sont authentifiés grâce à des crochets bleus, même les autres comptes peuvent être bloqués. Certaines personnes disent « identifiez-vous » et bloquent tous les comptes. Parallèlement, il y a des milliers de faux comptes, et rien ne se fait, même si on les signale. Il y a des utilisateurs qui signalent constamment ces faux comptes. Pourquoi avez-vous une politique différente?

(1200)

Le président:

Donnez une réponse brève, s'il vous plaît.

M. Carlos Monje:

Nous nous efforçons de rajuster nos politiques. Il y a des choses qui vont à l'encontre de nos règles, et d'autres qui ne constituent pas des infractions, même si les gens ne les aiment pas. C'est ce que nous appelons, à l'interne, l'écart. Ce que nous avons fait et ce que nos équipes font, c'est essayer d'éliminer ces problèmes, morceau par morceau, et de comprendre quelles sont les attentes de nos utilisateurs qui ne correspondent pas à leur expérience.

Notre approche est, encore une fois, très cohérente. Nous voulons que les gens se sentent à l'aise et en sécurité en ligne. Nous ne voulons pas miner l'expression publique, et ce sont des enjeux que nous avons beaucoup à cœur et relativement auxquels nous nous sentons visés personnellement.

Le président:

Merci.

Nous allons maintenant passer au Royaume du Maroc pour cinq minutes. [Français]

M. Mohammed Ouzzine (vice-président, Commission de l'enseignement, de la culture et de la communication, Chambre des représentants du Royaume du Maroc):

Merci, monsieur le président.

Je remercie également l'équipe sympathique qui nous fait l'honneur d'être ici aujourd'hui: Kevin Chan, Derek Slater, Neil Potts, Carlos Monje et Michele Austin. Nous aurions souhaité que M. Mark Zuckerberg soit des nôtres, mais il nous a fait faux bond. Nous espérons le revoir à une autre occasion.

J'ai été très attentif à deux propositions de M. Chan. Je tiens ici à faire une précision de nature linguistique, à l'intention des interprètes: quand j'utilise le terme « proposition », en anglais, cela renvoie au terme « proposition », et non « proposal ».

En présentant les enjeux que soulève sa compagnie, M. Chan disait qu'il n'appartenait pas qu'à Facebook de les résoudre. Nous sommes tout à fait d'accord sur ce point.

Ensuite, toujours au sujet de ces enjeux, il a ajouté qu'il fallait protéger la société des conséquences. Bien sûr, ces plateformes présentent des avantages sur le plan social. Cependant, nous parlons aujourd'hui des troubles sociaux qu'elles engendrent; c'est ce qui nous interpelle plus que jamais.

Facebook, Twitter et YouTube se voulaient, dans un premier temps, une évolution numérique, mais cela s'est transformé en révolution numérique. En effet, cela a mené à une révolution des systèmes, à une révolution contre les systèmes, à une révolution du comportement, et même à une révolution de notre perception du monde.

Il est vrai qu'aujourd'hui, l'intelligence artificielle dépend de l'accumulation massive de données personnelles. Cela étant, cette accumulation met à risque d'autres droits fondamentaux, car cela repose sur des données qui peuvent être faussées.

Au-delà de l'aspect commercial et du profit, ne serait-il pas opportun pour vous aujourd'hui de tenter un sursaut moral, voire une révolution morale? Après avoir permis ce succès fulgurant, pourquoi ne pas désormais mettre l'accent beaucoup plus sur l'homme que sur l'algorithme, moyennant que vous imposiez au préalable des restrictions strictes, dans un souci de promouvoir la responsabilité et la transparence?

On se demande parfois si vous manifestez autant d'intérêt quand la désinformation ou les discours haineux surviennent dans des pays autres que la Chine ou situés ailleurs qu'en Europe ou en Amérique du Nord, entre autres.

On ne s'explique pas toujours que des jeunes, voire des enfants, puissent mettre en ligne des vidéos montées de toutes pièces qui contiennent des scènes obscènes, des commentaires insultants ou des gros mots. On trouve cela inacceptable. Parfois, on trouve que cela s'écarte de la finalité de ces outils, de la règle commune et de la norme sociale admise.

Nous ne sommes pas là pour vous juger ni pour faire votre procès, mais beaucoup plus pour vous implorer de prendre nos remarques en considération.

Merci.

(1205)

M. Kevin Chan:

Merci beaucoup, monsieur Ouzzine.

Encore une fois, permettez-moi de vous répondre en anglais. Ce n'est pas parce que je ne veux pas vous répondre en français, mais je pense que je serai plus clair en anglais.[Traduction]

Je serai heureux de répondre à la première question liée à ce dont vous parlez, les humains contre les machines ou les humains contre les algorithmes. Honnêtement, je crois qu'on a besoin des deux, parce que, évidemment, on parle de quantités astronomiques. Il y a plus de 2 milliards de personnes sur la plateforme. Par conséquent, pour dissiper certaines des préoccupations soulevées ici par les membres, nous avons besoin de systèmes automatisés qui peuvent cerner de façon proactive certains des problèmes.

Pour revenir à la première question de M. Collins, je crois qu'il est tout aussi important d'inclure des humains dans tout ça, parce que, au bout du compte, le contexte aidera à déterminer si, oui ou non, quelque chose est malveillant. Le contexte est donc extrêmement important.

Si vous me le permettez, monsieur, en ce qui concerne les enjeux humains, je crois que vous mettez le doigt sur quelque chose de très important. C'est quelque chose que j'avais déjà mentionné. Selon moi, il ne faut pas que les entreprises comme Facebook prennent toutes les décisions de ce genre. Nous le comprenons. Je crois que les gens veulent plus de transparence et qu'ils veulent mieux comprendre de quelle façon nous prenons nos décisions en ce qui concerne les choses qui restent, et celles qu'on retire.

Je peux vous dire que, au cours des derniers mois, y compris au Canada, nous avons entrepris un processus de consultation international auprès d'experts de partout dans le monde pour obtenir des commentaires sur la façon de créer un comité d'appel externe de Facebook, une entité qui serait indépendante de Facebook et qui prendrait des décisions sur les questions très difficiles liées au contenu. Selon nous, il y a une question qui se pose — du moins là où nous en sommes dans notre réflexion quant à ce que nous proposerons —, et c'est celle de savoir si les décisions d'un tel comité seraient publiques et contraignantes pour Facebook. C'est un peu ainsi que nous avons imaginé tout ça. En outre, nous recevons des commentaires et nous continuerons de consulter les experts. Notre engagement, c'est que ça soit prêt d'ici la fin de 2019.

Assurément, nous comprenons que c'est difficile sur notre plateforme. Nous voulons miser à la fois sur des humains et sur des algorithmes, si vous voulez, mais nous comprenons aussi que les gens feront plus confiance aux décisions s'il y a un comité d'appel, au bout du compte, et c'est ce que nous mettrons en place d'ici la fin de 2019.

Bien sûr, nous sommes ici aujourd'hui pour discuter de la question plus générale des cadres réglementaires qui devraient s'appliquer à tous les services en ligne. De ce côté-là, encore une fois, évidemment, l'aspect humain sera incroyablement important. Je vous remercie donc, monsieur, d'avoir soulevé cet enjeu, parce que c'est exactement ce que, selon moi, nous tentons de faire, soit de trouver le juste équilibre et de mettre en place le bon cadre pour la plateforme, mais aussi à l'échelle de tous les services en ligne.

Le président:

Merci, monsieur Chan.

Nous allons maintenant passer à l'Équateur pour cinq minutes.

Mme Elizabeth Cabezas (présidente, Assemblée nationale de la République de l'Équateur):

[La déléguée s'exprime en espagnol. Traduction de l'interprétation.]

Merci beaucoup.

Je veux revenir sur certaines des préoccupations qui ont déjà été soulevées durant la réunion et aussi exprimer une grande préoccupation au sujet des gazouillis et de Twitter et de la prolifération de faux comptes non détectés. Ces comptes restent de toute évidence actifs très longtemps sur les médias sociaux et génèrent, dans la plupart des cas, des messages et des tendances de nature négative contre différents groupes, tant des groupes politiques que des entreprises et des syndicats de différents secteurs.

Je ne sais pas quels mécanismes vous avez décidé d'adopter pour authentifier ces comptes, parce que ce sont des comptes qui sont liés à des centres de trolls ou des usines à trolls, qui, en Équateur, apparaissent vraiment souvent, et la tendance se maintient. Ces centres disséminent des messages à grande échelle, des messages malveillants qui vont à l'encontre de l'information réelle et véridique et qui déforment vraiment les points de vue.

Plutôt que de continuer à souligner les problèmes qui ont déjà été mentionnés, je vous prie de réfléchir à des mécanismes de vérification des faits pouvant détecter ces comptes rapidement, parce qu'il est évident que vous ne le faites pas aussi rapidement qu'il le faut, ce qui permet à des messages nuisibles de proliférer et de générer différentes pensées en plus de déformer la vérité sur beaucoup de sujets.

Je ne sais pas quelles sont les options, en pratique, ni ce que vous faites concrètement pour éviter ou prévenir ce genre de choses et pour prévenir l'existence de ces centres de trolls et la création de faux comptes, qui sont extrêmement nombreux.

(1210)

M. Carlos Monje:

Merci. C'est exactement la bonne question à poser, et c'est un sujet sur lequel nous travaillons chaque jour.

Je tiens à souligner que notre capacité de cerner, de perturber et d'éliminer les activités d'automatisation malveillantes s'améliore chaque jour. Nous cernons — je me suis trompé précédemment — 425 millions de comptes, c'est le nombre de comptes que nous avons contestés en 2018.

Premièrement, il faut mettre fin aux mauvaises activités coordonnées constatées sur la plateforme. Deuxièmement, nous devons travailler pour soutenir des personnes dont les messages sont crédibles, comme les journalistes, les politiciens, les experts et la société civile. Partout en Amérique latine, nous travaillons avec la société civile — surtout dans le contexte des élections —, pour comprendre quand les principaux événements se produisent, afin de pouvoir cibler nos efforts d'application de la loi en conséquence et de donner plus de renseignements contextuels aux gens sur les personnes qu'ils ne comprennent pas.

Je vais vous donner un exemple, parce qu'on a peu de temps. Si vous allez sur Twitter actuellement, vous pouvez voir la source du gazouillis, ce qui signifie que vous pouvez savoir si le message vient d'un iPhone, d'un appareil Android, de TweetDeck ou de Hootsuite ou d'une des autres façons utilisées par les gens pour coordonner leurs activités sur Twitter.

Le dernier élément d'information — ou la façon de penser à tout ça — concerne la transparence. Selon nous, notre approche doit consister à faire silencieusement notre travail pour nous assurer que la plateforme reste saine et solide. Lorsque nous cernons des activités d'information précises parrainées par un État, nous communiquons publiquement notre découverte. Nous avons une interface de programmation d'applications publiques très transparente que tout le monde peut consulter. Nous apprenons et nous nous améliorons en raison des travaux que des chercheurs ont réalisés — tout comme les gouvernements — dans cet ensemble de données.

Selon moi, c'est un enjeu extrêmement complexe. L'une des choses que vous avez mentionnées, c'est qu'il est facile pour nous d'identifier les gazouillis partagés instantanés et les choses automatisées du genre. C'est plus difficile de le faire lorsque les gens sont payés pour gazouiller, ou, comme on l'a vu dans le contexte vénézuélien, s'il est question de messages de trolls et de ce genre de choses.

Nous allons continuer d'investir dans la recherche et dans la lutte contre les trolls afin de nous améliorer.

Le président:

Nous allons passer au dernier intervenant sur notre liste, puis nous recommencerons la séquence au début.

Nous passons à Sainte-Lucie. Vous avez cinq minutes, s'il vous plaît.

M. Andy Daniel (président, Assemblée de Sainte-Lucie):

Merci, monsieur le coprésident.

Mes questions sont destinées à Neil Potts, directeur des politiques mondiales. J'ai deux questions.

La première est la suivante: j'aimerais que lui et Facebook m'aident à comprendre et à savoir, de façon générale, s'ils comprennent le principe des « branches égales de gouvernement ». Il semble, à la lumière de ce qu'il a dit précédemment dans sa déclaration préliminaire qu'il est prêt à nous parler, ici, et qu'il accepte de le faire et que M. Zuckerberg parlera aux gouvernements. Cela montre un... Je ne comprends pas... Il ne se rend pas compte du rôle très important que nous jouons en tant que parlementaires dans cette situation.

Ma question suivante concerne la référence à la vidéo de Nancy Pelosi et à la déclaration qu'il a faite relativement au Sri Lanka. Il a dit que les vidéos seraient seulement retirées en cas de violence physique.

Permettez-moi de formuler une déclaration, ici. Les comptes Facebook du premier ministre de Sainte-Lucie ont été « piratés » ou « répliqués » — peu importe comment vous voulez le dire — et il s'efforce maintenant d'informer les gens qu'il s'agit d'une fausse vidéo ou d'un faux compte. Pourquoi est-ce que cela se produit? Si on mentionne que c'est un faux, c'est un faux et ça ne devrait pas...

Permettez-moi de lire un extrait du faux... Voici ce qui est dit au sujet d'une subvention. Je cite: C'est une subvention des Nations unies pour les gens qui ont besoin d'aide pour payer leurs factures, commencer un nouveau projet, bâtir des maisons, parrainer des écoles, lancer une nouvelle entreprise ou soutenir une entreprise qui existe déjà. Les fonds démocratiques et les services humains des Nations unies aident les jeunes, les personnes âgées, les retraités ainsi que les personnes handicapées de la société...

Lorsqu'on publie une telle déclaration, c'est un acte de violence contre certaines populations vulnérables de notre société. Il faut retirer le message. On ne peut pas attendre qu'il y ait de la violence physique. Ce n'est pas seulement la violence physique qui est de la violence. Si c'est le cas, il n'est pas nécessaire qu'il y ait de la violence lorsqu'on parle de relations entre les sexes ou peu importe. De la violence, c'est de la violence, qu'elle soit psychologique ou physique.

C'est la question que je vous pose, monsieur. Ne faudrait-il pas que ces vidéos, ces pages, soient retirées immédiatement une fois qu'elles sont identifiées comme étant fausses?

(1215)

M. Neil Potts:

Si quelqu'un se fait passer pour un membre du gouvernement, nous allons retirer tout ça si nous en sommes informés. Je ferai un suivi auprès de vous après l'audience pour m'assurer que nous avons l'information nécessaire et que nous pourrons la transmettre à notre équipe afin d'agir rapidement.

Si vous me permettez, peut-être, de revenir sur quelques-unes des autres conversations que nous avons ici, un thème qui semble revenir, c'est l'idée que M. Zuckerberg et Mme Sandberg ne sont pas ici parce qu'ils fuient leurs obligations d'une façon ou d'une autre. Ils ont demandé à M. Chan et à moi-même — et ils nous ont autorisés — de comparaître devant le Comité pour travailler avec vous tous. Nous voulons le faire en misant vraiment sur la coopération. Ils comprennent leurs responsabilités. Ils comprennent l'idée des branches égales du gouvernement, qu'il s'agisse de la branche législative, de la branche exécutive ou de la branche judiciaire. Ils comprennent ces notions et sont prêts à travailler. Nous sommes ici maintenant pour travailler sur...

Le président:

Avec tout le respect que je vous dois, monsieur Potts, permettez-moi de vous interrompre un instant.

À cet égard, ce n'est pas votre décision de déterminer si vous allez venir ou non. Le Comité a demandé à M. Zuckerberg et Mme Sandberg de venir, c'est très simple, pour comparaître devant notre Grand Comité international. Nous représentons 400 millions de personnes, alors quand nous demandons à ces deux personnes de venir, c'est exactement ce à quoi nous nous attendons. C'est un peu un manque de respect de Mark Zuckerberg et de Mme Sandberg de tout simplement choisir de ne pas venir. Cela montre tout simplement qu'ils ne comprennent pas bien ce que nous faisons, en tant que législateurs, comme le représentant de Sainte-Lucie l'a souligné. L'expression « nous faire faux bond », eh bien je crois qu'on peut la répéter, mais il faut souligner qu'ils ont été invités à comparaître et qu'on s'attendait à ce qu'ils comparaissent et qu'ils ont choisi de ne pas le faire. Vous envoyer vous deux en tant que remplaçants n'est tout simplement pas acceptable.

Je vais revenir à M. Daniel, de Sainte-Lucie.

M. Neil Potts:

Merci, monsieur Zimmer. Je veux que ce soit clair. Je ne connais pas les procédures du Parlement canadien et les exigences en matière de comparution. Je respecte tout ça, mais je tiens à dire à nouveau pour le compte rendu que nous sommes déterminés à travailler avec le gouvernement et à être responsables relativement à ces enjeux.

De plus...

Le président:

Je dirais, monsieur Potts, que si c'était le cas, les personnes demandées seraient assises à votre place actuellement.

Poursuivez.

M. Neil Potts:

De plus, pour répondre à une autre question qui, selon moi, revient souvent et qui concerne la façon dont nous identifions et retirons certains éléments de contenu, nous pouvons retirer du contenu pour une diversité de types d'abus. Ce n'est pas seulement en cas de violence. Dans ce cas précis, lorsqu'on parle de mésinformation, la diffusion de certaines images, comme on l'a vu au Sri Lanka et dans d'autres pays, nous avons retiré les images parce qu'elles pouvaient mener à de la violence. Cependant, nous avons des politiques qui concernent des choses comme le discours haineux, où la violence n'est pas nécessairement imminente. Il peut y avoir des choses comme des renseignements personnels qui permettent d'identifier les gens, l'intimidation — que nous prenons très au sérieux — et d'autres choses qui ne mènent pas nécessairement à la violence, mais nous appliquons quand même ces politiques directement et nous essayons de le faire le plus rapidement possible.

Nous avons maintenant 30 000 personnes à l'échelle internationale qui s'en occupent. Quelqu'un a dit précédemment qu'il fallait compter sur des gens qui ont les renseignements contextuels nécessaires pour faire le travail. Dans le cas de tous les pays qui sont représentés ici, je tiens à dire que, parmi ces 30 000 personnes, il y a 15 000 modérateurs de contenu qui parlent plus de 50 langues. Ils travaillent 24 heures sur 24 et 7 jours sur 7. Certains travaillent dans les pays qui sont représentés ici aujourd'hui. Nous prenons ces choses très au sérieux.

De plus, nous sommes déterminés à travailler avec nos partenaires — les gouvernements, la société civile et les universités — afin de trouver des réponses qui, selon nous, sont adaptées à de tels enjeux. Je crois que nous reconnaissons tous que ce sont des enjeux très complexes et qu'il faut faire la bonne chose. Tout le monde ici, selon moi, veut assurer la sécurité des membres de notre communauté, qui comptent tous parmi vos électeurs. Selon moi, nous partageons les mêmes objectifs. Il faut tout simplement s'assurer de le faire de façon transparente dans le cadre de nos discussions et d'en venir à une situation où nous pouvons nous entendre sur la meilleure marche à suivre. Merci.

Le président:

Merci.

On vient de porter à mon attention une incohérence dans votre témoignage, monsieur Potts.

D'un côté, M. Collins a posé une question au sujet de la vidéo de Mme Pelosi, et vous avez dit que vous n'alliez pas la retirer. Puis, 30 minutes ou une heure plus tard, vous venez de répondre au représentant de Sainte-Lucie et affirmer que vous la retireriez immédiatement. Je tiens à ce que vous compreniez très bien qu'on s'attend de vous que vous disiez toute la vérité au Comité en ce moment, et ce, sans incohérence dans votre témoignage.

(1220)

M. Neil Potts:

Monsieur Zimmer, si j'ai été incohérent, je m'en excuse, mais je ne crois pas avoir répondu à cette question différemment. Si j'avais la transcription, évidemment, je pourrais vous dire où j'ai fait une erreur et je pourrais corriger le tir immédiatement.

Encore une fois, lorsqu'il est question de mésinformation qui ne mène pas immédiatement à des préjudices, notre approche consiste à atténuer la portée de l'information, à informer les utilisateurs de la fausseté de l'information et à éliminer les comptes inauthentiques. Si quelqu'un agit de façon inauthentique et fait semblant d'être quelqu'un d'autre, ce sera retiré. L'authenticité est au centre de nos principes; nous voulons des personnes authentiques sur notre plateforme. C'est la raison pour laquelle nous exigeons les vrais noms des gens.

La question que, selon moi, M. Collins posait concernait la vidéo en tant que telle. L'utilisateur ne communiquait pas la vidéo de façon inauthentique. Il s'agissait d'une vraie personne, et il y avait une vraie personne derrière la page. Ce n'est pas un compte de troll ou un robot ou quelque chose du genre. Ce genre de choses, nous les éliminerions.

Si je me suis mal exprimé, je m'en excuse, mais je veux que ce soit clair que je ne crois pas que mon...

Le président:

Je ne crois pas que ce soit plus clair pour quiconque dans la salle, mais je vais passer au prochain intervenant.

Nous allons passer à M. Baylis, pour cinq minutes.

M. Frank Baylis (Pierrefonds—Dollard, Lib.):

Merci. Je vais commencer par M. Slater.

Il y a deux ou trois semaines, nous avons accueilli un de vos collègues qui nous a dit que Google n'allait pas se conformer au projet de loi C-76, notre nouvelle loi sur la campagne électorale. Je lui ai demandé pourquoi, et il a répondu: « Eh bien, nous ne pouvons pas faire le travail de programmation en six mois ».

Je lui ai souligné que Facebook pouvait le faire, et il a dit: « Eh bien, nos systèmes sont plus difficiles et plus complexes ».

Il a dit: « Nous ne pouvons pas le faire en six mois », alors je lui ait demandé: « D'accord, de combien de temps aurez-vous besoin? Quand cela pourra-t-il être fait? » Il m'a répondu ne pas le savoir.

Pouvez-vous m'expliquer tout ça?

M. Derek Slater:

Les représentants vous ont donné beaucoup de renseignements à cet égard, mais, si je peux ajouter mon grain de sel, oui, nous sommes un service différent, et même si nous savons que, malheureusement, nous ne pouvons pas permettre de la publicité électorale à ce moment-ci, nous aimerions pouvoir le faire à l'avenir.

M. Frank Baylis:

Si vous pouvez dire que vous ne pouvez pas le faire en six mois, sans pour autant savoir de combien de temps vous auriez besoin, comment pouvez-vous être vraiment sûr de ne pas pouvoir le faire en six mois alors que Facebook peut y arriver?

M. Derek Slater:

Nos services sont très différents et sont assortis de caractéristiques différentes à plusieurs égards.

M. Frank Baylis:

Comment pouvez-vous ne pas savoir combien de temps sera nécessaire?

M. Derek Slater:

C'est en partie parce que les choses continuent d'évoluer au fil du temps. C'est un espace qui évolue rapidement, tant du point de vue juridique que du point de vue de nos services. Par conséquent, pour ce qui est de savoir exactement quand cela pourrait être prêt, nous ne voulons pas mettre...

M. Frank Baylis:

Vous savez que vous ne pouvez pas le faire en six mois.

M. Derek Slater:

Oui.

M. Frank Baylis:

Cependant, vous ne savez pas combien de temps cela peut prendre.

M. Derek Slater:

C'est exact.

M. Frank Baylis:

La situation m'inquiétait, alors j'ai demandé: « Qu'arrivera-t-il, alors, si quelqu'un fait paraître une annonce sans avoir le droit de le faire? » Il a dit que je n'avais pas à m'en inquiéter, et vous savez pourquoi? Il a dit que l'entreprise allait trouver la publicité instantanément et la retirer.

J'ai demandé: « Comment pouvez-vous faire ça? » Et il m'a répondu que l'entreprise mise sur l'intelligence artificielle et qu'une équipe est là pour s'en occuper.

Donc, vous dites pouvoir identifier la publicité instantanément, et notre loi dit que, une fois la publicité trouvée, il faut le déclarer. Vous avez 24 heures pour la mettre dans une base de données, mais ça, vous ne pouvez pas le faire.

Pouvez-vous m'expliquer la situation? Comment pouvez-vous avoir toute cette technologie qui vous permet d'identifier n'importe quelle publicité sur n'importe quelle plateforme instantanément, mais ne pas pouvoir demander à vos développeurs de la transférer dans les 24 heures dans une base de données? En outre, vous dites qu'il vous faudra plus de six mois pour y arriver.

M. Derek Slater:

Si j'ai bien compris la question, il est plus simple d'adopter une approche plus conservatrice, une approche générale qui est plus restrictive qu'une approche selon laquelle nous allons valider qu'il s'agit d'une publicité électorale qui respecte la loi et ainsi de suite.

M. Frank Baylis:

Vous avez déjà pris une décision. Vous avez procédé à la validation, parce que vous la bloquez. C'est ce qu'il m'a dit. Vous le faites déjà.

M. Derek Slater:

Oui. Nous pouvons bloquer quelque chose pour une diversité de raisons en cas de violation de nos politiques.

M. Frank Baylis:

Non. Pas vos politiques. Il parlait de « publicité politique ». Ma question était très précise.

Vous pouvez enlever la politique, mais vous ne pouvez pas la transférer dans une base de données. J'aimerais comprendre la différence.

M. Derek Slater:

Il y a une grande différence entre le fait de dire que nous allons adopter, de façon générale, une approche conservatrice, et dire, d'un autre côté: « Je vais dire clairement qu'il s'agit d'une publicité électorale légitime », et faire ce pas de plus.

M. Frank Baylis:

Une fois que vous constatez que c'est une publicité, vous ne permettez pas son affichage. Vous la bloquez. Vous pouvez décider instantanément que c'est une publicité, mais, une fois que vous avez décidé que c'était une publicité, c'est trop de travail de programmer votre système afin de la transférer dans une base de données. C'est ce que notre loi demande: de tout simplement mettre ça dans une base de données.

Vous dites: « Ça, c'est quelque chose que nous ne pouvons pas faire ».

M. Derek Slater:

Le besoin d'appliquer la loi précisément comme elle a été rédigée n'était pas possible pour nous dans la période qui était prévue si nous voulions bien faire les choses. En outre, si nous devons permettre des publicités électorales au pays, nous voulons être sûrs de bien faire les choses.

C'est la décision que nous avons prise ici, malheureusement, mais nous serons heureux de travailler là-dessus à l'avenir.

M. Frank Baylis:

Vous pouvez affirmer ne pas pouvoir le faire en six mois — même si quelqu'un d'autre peut le faire — et affirmer être en mesure d'identifier immédiatement toute publicité n'importe où et n'importe quand, sans pour autant avoir les capacités technologiques chez Google de mettre la publicité cernée dans une base de données en 24 heures. Vous n'avez tout simplement pas la capacité de programmer une telle chose en six mois.

M. Derek Slater:

Nous n'avons pas la capacité en ce moment de respecter totalement la nouvelle loi.

(1225)

M. Frank Baylis:

Vous n'avez pas la capacité. Vous êtes sérieux lorsque vous dites ça?

Dites-vous sérieusement que vous pouvez identifier n'importe quelle publicité sur n'importe quelle plateforme, mais vous ne pouvez pas demander à vos développeurs de transférer cette information dans une base de données? Il vous faut trop de temps pour tout simplement programmer le système de façon à ce que les publicités cernées soient transférées dans une base de données.

M. Derek Slater:

Je ne peux pas parler des services fournis par n'importe qui, n'importe où. Pour être clair, nous utilisons des machines et des gens pour surveiller les publicités qui sont présentées par l'intermédiaire de nos systèmes et nous assurer qu'elles respectent nos règles.

Pour ce qui est des obligations supplémentaires, non, nous ne pouvions pas les respecter dans ce cas-ci.

M. Frank Baylis:

D'accord. J'ai une autre question pour Google et Facebook, une question simple.

Je n'aime pas vos conditions d'utilisation. Qu'est-ce que je peux faire?

M. Kevin Chan:

Monsieur, si vous pouviez me fournir un peu plus d'explications, peut-être m'en dire un peu plus sur ce que vous n'aimez pas...

M. Frank Baylis:

Je n'aime pas qu'on m'espionne.

M. Kevin Chan:

Oh, eh bien, nous ne faisons rien de tel, monsieur.

M. Frank Baylis:

Vous recueillez des données à mon sujet que je ne veux pas que vous recueilliez.

M. Kevin Chan:

Comme vous le savez, je consacre beaucoup de temps à l'alphabétisation numérique. Ce qui est approprié, c'est que les gens ne doivent pas mettre plus d'information sur notre service qu'ils ne le souhaitent.

Monsieur, si vous me permettez, j'aimerais fournir un point de vue un peu différent sur tout ça. Comme vous le savez, je crois, nous allons offrir un type d'expérience très différente relativement à nos produits très bientôt et les utilisateurs pourront retirer non seulement les renseignements qu'ils ont communiqués sur le service, mais aussi les renseignements qui s'y trouveraient en raison de l'intégration avec d'autres services d'Internet. Nous allons donner aux gens cette fonctionnalité, alors, encore une fois, dans la mesure où une personne jugerait que ce n'est pas souhaitable, nous voulons lui donner ce contrôle.

Le président:

Merci, monsieur Baylis. Malheureusement, nous devons poursuivre.

Les cinq prochaines minutes reviennent à M. Kent.

L'hon. Peter Kent:

Merci, monsieur le président.

J'ai une question pour M. Chan.

Si un employeur canadien se tourne vers Facebook et veut mettre en place une publicité liée à l'emploi misant sur un microciblage en fonction de l'âge et du sexe en excluant d'autres groupes démographiques, Facebook accepterait-elle de faire une telle publicité?

M. Kevin Chan:

Monsieur, merci de la question. Encore une fois, je tiens aussi à vous remercier de nous avoir invités à participer à votre récente table ronde à Oshawa. C'est quelque chose dont nous sommes très reconnaissants.

Ce serait une violation de nos politiques, alors ce ne serait pas accepté.

Nous avons deux ou trois choses, et je crois comprendre là où vous voulez en venir...

L'hon. Peter Kent:

Si vous me le permettez, parce que j'ai peu de temps... Serez-vous surpris d'apprendre que l'opposition officielle au Parlement a reçu une réponse à une question inscrite au Feuilleton aujourd'hui selon laquelle plusieurs ministères du gouvernement du Canada ont placé des publicités assorties de ces mêmes conditions de microciblage et que le nom de votre entreprise revient plusieurs fois?

M. Kevin Chan:

Monsieur, comme vous le savez, cette information a été dévoilée grâce aux reportages incroyablement détaillés d'Elizabeth Thompson de CBC; cette information appartient également au domaine public, car c'est là que j'ai lu la nouvelle en premier.

Vous devriez savoir que cela constitue une violation de notre politique, monsieur. Ces derniers temps, nous avons pris des mesures assez énergiques pour éliminer toute une série de pratiques de ciblage différentes à l'égard de ces types d'annonces. Pour ce qui est des annonces concernant le logement, l'emploi et le crédit, pour être précis, nous avons également exigé de tous les annonceurs qu'ils garantissent à l'avenir qu'ils ne diffuseront pas d'annonces relatives au logement ni au crédit.

L'hon. Peter Kent:

Avez-vous informé le gouvernement libéral du Canada du fait que cette pratique de microciblage qu'il emploie ne sera plus acceptée à l'avenir? Répondez simplement par oui ou non.

M. Kevin Chan:

Nous avons envoyé des courriels à tous les administrateurs pour leur dire qu'ils ne peuvent pas utiliser cette pratique.

L'hon. Peter Kent:

Pour en revenir à la question originale de M. Collins au sujet de la vidéo manipulée, sexiste et politiquement hostile dont on a autorisé la diffusion continue sur votre plateforme Facebook, je crois comprendre que, après que le Washington Post a communiqué avec Facebook, une déclaration a été publiée disant: « Nous n'avons pas de politique [...] exigeant que les renseignements que vous affichez sur Facebook soient véridiques. »

D'après vos réponses antérieures, il semblerait que Facebook refuse de retirer cette vidéo politiquement hostile, plaidant une défense pervertie de liberté d'expression, et que 24 heures après que le Washington Post vous a informé de la situation, ce même journal a signalé que le nombre de visionnements sur une seule page Facebook a atteint plus de 2,5 millions, chiffre qui se multiplie nombre de fois si on inclut d'autres pages Facebook.

Si un événement du genre se produisait pendant l'élection canadienne — si une vidéo semblable montrant un politicien canadien, peut-être le chef de l'un des partis, était manipulée et publiée de la même manière pour donner l'impression que la personne souffre d'un handicap mental ou qu'il est en état d'ébriété —, est-ce que Facebook retirerait cette vidéo ou est-ce que votre intervention se limiterait à donner des réponses semblables à celles que vous avez fournies à M. Collins, soit de dire simplement que ce n'est pas vrai, malgré le fait que certains continuent d'exploiter la fausseté de la vidéo?

(1230)

M. Kevin Chan:

Monsieur, mettons simplement de côté la vidéo en question qui provient des États-Unis. Nous examinons la question, et depuis plus de deux ans, je me penche personnellement sur la question afin de trouver des façons de mieux sécuriser la plateforme en vue des élections à venir.

Je peux vous dire que, lorsque nous recevons des demandes provenant de diverses personnes et parties et de divers secteurs, dans 99 % des cas où nous trouvons quelque chose qu'on nous a signalé, nous allons en fait au-delà du contenu. Nous ne cherchons pas le contenu. Nous cherchons le comportement.

L'hon. Peter Kent:

Mais supprimeriez-vous la vidéo?

M. Kevin Chan:

Si elle provient d'un faux compte ou que ce semble être un contenu indésirable, ou si la vidéo viole d'une manière ou d'une autre les normes d'une communauté, il est certain que nous la supprimerions.

Je peux vous assurer que dans presque tous les cas, j'ai...

L'hon. Peter Kent:

Mais elle est fausse. Ce n'est pas la vérité. Est-ce que Facebook défend toujours le concept selon lequel le contenu n'a pas à être véridique pour se retrouver sur sa plateforme?

M. Kevin Chan:

Monsieur, je crois comprendre où vous voulez en venir. Si vous me le permettez, la façon dont j'aimerais en parler est la suivante...

L'hon. Peter Kent:

Un oui ou un non suffira.

M. Kevin Chan:

C'est pourquoi nous sommes ici. Nous serions favorables à...

L'hon. Peter Kent:

Donc, tout ceci est une expérience d'apprentissage pour vous?

Des voix: Ha, ha!

M. Kevin Chan:

Monsieur Kent...

L'hon. Peter Kent:

Je pose la question avec respect et courtoisie.

M. Kevin Chan:

Nous accueillerions favorablement des normes de base que les législateurs pourraient imposer à la plateforme à propos de ce qui devrait être publié et de ce qui devrait être supprimé. Si les législateurs, avec leur sagesse, souhaitent établir certaines limites qui pourraient relever ou non de la censure, il est certain que nous appliquerions la loi locale.

L'hon. Peter Kent:

Je vais peut-être terminer par un commentaire.

Chris Hughes, un cofondateur désillusionné de Facebook, qui est devenu en quelque sorte un dénonciateur pour certains, a dit: « Quelques règles de plus ne font pas peur à Facebook. Facebook craint qu'il y ait une action antitrust. »

Étiez-vous au courant que, dans des démocraties du monde entier, vous vous rapprochez de plus en plus d'une action antitrust?

M. Kevin Chan:

Je suis au courant de nombreuses questions qui concernent la réglementation à l'échelle mondiale, oui, monsieur.

L'hon. Peter Kent:

Merci.

Le président:

Merci, monsieur Kent.

Simplement pour que vous soyez au courant, je tiens à rappeler à tous le déroulement de la période de questions. Tout d'abord, il y aura une question par délégation, par pays. Vous pouvez voir comment l'ordre a été établi. Puis, il y aura différentes rondes jusqu'à ce que tous les membres aient eu la chance de poser une question. Par exemple, le prochain membre de la délégation poserait la question suivante, etc.

À l'heure actuelle, nous avons le deuxième membre de la délégation du Royaume-Uni, M. Lucas. Il posera la prochaine question de cinq minutes, ou ce sera peut-être Jo Stevens.

Préparez-vous en conséquence. Je me tournerai peut-être vers différents pays. Si vous avez un deuxième délégué, la personne aura la possibilité de poser une question également.

Allez-y, madame Stevens, vous avez cinq minutes.

Mme Jo Stevens (membre, Comité sur le numérique, la culture, les médias et le sport, Chambre des communes du Royaume-Uni):

Merci, monsieur le président.

Monsieur Potts et monsieur Chan, je tiens à vous remercier d'être présents aujourd'hui, mais mes collègues et moi-même du Parlement du Royaume-Uni souhaitions poser nos questions à Mark Zuckerberg. Il ne voulait pas venir répondre à nos questions à Londres, dans notre Parlement, alors nous avons traversé l'Atlantique pour lui faciliter la tâche. Nous pouvons seulement conclure que l'examen de ses pratiques l'effraie. Pour éviter tout doute, j'en ai assez de passer des heures assise à entendre les représentants de Facebook dire des platitudes et employer des tactiques d'évitement pour ne pas répondre aux questions. Je veux que le patron prenne ses responsabilités, donc je vous prie de transmettre ce message à M. Zuckerberg.

J'aimerais poser une question aux représentants de Google.

Dans tous les autres secteurs, le monopole de votre entreprise aurait été déjà démantelé. Que faites-vous à l'heure actuelle pour vous préparer à cette éventualité?

M. Colin McKay:

Je pense que nous travaillons très fort pour montrer à nos utilisateurs et aux organismes de réglementation que nous apportons de la valeur au marché et à nos utilisateurs. Ils comprennent clairement — que ce soit en utilisant nos cartes à partir de leur compte ou en mode de navigation privée, en utilisant Gmail ou nos services d'infrastructure — que nous leur offrons une certaine valeur et que nous jouons un rôle positif sur le marché en leur offrant non seulement de la valeur en ce qui a trait aux services informatiques, mais aussi des produits et des services qui favorisent la croissance des entreprises dans le monde.

Nous pensons que les organismes de réglementation ont le droit et, certainement, l'obligation de surveiller nos activités et de les examiner à l'intérieur du cadre de leurs compétences locales. Nous participerons à ce processus et essaierons d'expliquer de quelle manière nous offrons cette valeur tout en respectant les obligations prévues par les règlements, d'après leur interprétation.

(1235)

Mme Jo Stevens:

Toutefois, vous ne prenez actuellement aucune mesure pour vous préparer en vue d'actions futures.

M. Colin McKay:

En ce moment, nous nous concentrons sur la prestation de services qui comblent et anticipent les besoins de nos utilisateurs.

M. Ian Lucas:

Je pourrais peut-être poser une question au sujet d'une audience en particulier durant laquelle un représentant de Facebook a témoigné en février 2018. Lorsque nous avons interrogé le représentant de Facebook au sujet de Cambridge Analytica à Washington, on ne nous a pas informés de l'incident de données impliquant Cambridge Analytica et Aleksandr Kogan.

Monsieur Potts, en ce qui a trait à la transparence, dont vous avez parlé, pourquoi n'avons-nous pas été informés de l'incident touchant Cambridge Analytica, que nous avons précisément soulevé ce jour-là?

M. Neil Potts:

Merci, monsieur Lucas.

Je suis désolé, mais je ne suis pas certain de ce qui s'est passé au cours de cette audience. Je peux essayer de trouver précisément ce qui a été présenté et les données fournies, mais malheureusement, je ne m'en souviens pas.

M. Ian Lucas:

C'est dans le domaine public. La raison pour laquelle nous voulons que Mark Zuckerberg vienne ici, c'est parce que nous voulons des réponses claires de dirigeants de Facebook à des questions précises que nous avons posées.

Monsieur Chan, pouvez-vous répondre à la question pour moi?

M. Kevin Chan:

Monsieur, je ne veux pas parler à tort et à travers, mais nous ne sommes pas au courant de ce qui s'est passé en février 2018, si c'est bien le mois dont vous avez parlé. Nous pouvons certainement nous pencher sur la question.

M. Ian Lucas:

Je peux vous dire exactement ce qui s'est passé. Je pourrais lire la réponse. Nous avons soulevé la question de Cambridge Analytica, l'incident lié aux données et le problème relatif à Cambridge Analytica. On ne nous a pas dit qu'il y avait eu un incident lié à des données impliquant Aleksandr Kogan, lequel a fait les manchettes dans les deux mois suivants. Vous êtes au courant de l'incident, je présume.

M. Neil Potts:

Nous sommes au courant de la situation de Cambridge Analytica. Encore une fois, nous ne savons pas ce qui a été dit.

M. Ian Lucas:

Avez-vous considéré l'incident impliquant Cambridge Analytica comme étant grave?

M. Neil Potts:

Oui, monsieur Lucas.

M. Ian Lucas:

Savez-vous quelles mesures ont été prises par les dirigeants de Facebook lorsque l'incident de Cambridge Analytica impliquant Aleksandr Kogan...? Quelles mesures ont été prises? Le savez-vous?

M. Kevin Chan:

Si je comprends bien votre question, depuis 2014, nous avons réduit considérablement...

M. Ian Lucas:

Je vous ai posé une question précise. Quelles mesures ont été prises par les dirigeants de Facebook lorsque vous avez été mis au courant de l'incident impliquant Cambridge Analytica? Je choisis mes mots très soigneusement; la majorité des gens emploieraient des termes moins sympathiques. Certaines personnes qualifieraient cette situation d'atteinte à la sécurité des données, mais en ce qui a trait à l'incident impliquant Aleksandr Kogan, quelles mesures ont été prises par les dirigeants de Facebook?

M. Kevin Chan:

En ce qui concerne précisément l'application d'Aleksandr Kogan, elle a été bannie de la plateforme.

M. Ian Lucas:

Qui a pris la décision?

M. Kevin Chan:

L'entreprise... Je ne saurais vous dire. Si vous cherchez une personne en particulier, je ne peux vraiment pas vous dire, mais l'entreprise...

M. Ian Lucas:

La personne en particulier à qui j'aimerais poser la question, c'est Mark Zuckerberg, car j'aimerais savoir s'il était au courant de l'incident à ce moment-là. Le savait-il?

J'ai posé la question à Mike Schroepfer, et il m'a dit qu'il me reviendrait avec la réponse. C'était l'été dernier. Mark Zuckerberg était-il au courant de cette atteinte à la sécurité des données en 2015?

M. Kevin Chan:

Monsieur, nous serons ravis de vous fournir une réponse. Quant au fait que vous n'avez pas reçu de réponse, ce que vous semblez dire, nous sommes désolés. Il est évident que nous voulons toujours collaborer quant aux questions...

M. Ian Lucas:

Puis-je vous arrêter là?

Monsieur Potts, vous avez dit que l'incident était grave. Pouvez-vous me donner un exemple d'entreprise ou de personne qui a été retirée de la plateforme de Facebook pour le type de brèche ou d'incident survenu impliquant Aleksandr Kogan et touchant la communication de renseignements?

M. Neil Potts:

Je pense que vous venez tout juste d'en nommer une. Monsieur Lucas, je ne m'occupe pas directement des questions de protection des renseignements personnels. Ces questions sont traitées par une équipe distincte.

Je tiens à dire que, comme M. Chan l'a dit, nous nous engageons à vous revenir avec une réponse. J'ai eu le plaisir de témoigner devant un comité récemment et...

(1240)

M. Ian Lucas:

Je suis désolé, monsieur Potts. Nous voulons la simple honnêteté, qui est une valeur universelle, et il y a des gens des quatre coins du monde à cette table. Nous comprenons tous l'honnêteté. Nos systèmes juridiques diffèrent...

M. Neil Potts:

Je suis tout à fait...

M. Ian Lucas:

... et je veux des réponses directes. J'ai entendu quatre témoignages de votre part.

M. Neil Potts:

Monsieur Lucas, je suis tout à fait d'accord avec vous en ce qui a trait à l'honnêteté et...

Le président:

Je suis désolé, monsieur Potts...

M. Neil Potts:

... et ce n'est pas rien que d'attaquer l'intégrité d'une personne.

Le président:

Monsieur Potts, la priorité est accordée aux membres du Comité, et M. Lucas a la parole.

Allez-y, monsieur Lucas.

M. Ian Lucas:

Je n'ai pas reçu de réponse directe de la part de votre entreprise. Vous avez été envoyé ici par M. Zuckerberg pour parler au nom de Facebook. Il a été informé de ces questions suffisamment à l'avance.

M. Kevin Chan:

Je suis désolé, monsieur, laissez-moi simplement... Si je comprends bien, votre question est la suivante: y a-t-il d'autres applications qui ont été bannies de Facebook pour utilisation inappropriée ou abusive de la plateforme? La réponse est oui.

M. Ian Lucas:

Pour le transfert des données...

Le président:

Le temps est écoulé; je vais devoir donner la parole au prochain intervenant. Il s'agit de M. Lawless de l'Irlande.

M. James Lawless (membre, Comité mixte sur les communications, l'action sur le climat et l'environnement, Parlement de la République d'Irlande):

Monsieur le président, merci de nous inviter ici aujourd'hui. Je suis ravi d'être présent.

Au sein de notre comité irlandais, nous avons bien évidemment dialogué avec les entreprises et nous avons rencontré M. Zuckerberg à Dublin récemment.

Je dois dire que je salue la participation des représentants des compagnies technologiques qui sont ici présents, mais je trouve extraordinaires certaines des déclarations qui ont été faites, notamment celle de M. Potts, il y a quelques minutes, selon laquelle il ne connaissait pas la procédure parlementaire, et c'était peut-être pour expliquer certaines lacunes dans son témoignage.

Je trouve également extraordinaire le fait que certains des témoins ne soient pas au courant de ce qui a été dit lors d'audiences ou de discours antérieurs à propos de ces enjeux dans chacun de nos parlements. J'aurais cru que c'était une condition fondamentale pour entrer dans la pièce, si vous vouliez être qualifié pour faire le travail. C'est le bémol que je mets à mes questions. C'est décevant. Je veux que cela figure au compte rendu.

Pour en revenir aux questions spécifiques, nous avons entendu — aujourd'hui et par le passé — beaucoup de choses, dont certaines sont positives et plutôt encourageantes, à supposer que nous les croyons, de la part de représentants de divers échelons. Toutefois, je suppose que les actes sont plus éloquents que les mots; c'est ma philosophie. Aujourd'hui, nous avons beaucoup entendu parler du scandale impliquant Cambridge Analytica et Kogan. Encore une fois, je tiens à dire pour le compte rendu que le commissaire à la protection des données de l'Irlande a relevé ce problème en 2014 et en a avisé les dirigeants de Facebook. Cependant, je crois comprendre qu'il n'y a pas eu de suivi. Je pense qu'il a fallu deux ou trois ans avant qu'on fasse quelque chose. Tout ce qui s'est produit depuis aurait potentiellement pu être évité si des mesures avaient été prises et qu'il y avait eu un suivi à l'époque.

Encore une fois, je reviens là-dessus pour mettre les entreprises à l'épreuve concernant les mesures réellement prises, je suppose. Les premières questions s'adressent aux représentants de Facebook.

Nous avons entendu M. Zuckerberg dire en public, et d'autres témoins l'ont répété ici aujourd'hui, que le RGPD est possiblement une norme d'excellence, qu'il s'agirait d'un bon modèle de gestion de données et qu'il pourrait éventuellement être déployé à l'échelle mondiale. Selon moi, c'est tout à fait logique. J'approuve cette mesure. Je siégeais au comité qui a intégré ce règlement au droit irlandais, et je peux voir les avantages.

Si tel est le cas, pourquoi Facebook a-t-elle rapatrié 1,5 milliard d'ensembles de données des serveurs irlandais la nuit précédant l'entrée en vigueur du RGPD? La situation, c'est qu'une énorme portion des données mondiales de Facebook se trouvait sur le territoire irlandais, car il s'agit du territoire de l'Union européenne, et à la veille de l'adoption du RGPD — moment où, bien évidemment, le règlement serait entré en vigueur —, 1,5 milliard d'ensembles de données ont été retirés des serveurs et rapatriés aux États-Unis. Cela ne semble pas être un geste de bonne foi.

Nous allons peut-être commencer par cette question, puis nous poursuivrons si nous avons le temps.

M. Kevin Chan:

Merci beaucoup, monsieur.

Je suis tout à fait d'accord avec vous pour dire que les actes sont plus éloquents que les mots. Je pense que, dans la mesure où nous devons faire la preuve de nos intentions, dans les mois et les années à venir, nous travaillerons de sorte que nos actes témoignent de notre objectif de préserver la sécurité de notre service et de protéger les renseignements personnels des gens, et du fait que nous voulons faire la bonne chose.

Quant à ce que vous avez dit à propos du transfert... Encore une fois, pour tout dire — déclaration complète —, je ne suis pas avocat, mais je crois comprendre que ce transfert est conforme à nos conditions de service.

M. James Lawless:

Il est conforme, mais c'est tout un hasard qu'il soit survenu la nuit avant l'entrée en vigueur du RGPD.

Je vais poser une autre question du même genre. Je crois comprendre que les dirigeants de Facebook continuent d'interjeter appel d'un certain nombre de décisions. Le commissaire à l'information du Royaume-Uni a récemment rendu une conclusion défavorable à Facebook, laquelle a été portée en appel. Ma collègue, Hildegarde Naughton, a parlé des conclusions du commissaire à la protection des données de l'Irlande.

Si vous levez la main et dites: « Nous avons commis certaines erreurs », et que vous faites preuve de bonne foi — ce que je saluerais si c'était le cas —, pourquoi continuez-vous d'interjeter appel de ces nombreuses décisions?

(1245)

M. Kevin Chan:

Il y a des cas... Comme les appels sont assujettis aux processus judiciaires, je crois qu'il y a des limites à ce que je peux dire aujourd'hui. Comme vous le savez probablement, nous déployons beaucoup d'efforts pour en arriver à un règlement dans d'autres affaires en cours. Je vous exhorte d'examiner nos actions à mesure que nous les rendons publiques dans le cadre de ces processus et de prendre une décision à ce moment-là.

M. James Lawless:

J'ai simplement une petite question pour les représentants de Google.

Je crois comprendre que l'approche de Google consiste à ne diffuser absolument aucune publicité politique, du moins dans le contexte canadien. Nous avons eu une décision semblable en Irlande durant le référendum sur l'avortement il y a un an. Je suis préoccupé par cette décision, car je crois qu'elle permet à des acteurs malveillants de publier des renseignements erronés qui ne sont pas ciblés. En fait, je pense qu'il serait peut-être mieux de permettre aux acteurs politiques d'être transparents et de diffuser des publicités, dans un contexte légitime et vérifié.

C'est tout simplement un aspect qui me préoccupe, et j'espère qu'il ne s'agit pas d'une mesure à long terme. Peut-être s'agit-il d'une mesure provisoire.

M. Colin McKay:

Il me reste quelques secondes, et j'aimerais faire une observation. Tant en Irlande qu'au Canada, nous nous retrouvons dans une position où il y a de l'incertitude quant à ce que nous pouvons garantir aux électeurs. Nous voulons nous assurer de mettre en place un cadre rigoureux quant à la façon dont nous présentons les publicités et reconnaissons nos responsabilités. Comme l'a dit mon collègue plus tôt, l'un de nos objectifs à l'avenir est de mettre en place des outils, qu'il soit question d'ambiguïté ou d'acteurs malveillants, pour assurer aux utilisateurs la transparence des activités ainsi que la clarté et l'uniformité dans l'ensemble de nos produits.

Le président:

Merci, monsieur Lawless.

Nous allons passer à notre prochaine ronde de questions.

C'est au tour des représentants du Parlement de Singapour.

Mme Sun Xueling (secrétaire parlementaire principale, ministère des Affaires intérieures et ministère du Développement national, Parlement de Singapour):

J'aimerais revenir à l'exemple du Sri Lanka, avec M. Neil Potts.

M. Potts a dit plus tôt qu'il n'était pas au courant que les vidéos incendiaires avaient été diffusées sur Facebook. J'aimerais attirer l'attention sur le fait que, dans un article paru dans le Wall Street Journal, M. Hilmy Ahamed, vice-président du conseil musulman du Sri Lanka, a dit que des dirigeants musulmans avaient signalé les vidéos incendiaires de Hashim diffusées sur Facebook et YouTube en utilisant les services intégrés à votre système de signalement.

Puis-je simplement confirmer avec M. Potts que, si Facebook avait été au courant de l'existence de ces vidéos, elles auraient été retirées de la plateforme?

M. Neil Potts:

Oui, madame. C'est exact. Si nous l'avions su, nous aurions retiré les vidéos. Dans ce cas en particulier, je n'ai pas les données avec moi; je ne suis pas certain si nous en avons été informés, mais si cela avait été le cas, ces vidéos auraient été retirées.

Mme Sun Xueling:

Merci.

Par ailleurs, dans la même veine, puis-je confirmer que, si Facebook avait été au courant qu'une vidéo avait été falsifiée —et nous avons discuté du cas de Nancy Pelosi plus tôt —, Facebook aurait précisé qu'elle savait que la vidéo était falsifiée?

M. Neil Potts:

Lorsque l'un de nos tiers, de nos partenaires qui vérifient les faits... Nous avons plus de 50 vérificateurs de faits à l'échelle mondiale qui adhèrent aux principes de Poynter. Ils auraient considéré la vidéo comme fausse. Nous aurions alors publié la mise en garde. Nous aurions pris des mesures dynamiques pour réduire ce type d'information et signaler non seulement aux utilisateurs qui regardent la vidéo, mais aussi à ceux qui tentent de la partager ou qui l'ont déjà fait, qu'il s'agit d'une fausse vidéo.

Mme Sun Xueling:

Votre mise en garde dirait en fait que vous savez que les renseignements contenus sont faux.

M. Neil Potts:

Elle comporterait un lien qui mène à l'article de l'un des vérificateurs de faits qui conteste son authenticité et qui affirme qu'il s'agit d'une fausse vidéo.

Mme Sun Xueling:

Cette mise en garde serait envoyée à tous ceux qui auraient vu la vidéo originale.

M. Neil Potts:

Si vous étiez en train de la visionner, vous verriez la mise en garde apparaître soit dans le bas de votre fil de nouvelles, soit peut-être sur le côté si vous utilisez un ordinateur portable. Si vous aviez partagé la vidéo, vous seriez informé du fait que la validité du contenu est contestée.

Mme Sun Xueling:

Monsieur Chan, vous avez parlé du fait que Facebook intègre des mécanismes de ralentissement au système. Puis-je confirmer avec vous que Facebook s'est engagé à éliminer toute ingérence étrangère dans les activités politiques et les élections et que vous intégrez activement des mécanismes de ralentissement au système pour vous assurer d'éliminer une telle ingérence étrangère?

M. Kevin Chan:

J'imagine que vous parlez d'éventuelles mesures législatives à Singapour. Vous auriez tout intérêt à examiner la Loi sur la modernisation des élections que le Canada a mise en place...

Mme Sun Xueling:

Ma question était assez précise. Je voulais que vous confirmiez ce que vous avez dit plus tôt, que vous intégrez des mécanismes de ralentissement au système. Vous avez précisément utilisé ce terme.

M. Kevin Chan:

Le Parlement nous a bien conseillés, et nous avons décidé d'intégrer des mécanismes de ralentissement au système. Vous pourriez peut-être envisager le modèle canadien au moment d'élaborer des mesures législatives ailleurs.

(1250)

Mme Sun Xueling:

Merci.

Le président:

Nous avons entendu à peu près tous les délégués. Nous allons revenir au Royaume-Uni pour une autre question. Vous n'avez pas eu à partager votre temps; nous allons donc vous en accorder un peu plus.

Nous allons écouter M. Erskine-Smith, et je pense que M. Angus avait une autre question. Madame Stevens, vous avez encore la parole, puis je pense que nous aurons terminé.

À titre de président, je vais essayer d'accorder cinq minutes à tout le monde. Quand tout le monde aura parlé, nous demanderons à M. de Burgh Graham de suivre l'ordre. Puis, nous passerons à la deuxième série de questions de cinq minutes, donc si vous souhaitez poser une autre question, faites-le-moi savoir, et j'essaierai de vous accorder la priorité.

Pour la suite des choses, nous écoutons M. Erskine-Smith.

M. Nathaniel Erskine-Smith:

Merci beaucoup.

Je vais simplement reprendre où j'en étais à propos de Google. Appuieriez-vous un cadre de concurrence qui intègre la protection des renseignements personnels au mandat du commissaire à la concurrence?

M. Colin McKay:

Nous avons deux mécanismes de réglementation au Canada: l'un pour la concurrence, et l'autre pour la protection des données. C'est ce qui a été mis de l'avant dans la récente charte numérique du gouvernement. Les deux mécanismes feront l'objet d'un examen au cours de la prochaine année, et je pense que nous pouvons discuter de cet équilibre dans le cadre de ce processus.

M. Nathaniel Erskine-Smith:

Donc les dirigeants de Google n'ont pas d'opinion à l'heure actuelle. D'accord.

Quant à Twitter... Et je pose la question en partie parce que notre commissaire à la concurrence, sans que Facebook, précisément, soit au courant, prendra part à cette même discussion jeudi. Il n'y a pas seulement que l'organisme de réglementation allemand. On organise un forum sur les données au Centre national des Arts.

Est-ce que les dirigeants de Twitter ont une vision de la politique de la concurrence et de la protection des renseignements personnels?

M. Carlos Monje:

Je vous remercie de poser la question, ainsi que d’avoir fait la distinction entre les plateformes qui sont concernées. Twitter possède une part à un seul chiffre du marché publicitaire. Nous comptons quelque 130 millions d’utilisateurs quotidiens. Nous les chérissons tous. Nous travaillons à garder leur confiance et à les tenir mobilisés, et nous surveillons de près les lois antitrust et relatives à la concurrence...

M. Nathaniel Erskine-Smith:

Souscrivez-vous à l’opinion selon laquelle la protection des renseignements personnels devrait jouer un rôle de premier plan dans la loi sur la concurrence?

M. Carlos Monje:

Il faudrait que j’examine cette question d’un peu plus près.

Mme Michele Austin (chef, Gouvernement et politique publique, Twitter Canada, Twitter inc.):

Nous répéterions les commentaires formulés par le représentant de Google. Nous attendons avec impatience...

M. Nathaniel Erskine-Smith:

Alors, vous n’avez aucun point de vue, pour l’instant.

Mme Michele Austin:

... de travailler sur le cadre relatif au marché, qui est le fondement de la loi sur la concurrence.

M. Nathaniel Erskine-Smith:

D’accord, alors aucun d’entre vous n’a de point de vue sur une question réellement importante de notre journée.

En ce qui concerne la responsabilité algorithmique, le gouvernement du Canada dispose maintenant d’évaluations d’impact algorithmiques. Est-ce que l’une de vos entreprises a déjà mené des évaluations d’impact algorithmiques? Facebook pour le fil d’actualités, Google pour la fonction de recommandation sur YouTube et Twitter; avez-vous mené des évaluations d’impact algorithmiques internes, oui ou non?

M. Kevin Chan:

Je pense que, d’une façon générale, oui. Je ne sais pas exactement ce que vous voulez dire, mais, si vous demandez si nous avons un volet de travail visant à comprendre les conséquences des algorithmes...

M. Nathaniel Erskine-Smith:

À réaliser une évaluation des risques associés aux résultats positifs et négatifs des algorithmes que vous employez actuellement sur des millions de personnes...

M. Kevin Chan:

Monsieur, non seulement nous avons affecté une équipe à cette tâche, à l’interne, mais nous avons également mis sur pied un groupe de travail composé d’experts en matière de biais algorithmique qui se réunissent régulièrement afin de discuter de ces questions.

M. Nathaniel Erskine-Smith:

Votre entreprise n’a jamais affecté des analystes à l’étude du fil d’actualités et des algorithmes qui sont employés sur ce fil ni présenté les résultats positifs et négatifs dont nous devrions tenir compte.

M. Kevin Chan:

Je pense que je viens tout juste de répondre en ce qui concerne les résultats positifs.

M. Nathaniel Erskine-Smith:

Alors, oui. D’accord.

Pour ce qui est de Google, en ce qui concerne la fonction de recommandation sur YouTube...?

M. Derek Slater:

De même, nous évaluons constamment les algorithmes et cherchons à les améliorer.

M. Nathaniel Erskine-Smith:

Vous tenez des documents internes qui disent, voici les résultats positifs; voici les résultats négatifs, et voici l’évaluation des risques en ce qui a trait aux algorithmes que nous employons. Est-il juste d’affirmer que vous tenez ces documents?

M. Derek Slater:

Nous effectuons constamment ce genre d’évaluation, oui.

M. Nathaniel Erskine-Smith:

Excellent.

Et dans le cas de Twitter, est-ce la même chose?

M. Carlos Monje:

Nous les évaluons. Je soulignerais également que la façon dont Twitter utilise les algorithmes est considérablement différente. Les gens peuvent les désactiver à tout moment.

M. Nathaniel Erskine-Smith:

Fourniriez-vous les évaluations des risques internes au Comité?

M. Derek Slater:

Pour notre part, en ce qui concerne l’algorithme de recommandation sur YouTube, nous continuons de tenter d’améliorer notre transparence.

M. Nathaniel Erskine-Smith:

Fourniriez-vous ces évaluations des risques internes? Honnêtement, en ce qui me concerne, elles devraient être publiques, de la même manière que le gouvernement du Canada procède à une évaluation d’impact algorithmique et que tout organisme gouvernemental qui veut employer un algorithme doit faire preuve de transparence à cet égard. Aucune de vos entreprises multimilliardaires n’est tenue de procéder ainsi, mais je pense que vous devriez l’être.

Voudriez-vous fournir au Comité les évaluations d’impact algorithmiques que vous affirmez avoir effectuées et faire preuve d’une certaine transparence?

M. Kevin Chan:

Je vous remercie de cette question. Je pense que nous irons plus loin que cela. Comme je l’ai mentionné, nous sommes en train d'accroître notre transparence à l’égard d’un certain nombre d’éléments que vous verrez sur la plateforme. Nous avons déjà introduit sur certains marchés, en guise d’essai, ce qu’on appelle WAIST, qui est le sigle anglais de « Pourquoi est-ce que je vois ceci? » Cet outil vous donne une très bonne idée de la façon dont les publications sont classées et triées par le fil d’actualités.

M. Nathaniel Erskine-Smith:

Comme vous irez plus loin, je suppose que la réponse est oui, vous allez fournir cette documentation interne au Comité.

M. Kevin Chan:

Je pense que nous allons faire mieux. Nous allons joindre le geste à la parole, comme nous en avons parlé plus tôt, monsieur.

M. Nathaniel Erskine-Smith:

Je n’arrive pas à déterminer s’il s’agit d’un oui ou d’un non.

Les représentants de Google ont-ils un commentaire à faire?

M. Derek Slater:

Nous allons continuer à communiquer concernant notre situation.

M. Nathaniel Erskine-Smith:

Je considère cette réponse comme un non.

Qu'en est-il des représentants de Twitter?

M. Carlos Monje:

Nous croyons que la transparence est la clé. Je pense qu’il y a deux ou trois éléments à prendre en considération. L’un est que chacun de ces algorithmes est propriétaire. Il est important de réfléchir à ces aspects.

M. Nathaniel Erskine-Smith: Je comprends, oui.

M. Carlos Monje: L’autre est compréhensible. Nous parlons souvent des langues différentes. De mauvais acteurs, et leur interprétation de notre façon de mener nos activités... et aussi de nous juger par rapport aux résultats, et pas nécessairement aux intrants.

(1255)

M. Nathaniel Erskine-Smith:

D’accord.

Il ne me reste plus beaucoup de temps, alors je veux aborder la responsabilité à l’égard du contenu publié sur vos plateformes. Je crois comprendre que, dans le cas du contenu très préjudiciable... et nous pouvons parler de la nature du contenu, en soi. S’il est très préjudiciable, s’il s’agit de pornographie infantile ou de terrorisme, vous le retirez. S’il s’agit clairement d’un discours haineux criminel, vous le retirez, car ce contenu est préjudiciable de par sa nature seulement. En Allemagne, il est certain qu’il y aurait une responsabilité, et nous avons recommandé au sein du Comité qu’une responsabilité soit établie. S’il s’agit manifestement de contenu haineux, s’il est manifestement illégal, les plateformes de médias sociaux devraient être responsables si elles ne le retirent pas rapidement. À mes yeux, c’est logique.

Toutefois, la prochaine question ne porte pas sur la nature du contenu. Elle concerne votre participation active à l’augmentation du public exposé à ce contenu. Si un algorithme est employé par votre entreprise et utilisé pour faire augmenter les visionnements ou les expositions, reconnaissez-vous votre part de responsabilité à l’égard du contenu? Je souhaite obtenir une simple réponse affirmative ou négative.

Faisons le tour, en commençant par Google.

M. Derek Slater:

Nous sommes responsables de ce que nous recommandons, oui.

Une voix: C’est certain.

Une voix: Oui.

M. Carlos Monje:

Oui, nous prenons cette responsabilité très au sérieux.

M. Nathaniel Erskine-Smith:

Merci beaucoup.

Le président:

Nous allons retourner à la délégation du Royaume-Uni pour une autre période de cinq minutes.

Simplement pour que ce soit clair: la représentante de l’Estonie a demandé à poser une deuxième question. Les représentants de l’Allemagne et du Mexique et des membres du Comité l’ont demandé également. Je viens tout juste de voir une main levée du côté de Singapour; il y a aussi Charlie Angus et Damian Collins, puis je terminerai.

Monsieur Lucas ou madame Stevens, allez-y.

M. Ian Lucas:

Je m’adresse aux représentants de toutes les plateformes: avez-vous mis en place un processus satisfaisant pour la vérification de l’âge sur votre plateforme?

Monsieur Monje, allez-y.

M. Carlos Monje:

Oui. Nous mettons en œuvre les procédures relatives aux limites d’âge prévues dans le RGPD et tentons de trouver des moyens de le faire d’une manière qui protège la vie privée de nos utilisateurs. Souvent, il faut recueillir plus de renseignements auprès des mineurs dans le but de vérifier s’ils sont bien qui ils affirment être.

M. Ian Lucas:

Messieurs les représentants de Facebook, avez-vous établi un processus satisfaisant pour la vérification de l’âge?

M. Kevin Chan:

J’ai trouvé que la réponse de M. Monje était très bonne. C’est exactement l'équilibre que nous tentons d'atteindre.

Cela dit, je comprends l’esprit de votre question. Nous pouvons toujours nous améliorer. Je dois vous dire — et je pense que vous l’avez entendu de la bouche de mes collègues qui ont récemment comparu au Royaume-Uni...

M. Ian Lucas:

Alors, vous lisez des transcriptions de témoignages.

M. Kevin Chan:

En fait, non. J’ai passé du temps avec une collègue — Karina Newton — que les députés connaissent peut-être. C’est une femme très aimable, et elle a consacré une partie de son temps à me faire un compte rendu de la séance, de son point de vue. Selon elle, cela s’était très bien passé. Des questions approfondies et très ciblées ont été posées en ce qui concerne la vérification de l’âge.

Malheureusement, toutefois, la technologie n’est pas encore tout à fait là.

M. Ian Lucas:

Les représentants de Google veulent-ils ajouter quelque chose?

M. Derek Slater:

Oui, nous avons mis en place des exigences et souscrivons de façon générale aux propos qui ont été tenus.

M. Ian Lucas:

Vous avez peut-être mis en place des exigences, mais j’ai été capable de m’ouvrir un compte Instagram en me faisant passer pour un enfant de 10 ans — je pense — au cours d’une séance de comité. Il me semble, d’après les témoignages que j’ai entendus et ce que j’entends de la bouche de mes électeurs au Royaume-Uni, que les gens sont extrêmement préoccupés, et je ne crois pas que des processus de vérification de l’âge satisfaisants soient en place. En effet, selon les témoignages qui m’ont été présentés, les représentants des plateformes au Royaume-Uni semblaient eux-mêmes laisser entendre que les procédures de vérification de l’âge en place n’étaient pas satisfaisantes.

Souscrivez-vous à cette opinion? Pensez-vous que la situation est acceptable? Il s’agit essentiellement de ce que la plupart d’entre nous cherchent à savoir.

M. Kevin Chan:

Monsieur, ce que j’ai dit plus tôt, c’est que nous pouvons toujours nous améliorer. La technologie n’est pas rendue au stade où nous voudrions qu’elle soit.

M. Ian Lucas:

D’accord.

Dans le cas de Facebook, je suis un peu perplexe au sujet de votre relation avec WhatsApp et Instagram et du transfert des données. Si je donne des renseignements à Facebook, sont-ils transférables librement vers Instagram et WhatsApp?

M. Kevin Chan:

Comme vous le savez — je crois, car Karina a mentionné que vous aviez eu un échange à ce sujet au Royaume-Uni —, Facebook et Instagram sont régies par un ensemble de conditions d’utilisation, et WhatsApp est régie par un autre.

(1300)

M. Ian Lucas:

Cela signifie que des renseignements sont échangés entre Instagram et Facebook.

M. Kevin Chan:

Exact. Comme nous l’avons mentionné plus tôt, il est important pour nous de pouvoir mettre à profit l’infrastructure dans le but de prendre beaucoup des mesures que nous prenons pour tenter de garder les gens en sécurité. Karina l'a mentionné, en quelque sorte, quoiqu’elle a affirmé ne pas savoir si c’était complètement clair. Le fait d’avoir l'identité réelle des personnes sur Facebook nous permet de faire certaines des choses que nous ne pourrions pas faire au moyen d’Instagram seulement pour nous assurer que nous pouvons acquérir une plus grande certitude quant à ces questions d’âge, d’identité réelle, et ainsi de suite. Facebook nous permet de mettre à profit certains des systèmes de sécurité et de les appliquer à Instagram, car cette application — comme vous le savez manifestement — fonctionne très différemment et comporte un ensemble de pratiques différent du point de vue de la façon dont les gens utilisent le service.

M. Ian Lucas:

Enfin, je m’adresse aux représentants de toutes les plateformes: si vous étiez juridiquement responsable du contenu diffusé sur votre plateforme, seriez-vous en mesure de fonctionner en tant qu’entreprise?

M. Derek Slater:

Il existe des cadres juridiques en ce qui a trait à notre responsabilité à l’égard du contenu illégal, et nous les respectons.

M. Ian Lucas:

S’il était possible d’intenter des poursuites judiciaires contre les différentes plateformes en raison de renseignements que vous avez diffusés, lesquels, nous le savons, pourraient causer des préjudices dans l’avenir, pensez-vous que vous seriez en mesure de continuer à échanger des renseignements, ou bien que cela mettrait un terme à vos activités?

M. Carlos Monje:

C’est le contexte américain que je connais le mieux, et nous avons un certain degré d’immunité. C’était sous le régime de la Communications Decency Act, et cette loi avait été conçue pour nous procurer la marge de manœuvre nécessaire afin que nous puissions mettre en œuvre nos conditions d’utilisation sans nous faire poursuivre. La société américaine est très axée sur les actions en justice — comme vous le savez —, et cette mesure de protection nous a permis de créer et de maintenir une plateforme beaucoup plus sûre qu’elle ne l’aurait été autrement.

Ce que vous voyez ici même et partout dans le monde, ce sont de nombreux régimes différents qui font l’essai de mécanismes différents à cette fin. Des recherches indépendantes ont été menées au sujet des conséquences de cette situation, notamment à des endroits où on accusait les plateformes d'apporter des corrections excessives et d'étouffer des opinions valables. Aux États-Unis, il est rare que le gouvernement nous critique et demande de retirer du contenu parce qu’il enfreint notre politique sur le discours haineux ou sur la conduite haineuse; c'est plutôt lorsqu’il s’agit d’une violation de la loi sur le droit d’auteur, car les règles qui régissent le droit d’auteur aux États-Unis sont très strictes, et nous devons retirer le contenu dans un certain délai.

Au lieu de demander à une personne qui critique le gouvernement de retirer le contenu en raison d’autres conditions d’utilisation, on a recours au régime le plus strict, et cela a une incidence très négative sur la liberté d’expression.

Le président:

Merci.

Nous devons passer à un autre sujet. Je veux souligner ce qui se passera au cours des 30 prochaines minutes. Deux membres du Comité canadien n'ont pas encore pris la parole. Nous allons leur accorder cinq minutes chacun, ce qui nous laisse, pour les personnes qui ont demandé un deuxième tour de parole, environ 20 minutes, soit approximativement 3 minutes par personne.

Encore une fois, nous céderons d'abord la parole à M. Graham, puis à M. Saini et, ensuite, nous procéderons par pays.

Allez-y, monsieur Graham.

M. David de Burgh Graham (Laurentides—Labelle, Lib.):

Merci beaucoup.

Je veux entrer directement dans le vif du sujet. Je vais me concentrer sur Google et Facebook pour un instant.

Messieurs les représentants de Google, acceptez-vous le terme « capitalisme de surveillance »?

M. Colin McKay:

Je pense qu'il s'agit d'une exagération de la situation, mais il reflète les pressions sociales et constitue une reconnaissance de l'inquiétude croissante au sujet des données recueillies sur les personnes.

M. David de Burgh Graham:

Les représentants de Facebook souhaitent-ils se prononcer?

M. Kevin Chan:

Je pense avoir grimacé la première fois que j'ai entendu le terme.

M. David de Burgh Graham:

Vous suivez les gens sur Internet de toutes les façons possibles sans qu'ils le sachent et sans qu'ils aient donné leur consentement explicite, à tout moment et pour toute raison, et vous le faites pour générer des profits.

M. Colin McKay:

Nous entretenons une relation très claire avec nos utilisateurs au sujet des renseignements que nous recueillons et de l'utilisation que nous en faisons. Nous obtenons leur consentement à l'égard des renseignements que nous utilisons.

M. David de Burgh Graham:

Mais vous ne faites pas uniquement le suivi des renseignements sur les utilisateurs. Vous recueillez de l'information sur quiconque se trouve sur Internet. Si on regarde Google Analytics et n'importe lequel de ces autres services, lesquels font le suivi de toutes les personnes qui passent par un autre site Web qui n'a rien à voir avec Google, vous recueillez beaucoup plus de données que celles qui sont fournies volontairement par les utilisateurs. Ma question est la suivante: encore une fois, recueillez-vous des données sur les gens à des fins lucratives et, le cas échéant, ne s'agit-il pas de capitalisme de surveillance?

M. Colin McKay:

Je pense que, dans la situation générale que vous venez tout juste de décrire relativement aux personnes qui utilisent Internet, nous ne recueillons pas de renseignements au sujet des gens. Nous mesurons le comportement et... Désolé, c'est le mauvais terme. J'entends le ricanement.

Nous mesurons la façon dont les gens agissent sur Internet et fournissons des données liées à ces comportements, mais elles ne sont pas liées à une personne. Elles sont liées à un acteur.

(1305)

M. David de Burgh Graham:

Ou bien elles sont liées à un type de personne, à une adresse IP ou à ce type d'information. Vous recueillez des données qui peuvent être reliées à des personnes. Là où je veux en venir, et je veux aller plus loin que cela, c'est que les gouvernements ont une capacité de surveillance exceptionnelle, comme nous le savons tous. Du moins, au pays, et dans beaucoup d'autres pays représentés à la table, nous avons maintenant un comité de parlementaires chargé de surveiller notre appareil de sécurité, et il le fait dans un contexte de confidentialité. Il procède à un examen approfondi des organismes de renseignement, de ce qu'ils font, de la façon dont ils le font et des raisons pour lesquelles ils le font, et il rend des comptes à ce sujet.

Si ces comités étaient créés uniquement pour se concentrer sur les entreprises de médias sociaux ou que le Comité s'y mettait, quelles surprises découvrirait-on?

M. Kevin Chan:

Monsieur, comme je l'ai indiqué, nous voulons faire plus au moyen de nos actes. Nous allons rendre toute cette information accessible, et, ensuite, les gens pourront... y compris les éléments qui sont à l'extérieur de la plateforme. Si un site utilise, disons, un module externe ou quelque chose de ce genre provenant de Facebook, vous avez accès à tous ces renseignements et vous pouvez en faire tout ce que vous voulez. Vous pouvez retirer des éléments. Vous pouvez en supprimer. Vous pouvez en transférer ou en télécharger. Voilà notre engagement, et nous allons le faire rapidement.

M. David de Burgh Graham:

Je comprends, mais, si on va sur Facebook et qu'on demande à télécharger nos données, il ne s'agit pas d'une collection complète des renseignements que Facebook possède sur nous en tant qu'utilisateur.

M. Kevin Chan:

Exact. Je pense que vous faites allusion aux situations où une personne télécharge ses renseignements et on obtient des choses comme ses photographies et ses vidéos.

M. David de Burgh Graham:

On obtient une poignée de photographies et de mises à jour, et puis bonne journée.

M. Kevin Chan:

C'est exact. Ce que nous voulons faire, c'est établir... et cela prend un peu de temps. Si vous pouvez faire preuve de patience, il faut un peu plus de temps pour établir un système beaucoup plus ambitieux, qui vous permettra ensuite de prendre les commandes non seulement des renseignements que vous avez affichés sur Facebook, mais de toute l'activité que vous pourriez avoir effectuée ailleurs au moyen de modules externes. Nous pourrons vous donner la capacité de contrôler et de retirer des choses, si vous le choisissez.

M. David de Burgh Graham:

Si Mark Zuckerberg était candidat à la présidence des États-Unis, par exemple, qu'est-ce qui limiterait sa capacité d'utiliser les données, les machines, les algorithmes et les capacités de collecte de Facebook pour alimenter sa campagne?

M. Kevin Chan:

Monsieur, si je puis me permettre, il s'agit d'une très bonne question, et c'est précisément pourquoi nous avons établi les politiques qui sont en place et pourquoi nous les respectons aussi rigoureusement. Ce n'est pas... et je pense que la question a été présentée d'une manière différente. C'était: « Qu'arriverait-il s'il y avait une photographie de Mark Zuckerberg ou une vidéo de lui? » Le traitement serait le même. C'est parce que ces politiques doivent tenir sans égard à la direction dans laquelle le vent souffle.

Comme je l'ai déjà dit, nous comprenons que les gens puissent ne pas être à l'aise avec le degré de transparence et la mesure dans laquelle Facebook peut prendre ces décisions au sujet de ce qui se passe sur son service, et c'est pourquoi nous établissons ce comité de surveillance externe, afin qu'un grand nombre de ces décisions difficiles établissant un précédent ne soient pas prises par Facebook seulement. Les gens auront la capacité d'interjeter appel auprès d'un organisme indépendant, lequel pourra prendre les décisions qui régiront le discours sur une plateforme.

M. David de Burgh Graham:

Je ne dispose que de quelques secondes, et je veux revenir sur l'organisme indépendant dans une seconde.

Là où je veux en venir, c'est que je soupçonne que le soutien de Facebook et l'utilisation des données de cette plateforme ne seront pas les mêmes si Neil Potts est candidat à la présidence des États-Unis que si Mark Zuckerberg est candidat à ce poste. C'est pourquoi il serait très difficile d'affirmer que la comparution de M. Zuckerberg est équivalente à celle de Neil Potts.

M. Kevin Chan:

Encore une fois, nos politiques s'appliquent à tout le monde. Nous ne ferions aucune exception pour qui que ce soit, et il s'agit en fait de la raison pour laquelle nous tenons ces genres de conversations solides.

M. David de Burgh Graham:

M. Zuckerberg a-t-il un...

Le président:

Notre temps est écoulé. Désolé, monsieur Graham.

Nous allons passer à M. Saini, pour cinq minutes.

M. Raj Saini (Kitchener-Centre, Lib.):

Bonjour.

L'une des choses que nous avons entendu de nombreux experts affirmer, c'est que beaucoup des problèmes qui sont survenus relativement aux données ont eu lieu au moment où l'apprentissage machine est vraiment entré en vigueur. Il y a eu un tournant. De nombreux experts s'entendent sur le fait que l'autoréglementation n'est plus viable. Des règles doivent être établies. Le modèle d'affaires ne peut tout simplement pas se réglementer, et il ne correspond pas à l'intérêt public.

J'ai deux questions à soulever. Ma préoccupation tient au fait qu'actuellement, nous sommes une démocratie mature. Beaucoup des pays représentés à la table sont des démocraties matures. Mon inquiétude concerne les démocraties naissantes qui tentent de s'élever, mais qui ne disposent pas de la structure, de la réglementation, de l'éducation et de l'efficience appropriées ni d'une presse libre ou avancée. Certains ont laissé entendre qu'il faudrait peut-être internationaliser cette autoréglementation, comme dans le cas d'autres produits. Même si certains pays pourraient ne pas avoir la capacité de réglementer efficacement certaines industries, les démocraties matures pourraient établir une norme mondiale.

Serait-ce quelque chose d'acceptable, par le truchement d'un mécanisme de l'OMC ou d'une autre institution internationale qui est peut-être mise à part? Une partie de la conversation porte sur le RGPD, mais ce règlement ne s'applique qu'à l'Europe. Il y a les règles américaines, les règles canadiennes, les règles sud-asiatiques... Si une seule institution gouvernait tout le monde, il n'y aurait pas de confusion, peu importe où les plateformes mèneraient leurs activités, car elles adhéreraient à une norme mondiale.

(1310)

M. Kevin Chan:

Vous avez raison. Nous pouvons faire harmoniser les normes à l'échelle mondiale; ce serait utile. Nous l'avons demandé à plusieurs égards, notamment en ce qui concerne la protection des renseignements personnels.

J'affirmerais qu'il s'agit en fait de l'un des défis clés. C'est un débat dynamique que nous tenons lorsque nous parlons du comité de surveillance. Dans le cadre des consultations que nous avons menées partout dans le monde, y compris au Canada, la grande question qui a été soulevée est la suivante: « Comment peut-on permettre à un comité mondial de prendre des décisions qui auront des conséquences locales? » Cette question a été posée, et je peux affirmer que nous avons tenu des conversations intéressantes avec l'Assemblée des Premières Nations. Manifestement, les Autochtones posent des questions uniques au sujet de la nature du bon cadre de gouvernance pour le contenu en ligne et de la façon dont nous allierons l'international au local.

Je suis tout à fait d'accord avec vous, monsieur. C'est une question très pertinente, à laquelle nous tentons de répondre.

M. Raj Saini:

Les représentants de Google veulent-ils s'exprimer?

M. Colin McKay:

C'est un défi que nous reconnaissons depuis les tout débuts de la mise en œuvre de l'apprentissage machine dans nos produits, et il s'agit de l'une des raisons pour lesquelles nous avons établi il y a plus d'un an un ensemble très clair de principes relatifs à la façon dont nous utiliserons l'intelligence artificielle dans nos produits.

Nous soulignons certainement le fait qu'une conversation active doit avoir lieu entre l'industrie et les gouvernements de partout dans le monde. Dans le passé, l'élaboration, sous la direction de l'OCDE, d'une telle réglementation axée sur des principes relativement à la protection des données nous a été utile en ce qui a trait aux progrès en fonction de la région et aux taux de sophistication.

Je suis d'accord avec vous sur le fait que ce genre de collaboration mondiale fondée sur des principes, surtout de concert avec les entreprises qui devront mettre cette réglementation à exécution, entraînera un système réglementaire plus équitable qui sera applicable le plus généralement possible, ici même dans la salle ou à l'échelle mondiale.

M. Raj Saini:

Je vous remercie de cette réponse. Évidemment, vous allez tenir compte de l'effet local dans tout pays avec lequel vous travaillez, mais il existe certains principes fondamentaux sur lesquels je pense que l'on peut s'entendre à l'échelle mondiale.

Ma dernière question est un peu philosophique, mais aussi un peu pratique. Dans certains pays où vous menez vos activités, vous savez qu'il n'existe aucune norme ni aucune réglementation. La primauté du droit est absente, tout comme la liberté de presse, et la structure gouvernementale n'est pas très avancée. Le contenu pourrait être exploité d'une manière plus haineuse dans ces pays que dans d'autres régions du monde.

Les plateformes n'ont-elles aucun mandat moral de s'assurer que, lorsqu'elles vont dans ces pays, elles contribuent à élever la structure de gouvernance, afin que leurs activités à ces endroits soient menées d'une manière plus équitable?

M. Colin McKay:

Ma réponse à cette question comporte deux volets.

Tout d'abord, comme l'a mentionné mon collègue, M. Slater, nous travaillons très dur afin de nous assurer que les politiques et les lignes directrices relatives à tous nos produits s'appliquent à ces pays ainsi qu'aux pays que nous pourrions décrire comme développés ou stables.

Toutefois, c'est aussi pourquoi des gens comme moi travaillent pour l'entreprise. Nous œuvrons au sein d'équipes qui se concentrent sur l'IA et sur la protection des renseignements personnels et des données. Nous tenons ces discussions, dans le pays en tant que tel ou à l'occasion de réunions d'organisations internationales, afin que nous puissions échanger continuellement des renseignements au sujet de la façon dont nous voyons ces politiques et technologies évoluer à l'échelle internationale. Nous pouvons fournir une comparaison avec la façon dont ces pays voient cette évolution à l'intérieur de leur propre administration.

Il s'agit d'un échange honnête et franc, où nous reconnaissons que nous sommes à l'avant-plan d'une technologie qui a une incidence importante sur nos produits et qui présente un avantage considérable pour nos utilisateurs.

M. Raj Saini:

Merci beaucoup.

Le président:

Merci, monsieur Saini.

Nous allons maintenant passer à nouveau aux représentants des pays, qui disposeront d'environ deux minutes chacun. Je vous prie d'être brefs. Nous allons entendre les représentants de l'Estonie, de l'Allemagne, du Mexique, de Singapour et de l'Irlande, puis nous allons conclure.

C'est au tour de l'Estonie. Vous avez la parole.

Mme Keit Pentus-Rosimannus:

Merci.

Il a été souligné que le phénomène de la désinformation devient de plus en plus complexe et qu'il est présent sur bon nombre de canaux et de plateformes, ce qui signifie que les différentes phases et les différentes étapes des campagnes de désinformation ont souvent lieu sur différents canaux.

Comment faire pour coopérer? Qu'est-ce que vous envisagez comme modèle pour la coopération entre les différentes plateformes afin de lutter contre la désinformation?

M. Derek Slater:

Nous effectuons nos propres évaluations des menaces pour prévoir et prévenir les nouvelles tendances, puis nous travaillons en collaboration avec l'industrie et, au besoin, avec les forces de l'ordre et d'autres intervenants afin de nous assurer que les renseignements et les indicateurs sont communiqués. Nous tenons absolument à prendre part à ce genre de processus.

M. Carlos Monje:

Je tiens simplement à dire que les entreprises collaborent sur ces problèmes et travaillent en étroite collaboration avec les gouvernements. Pendant la déclaration de M. Saini, je pensais au rôle du gouvernement et à quel point l'Estonie était avant-gardiste — bien qu'elle compose depuis longtemps avec la désinformation russe — au chapitre de ses efforts pour améliorer l'éducation sur les médias et de son travail avec les plateformes de façon à nous faciliter la tâche.

Tout le monde a un rôle à jouer, et les entreprises travaillent en collaboration pour lutter contre les menaces communes.

(1315)

M. Neil Potts:

Il faudrait se pencher sur le travail que nous effectuons dans le cadre du Forum mondial de lutte contre le terrorisme. Toutes nos entreprises participent à ce forum, au sein duquel nous avons des responsabilités partagées au chapitre de l'échange de renseignements, de la collaboration en matière de technologies et de soutien pour la recherche.

Le président:

Nous allons maintenant passer au représentant de l'Allemagne.

Vous avez la parole.

M. Jens Zimmermann:

Merci, monsieur le président.

J'aimerais poser quelques questions aux représentants de Twitter.

Au cours des récentes élections européennes, vous avez mis en place plusieurs mesures, lesquelles visaient particulièrement les fausses nouvelles concernant le processus électoral. Cela semblait être une bonne idée au départ, cependant, en Allemagne, les gazouillis de certains de nos représentants élus ont été bloqués alors qu'ils ne comportaient bien évidemment aucun renseignement erroné.

Bien entendu, le mécanisme de plainte de Twitter a été utilisé par des activistes de l'extrême droite afin de signaler, par exemple, des publications tout à fait légales mises en ligne par des membres du Parlement. Le problème, c'est la façon dont vous avez fait cela, et il a fallu un certain temps avant que tout ne rentre dans l'ordre.

Avez-vous fait un suivi à cet égard? Quelles leçons en avez-vous tirées, et comment cela va-t-il évoluer au cours des prochaines élections?

M. Carlos Monje:

Je vous remercie de cette question.

J'ai suivi tout cela depuis les États-Unis, à savoir les signalements pour désinformation que nous avons lancés dans l'Union européenne et en Inde. Je crois qu'il s'agit à la fois d'un défi et d'un avantage liés au fait d'être une plateforme mondiale: dès que vous vous retournez, il y a une nouvelle élection. Il y a les élections en Argentine qui s'en viennent, celles aux États-Unis en 2020 et celles au Canada, bien sûr, en octobre.

Nous avons appris que, lorsque vous créez une règle et mettez en place un système pour l'appliquer, les gens vont toujours tenter de le contourner. En Allemagne, la question était de savoir si on signait le bulletin de vote et comment on le faisait. Il s'agit de l'un des problèmes qui sont survenus. Nous allons en tirer des leçons et tenter de nous améliorer.

Ce que nous avons découvert — et M. Potts a mentionné le Forum mondial de lutte contre le terrorisme —, c'est que notre contribution à l'effort, ou plutôt ce que fait Twitter, c'est se pencher en premier sur les comportements, c'est-à-dire sur la façon dont les différents comptes interagissent entre eux, et non pas sur le contenu. De cette façon, nous n'avons pas à examiner les différents contextes qui rendent ces décisions plus compliquées.

Le président:

Merci.

Nous allons passer au représentant de Singapour pour deux minutes.

M. Edwin Tong:

Monsieur Potts, vous avez dit plus tôt, en réponse à la question de ma collègue, que vous n'étiez pas au courant que les vidéos avant ou après les attentats à la bombe au Sri Lanka avaient été signalées à Facebook avant les événements. Vous rappelez-vous avoir dit cela?

M. Neil Potts:

Oui, monsieur.

M. Edwin Tong:

C'était un massacre important et abominable, dont les vidéos ont circulé sur Facebook pendant un certain temps et, comme vous l'avez dit, il s'agit d'un discours haineux constituant clairement une violation de vos politiques. Vous savez sans doute que l'auteur présumé de l'attentat lui-même avait un compte Facebook. Je suis surpris que vous n'ayez pas vérifié cela, puisqu'il me semble que c'est quelque chose que Facebook aurait probablement voulu savoir.

On aurait voulu savoir pourquoi, compte tenu des vidéos qui ont circulé sur Facebook, c'est quelque chose qui avait échappé à Facebook, dans la mesure où cela vous avait échappé. Je suis surpris que vous ne sachiez toujours pas aujourd'hui si cela a été signalé à Facebook. Êtes-vous en mesure de confirmer cela?

M. Neil Potts:

Pour cette vidéo en particulier, monsieur, je serais heureux de vous revenir là-dessus après l'audience et de vous montrer la chronologie exacte des événements. Lorsqu'on nous a mis au courant de l'attaque perpétrée par cet individu, nous avons rapidement retiré...

M. Edwin Tong:

Je sais. Ce n'est pas ma question. Comment se fait-il qu'aujourd'hui, environ deux mois après les événements en question, vous ne savez toujours pas si, avant l'attaque, Facebook avait été mis au courant de l'existence des vidéos? J'aurais pensé que, si vous vouliez nous faire croire que les politiques que vous avez maintenant en place — l'intelligence artificielle et d'autres mécanismes pour l'avenir... Si j'étais à la place de Facebook, j'aurais voulu savoir pourquoi cela m'avait échappé. Je suis étonné que vous ne le sachiez toujours pas, même en date d'aujourd'hui.

M. Neil Potts:

C'est exact. Nous effectuons un processus officiel d'analyse après-action dans le cadre duquel nous nous penchons sur ces incidents afin de nous assurer que nos politiques...

(1320)

M. Edwin Tong:

Ce point n'a pas été soulevé.

M. Neil Potts:

J'aurais simplement besoin de vous revenir avec les renseignements. Je ne veux pas me prononcer à tort.

M. Edwin Tong:

Monsieur Potts, vous avez vous-même témoigné au Parlement du Royaume-Uni le mois dernier, et cette question a été soulevée au cours de l'audience. Est-ce exact?

M. Neil Potts:

Il me semble que l'attaque est survenue le dimanche de Pâques. Nous avons témoigné, il me semble, le mardi suivant. Nous n'en étions qu'aux premiers stades lorsque nous avons témoigné.

M. Edwin Tong:

D'accord, mais j'aimerais dire que je suis étonné que Facebook n'ait pas jugé bon de vérifier si quelque chose n'avait pas été oublié.

M. Kevin Chan:

Si je peux me permettre, monsieur, je tiens à vous assurer d'une chose...

M. Edwin Tong:

Si c'est pour répondre à ma question, alors je vous prie de formuler des explications, autrement...

M. Kevin Chan:

C'est par rapport à notre posture de sécurité, monsieur.

Le président:

Je suis désolé. Si ce n'est pas pour répondre directement à la question de M. Tong, nous ne disposons pas d'assez de temps.

Je m'excuse, monsieur Tong. Il ne reste plus de temps.

Nous devons passer à la représentante de l'Irlande pour deux minutes, puis nous allons conclure.

Je m'excuse, j'aurais aimé que nous ayons plus de temps, mais nous n'en avons pas.

Vous pouvez y aller.

Mme Hildegarde Naughton:

Merci, monsieur le président.

Je n'ai pas obtenu de réponse à ma première question, laquelle portait sur la position de Google par rapport au RGPD. Bon nombre des entreprises de médias sociaux ont leur siège social en Irlande. En effet, notre commissaire à la protection des données réglemente pour l'Europe, et Mark Zuckerberg de Facebook a demandé qu'une approche inspirée du RGPD soit adoptée partout dans le monde.

Quel est votre point de vue à ce sujet? Est-ce que cela peut fonctionner?

M. Colin McKay:

Nous estimons que le RGPD offre un cadre solide pour une conversation mondiale sur ce à quoi ressemblerait une protection étendue des renseignements personnels. La question est de savoir comment ce cadre peut s'adapter aux administrations locales et tenir compte du contexte politique et social de chacune de ces administrations.

Mme Hildegarde Naughton:

Vous ne pouvez pas être certain que cela va fonctionner.

Êtes-vous d'accord avec M. Zuckerberg sur l'application du RGPD à l'échelle mondiale?

M. Colin McKay:

Nous avons déjà abordé en détail le besoin de travail accru au chapitre de la réglementation de la protection des renseignements personnels. C'était l'automne dernier. Cela se fonde en grande partie sur le travail lié à l'élaboration du RGPD.

Je fais preuve de prudence, parce que je sais qu'il y a bon nombre de différents types de réglementation sur la protection des renseignements personnels en place à l'heure actuelle.

Mme Hildegarde Naughton:

Dans différents pays...

Pour ce qui est de l'Irlande, encore une fois, puisque c'est là où se trouve le siège social de bon nombre d'entreprises de médias sociaux... Votre siège social européen international est situé en Irlande. Nous travaillons sur des dispositions législatives concernant le commissaire à la sécurité numérique, ce qui signifie que l'Irlande légiférera sur la modération de contenu en ligne pour l'Europe et peut-être même pour d'autres administrations.

Voyez-vous les choses de la même façon? Très brièvement, quel est votre avis à ce sujet?

M. Derek Slater:

Comme nous l'avons dit dès le départ, il est essentiel que le gouvernement établisse des définitions claires sur ce qui est illégal, en plus d'avis clairs, pour que les plateformes agissent rapidement. Nous sommes ravis de voir ce genre de collaboration relativement au contenu illégal.

Mme Hildegarde Naughton:

Pourriez-vous envisager de déployer cela au-delà de l'Europe compte tenu de la loi en Irlande?

M. Derek Slater:

Qu'il s'agisse de cette loi ou non, je crois qu'il y a de plus en plus consensus au sujet des principes de base en matière d'avis et de retrait de contenu illégal.

Mme Hildegarde Naughton:

Les représentants de Facebook souhaitent-ils intervenir à ce sujet?

M. Kevin Chan:

Je crois que ce que M. Slater a dit est absolument vrai. Nous voulons travailler en collaboration avec vous. Je crois comprendre, en fait, que notre équipe travaille de concert avec les autorités publiques irlandaises sur cette question.

Nous travaillons également en collaboration avec le gouvernement français et le président Macron sur ce que ce dernier appelle la réglementation intelligente. Nous serions heureux d'avoir l'occasion de nous entretenir avec vous et avec d'autres personnes en Irlande sur l'évolution de la situation. Je crois que cela mérite que l'on s'y attarde un peu plus.

M. Carlos Monje:

En plus de l'importance d'avoir une terminologie précise, j'estime que la question de la responsabilité est importante, au-delà de l'organisme de réglementation qui rend des comptes au Parlement et des personnes qui pourraient avoir des comptes à rendre à leurs électeurs.

J'aimerais également ajouter qu'il est important, surtout dans le cadre de ces questions sur la modération de contenu, que nous prenons extrêmement au sérieux, de reconnaître la façon dont ces outils peuvent être utilisés par les régimes autocratiques. J'écoutais ce qui a été dit hier au sujet de l'Allemagne avant le nazisme. Les outils qui ont été utilisés afin de protéger la démocratie ont ensuite été utilisés pour l'étouffer au bout du compte. Je crois qu'il s'agit de questions difficiles, et je suis heureuse que ce comité les prenne au sérieux.

Le président:

Merci, madame Naughton.

Nous tenons à vous remercier tous et toutes de vos témoignages aujourd'hui.

Nous avons des observations finales, et nous commençons avec M. Angus...

Je présente mes excuses à la représentante du Mexique. Vous avez levé la main et je vais donc vous accorder deux brèves minutes. Vous avez la parole.

L’hon. Antares Guadalupe Vázquez Alatorre:

[La déléguée s'exprime en espagnol. Traduction de l'interprétation.]

J'aimerais rapidement vous demander quelle est la marche à suivre pour une victime lorsque le contrôle fait défaut et qu'il y a violation [Difficultés techniques] et Google en particulier.

M. Derek Slater:

Si je vous comprends bien, vous avez posé une question par rapport au contenu sur YouTube qui viole les lignes directrices communautaires. Nous avons des systèmes de signalement dans le cadre desquels un utilisateur n'a qu'à cliquer pour nous informer d'un contenu qui viole nos lignes directrices. Cet avis est envoyé et mis en attente d'examen. Il est possible de faire cela juste sous la vidéo.

(1325)

L’hon. Antares Guadalupe Vázquez Alatorre:

[La déléguée s'exprime en espagnol. Traduction de l'interprétation.]

Qu'arrive-t-il lorsqu'on leur dit qu'il n'y a pas d'infraction aux politiques, mais qu'il y a une vidéo accessible à tous dans laquelle une personne est nue?

M. Derek Slater:

Selon le contexte, si le contenu enfreint nos lignes directrices, nous allons le retirer. Si nous ne le faisons pas, il y a des mécanismes d'appel en place, et ainsi de suite.

L’hon. Antares Guadalupe Vázquez Alatorre:

[La déléguée s'exprime en espagnol et l'interprétation en anglais de ses propos est traduite ainsi:]

Je connais des cas, de nombreux cas, où les gens ont suivi toutes les procédures en ligne, et la réponse a toujours été: « Cela ne va pas à l'encontre de nos politiques », et ce, sur les trois plateformes. Que peut faire la victime? Comment peut-elle faire appel à qui que ce soit?

Comme je vous l'ai dit, dans un cas particulier, lorsque les personnes concernées se sont rendues au bureau de Google au Mexique, on leur a dit d'aller au bureau de Google aux États-Unis. Par conséquent, que peut faire une victime lorsque les images qui lui portent préjudice sont toujours affichées? Elles sont en ligne.

M. Derek Slater:

Je ne connais pas les cas particuliers dont vous parlez, mais nous serions heureux d'y donner suite.

L’hon. Antares Guadalupe Vázquez Alatorre:

[La déléguée s'exprime en espagnol et l'interprétation en anglais est traduite ainsi:]

Dans tous les cas, que se passe-t-il ensuite?

M. Derek Slater:

En règle générale, si quelque chose portait atteinte à la vie privée d'une personne, était diffamatoire ou incitait à la violence, et ainsi de suite, que cela allait à l'encontre de nos lignes directrices, nous le supprimerions. Le cas que vous décrivez m'est inconnu, mais nous serions heureux de recevoir plus de renseignements et de les transmettre à nos équipes.

Le président:

Nous ferions mieux de poursuivre.

Nous allons passer à M. Angus pour quelques minutes, puis à M. Collins et moi-même.

Allez-y, monsieur Angus.

M. Charlie Angus:

Je vous remercie, monsieur le président.

J'aimerais faire une confession. Je suis un utopiste du numérique en rémission. Je suis venu ici en tant que jeune socialiste démocratique et je me suis battu avec acharnement contre la réglementation. Pensez-y, parce que nous avons vu toutes ces entreprises en démarrage ainsi qu'un grand avenir pour le monde numérique. C'était en 2006. Maintenant, en 2019, j'ai ici des présidents conservateurs qui font pression en faveur d'une réglementation gouvernementale. C'est le monde dans lequel nous sommes tous.

C'est parce que nous parlons des droits démocratiques des citoyens, du rétablissement des droits des citoyens dans le domaine que vous contrôlez. Nous parlons du pouvoir qu'ont les plateformes de bouleverser nos systèmes démocratiques partout dans le monde, ce qui est sans précédent. Nous parlons du pouvoir qu'ont ces plateformes d'amener les gens à se radicaliser dans chacune de nos circonscriptions, ce qui a entraîné des massacres partout dans le monde. Ce sont là de graves problèmes. Nous commençons à peine à nous attaquer aux problèmes de l'IA et des technologies de reconnaissance faciale ainsi qu'à ce que cela signifiera pour nos concitoyens.

C'est ce que notre commissaire à la protection de la vie privée a appelé le droit des citoyens de vivre sans surveillance, ce qui touche au cœur même du modèle de gestion, en particulier celui de Facebook et de Google, et certains des meilleurs experts au monde ont dit hier et aujourd'hui que la première ligne de cette lutte pour les espaces publics et la vie privée des citoyens sera menée à Toronto avec le projet Google.

Monsieur McKay, nous vous avons déjà posé des questions sur Sidewalk Labs, mais vous avez dit que vous ne parliez pas au nom de l'organisation et que, d'une certaine manière, il s'agissait d'une entreprise différente.

Monsieur Slater, des experts nous ont dit qu'il s'agissait d'une menace pour les droits de nos citoyens. M. McNamee a dit qu'il ne laisserait pas Google approcher à moins de 100 milles de Toronto.

Pourquoi les citoyens de notre pays devraient-ils faire confiance à ce modèle de gestion pour décider de l'aménagement de certains des meilleurs terrains dans notre plus grande ville?

M. Derek Slater:

Je ne travaille pas non plus pour Sidewalk Labs. Vous avez raison. Nous voulons votre confiance, mais nous devons la mériter, en étant transparents, en élaborant des pratiques exemplaires avec vous et en étant responsables. Je pense que différents sites feront différents choix. C'est généralement le cas, mais je ne peux pas parler de cette entreprise en particulier, parce que je n'en fais pas partie.

Le président:

Je vous remercie, monsieur Angus.

Monsieur Collins, vous avez la parole.

M. Damian Collins:

Je vous remercie.

J'aimerais simplement revenir sur quelques points qui ont été abordés au cours de la séance.

Monsieur Potts, vous avez parlé brièvement des changements apportés à la politique de Facebook Live à la suite de l'attaque de Christchurch. Je crois comprendre qu'il s'agit d'une restriction pour les personnes qui ont diffusé les images les plus révélatrices sur Facebook Live, lesquelles verraient alors leurs comptes automatiquement suspendus. Est-ce exact?

M. Neil Potts:

C'est exact. Mais de plus, de façon plus générale, s'il y a violation des normes communautaires pour des types d'actions spécifiques, votre accès vous permettant d'utiliser le produit en direct sera suspendu pour une période de 30, 60 ou 90 jours.

(1330)

M. Damian Collins:

Vous ne pourriez pas utiliser le produit en direct.

M. Neil Potts:

C'est exact.

M. Damian Collins:

Le temps maximum de la suspension serait-il de 90 jours?

M. Neil Potts:

Je pense que pour les violations graves de nos normes communautaires, nous nous réservons également le droit de désactiver votre compte.

M. Damian Collins:

D'accord.

Qu'en est-il des personnes qui ont partagé du contenu grave qui a été diffusé sur Facebook Live? Ce ne sont pas elles qui l'ont diffusé, mais elles l'ont partagé à d'autres personnes sur la plateforme. Des mesures sont-elles prises contre elles?

M. Neil Potts:

Nous essayons d'examiner l'intention de la personne qui partage. Je pense que dans l'exemple de Christchurch, il y avait beaucoup de gens qui partageaient le contenu simplement pour des raisons de sensibilisation. Il y en avait certainement qui le partageaient à des fins malveillantes, pour bouleverser nos politiques ainsi que notre intelligence artificielle. Des mesures seraient prises contre eux. Si nous savions que vous partagiez — même des entreprises de médias partageaient la vidéo —, nous essayerions de voir le contexte et de comprendre l'intention derrière votre partage.

M. Damian Collins:

Est-ce que les personnes qui, selon vous, ont malicieusement partagé les images ont vu leurs comptes annulés?

M. Neil Potts:

Dans certains cas, les personnes ont vu leurs comptes désactivés. Dans d'autres cas, elles ont été sanctionnées.

M. Damian Collins:

Pourriez-vous nous écrire pour nous dire combien de comptes ont été désactivés à la suite de ces partages?

M. Neil Potts:

Je serais heureux de faire un suivi après l'audience.

M. Damian Collins:

De toute évidence, ces changements entraînent des mesures rétroactives à l'encontre de ceux qui sont responsables. Y a-t-il quelque chose que Facebook a fait pour empêcher un drame comme celui de Christchurch de se reproduire, en ce qui concerne la façon dont il est diffusé et partagé dans l'ensemble des systèmes?

M. Neil Potts:

Nous continuons d'investir dans l'IA.

Dans le cas de Christchurch, l'utilisation de la vidéo à la première personne de l'appareil GoPro est très difficile à reconnaître pour l'IA. Nous continuons d'investir pour essayer de nous améliorer et de fournir des données d'entraînement à l'apprentissage machine afin que nous puissions détecter et prévenir. Nous avons intégré de nouveaux protocoles permettant d'acheminer ces types de vidéos à des réviseurs humains en temps réel, mais il est important de noter que la vidéo n'a jamais été signalée pendant qu'elle était en direct.

M. Damian Collins:

D'accord. Je ne suis pas certain de bien comprendre, mais il y a encore deux ou trois questions.

Vous avez beaucoup parlé de la suppression des comptes non authentiques. Facebook, je crois, a dit que 3,3 milliards de comptes non authentiques avaient été supprimés au cours des six derniers mois. C'est beaucoup plus que le nombre d'utilisateurs actifs de l'entreprise. À la lumière de ces données, à quel point pouvez-vous être certain qu'il n'y a qu'environ 5 % des comptes qui ne sont pas authentiques?

M. Neil Potts:

Nous avons des équipes scientifiques qui étudient la question de près, alors je m'en remets à leur expertise et à leur analyse à ce sujet.

M. Damian Collins:

Monika Bickert a dit que les comptes non authentiques sont beaucoup plus susceptibles de partager de la désinformation; par conséquent, sur ces 3,3 milliards de comptes, combien d'entre eux partagent activement de la désinformation?

M. Neil Potts:

Je n'ai pas ce chiffre. Je crois qu'elle a dit qu'ils sont plus susceptibles... C'est une combinaison de comportements abusifs, donc non seulement de la désinformation, mais également des propos haineux. Votre point est pris en compte, et je peux y donner suite.

M. Damian Collins:

Facebook serait-elle en mesure d'écrire au Comité pour lui donner une réponse à cette question?

M. Kevin Chan:

Eh bien, monsieur, je devrais clarifier les choses. Je pense que c'est le cas, si vous examinez le rapport sur la transparence...

M. Damian Collins:

Je suis désolé, monsieur, nous manquons de temps.

Je veux juste dire que, si vous n'avez pas la réponse à cette question maintenant...

M. Kevin Chan:

Nous avons la réponse, monsieur.

M. Damian Collins:

... l'entreprise peut nous l'envoyer par écrit.

M. Kevin Chan:

La grande majorité des comptes sont en fait désactivés avant même qu'un humain puisse interagir avec eux.

M. Damian Collins:

D'accord.

Facebook pourrait-elle s'engager à écrire au Comité pour dire...

M. Neil Potts:

Nous le ferons.

M. Damian Collins:

... combien de ces comptes qui ont été supprimés, ces 3,3 milliards, partageaient de la désinformation? L'entreprise dit que ces comptes sont plus susceptibles de partager de la désinformation que d'autres types de comptes?

M. Neil Potts:

Si nous avons [Inaudible].

M. Damian Collins:

Enfin, à la suite du scandale de Cambridge Analytica l'an dernier, Facebook a annoncé qu'il y aurait une nouvelle fonctionnalité permettant aux utilisateurs d'effacer l'historique de leur navigateur. Je crois savoir que Facebook a annoncé que ce serait lancé plus tard cette année. Cela semble être une longue période. S'il s'agissait du lancement d'un produit qui rapporte de l'argent à Facebook, on pourrait croire que cela se serait fait plus rapidement. On ne dirait pas que vous vous précipitez et que vous remuez terre et mer; on dirait plutôt que vous prenez votre temps.

Facebook est-elle capable d'arrêter une date à laquelle la fonction permettant d'effacer l'historique du navigateur sera activée?

M. Kevin Chan:

Monsieur, je crois avoir parlé de cette nouvelle fonction à quelques reprises avec divers membres du Comité. Il serait probablement inopportun pour moi d'arrêter une date, évidemment, à ce moment-ci. Je ne veux pas aller plus vite que mes skis, mais je pourrais simplement dire que, même avec les mesures de transparence que nous mettons en place au Canada, nous travaillons sans relâche pour bien faire les choses. Nous allons essayer de déployer cet autre produit à l'échelle mondiale. Cela va prendre...

M. Damian Collins:

Je dirais simplement que ce genre de fonctions est assez répandu sur le Web. Je pense que le fait que cela fait maintenant plus d'un an qu'elle a été annoncée et que vous ne pouvez même pas donner une date cette année pour son entrée en vigueur est vraiment déplorable.

M. Kevin Chan:

Je comprends.

Le président:

Je tiens à remercier tout le monde de son témoignage aujourd'hui.

Je félicite M. Chan pour certains des changements qu'il a annoncés. Nous avons entendu ces promesses à maintes reprises, alors je suppose que nous attendrons de voir ce que nous obtiendrons au bout du compte.

Cela nous ramène à ce que nous demandions au départ. En toute bonne foi, nous avons demandé à votre PDG et à votre directrice des opérations de comparaître devant nous aujourd'hui pour que nous travaillions ensemble à trouver une solution à ces problèmes que tout un tas de pays et de gens dans le monde considère comme des problèmes communs. À mon avis, il est honteux qu'ils ne soient pas ici aujourd'hui pour répondre à ces questions précises auxquelles vous n'avez pas pu répondre pleinement.

C'est ce qui est troublant. Nous essayons de travailler avec vous, et vous dites que vous essayez de travailler avec nous. Nous venons d'avoir un message aujourd'hui qui m'a été transmis par mon vice-président. Il indique que « Facebook témoignera devant le Grand comité international ce matin. Neil Potts et Kevin Chan témoigneront. Aucun d'eux ne figure au tableau des 35 plus hauts fonctionnaires de l'équipe des politiques. »

On nous a ensuite dit que vous ne figurez même pas parmi les 100 plus importants. Je ne veux pas vous offenser personnellement; vous assumez la responsabilité pour l'équipe de Facebook, alors je vous suis reconnaissant de votre présence ici aujourd'hui. Cependant, la dernière chose que j'ai à dire au Comité, c'est qu'il est honteux que Mark Zuckerberg et Sheryl Sandberg ne soient pas venus aujourd'hui.

Cela dit, nous tiendrons une rencontre avec les médias immédiatement après la réunion pour répondre aux questions. Nous allons signer la déclaration d'Ottawa juste ici, de sorte qu'un membre de chaque délégation siégera à titre de représentant.

Par la suite, tous les parlementaires en visite de partout dans le monde sont invités à assister à notre période de questions d'aujourd'hui. Je vais vous orienter vers ma chef de cabinet, Cindy Bourbonnais. Elle vous aidera à obtenir les laissez-passer dont vous avez besoin pour siéger à la Chambre si vous souhaitez venir à la période de questions aujourd'hui.

Merci encore d'être venus en tant que témoins. Nous passerons directement à la déclaration d'Ottawa.

La séance est levée.

Hansard Hansard

Posted at 17:44 on May 28, 2019

This entry has been archived. Comments can no longer be posted.

(RSS) Website generating code and content © 2006-2019 David Graham <cdlu@railfan.ca>, unless otherwise noted. All rights reserved. Comments are © their respective authors.