LeVanLoi miscellaneous articles

  1. Trang chủ
  2. Lưu
  3. Thẻ
  4. Hỏi - Đáp

 
 
LeVanLoi'log, ⌚ 2024-10-24
***
Remarks by APNSA Jake Sullivan on AI and National Security
Tác giả: White House

Remarks by APNSA Jake Sullivan on AI and National Security

National Defense University

Washington, D.C.

-

MR. SULLIVAN: Good morning, everyone. And thanks so much for that introduction, Lieutenant Colonel Grewal. And I also want to thank the National War College for bringing us all together today. And I want to thank my colleagues from across the intelligence community and DOD, as well as from the NSC, who have really put their blood, sweat, toil, and tears into producing this National Security Memorandum on Artificial Intelligence that we’re rolling out today.

 

Most importantly, though, I want to thank all of you for allowing me to be here to say a few words this morning. It’s truly an honor for me to be here. And, in fact, there’s a reason I wanted to address this specific group of leaders.

 

More than 75 years ago, just a few months after the Second World War ended, then-General Dwight Eisenhower wrote a letter to his fellow military leaders. All around them, the world was changing. Nazi Germany had fallen. Nations were rebuilding. The Cold War was just beginning. And people everywhere were reckoning with the horrors of the Holocaust.

 

It was a new era, one that demanded new strategies, new thinking, and new leadership.

 

So, General Eisenhower pitched an idea: a National War College. He didn’t know where it would be or what exactly it would look like, but he knew America needed a school whose primary function would be, as he wrote, quote, “to develop doctrine rather than to accept and follow prescribed doctrine.” Develop, not accept and follow.

 

That idea has guided this institution ever since. In the aftermath of the Second World War, it led your forebearers to reimagine our decision-making apparatus, including the establishment of the National Security Council. Thanks for that. (Laughter.)

 

During the Cold War, it led them to develop new strategies to advance our national security, including implementing containment, détente, and beyond.

 

And throughout the global war against terror, your predecessors have pioneered new thinking and new tactics that have helped keep our nation safe.

 

Now it’s your turn.

 

We’re in an age of strategic competition in an interdependent world, where we have to compete vigorously and also mobilize partners to solve great challenges that no one country can solve on its own.

 

In this age, in this world, the application of artificial intelligence will define the future, and our country must once again develop new capabilities, new tools, and, as General Eisenhower said, new doctrine, if we want to ensure that AI works for us, for our partners, for our interests, and for our values, and not against us.

 

That’s why I’m proud to announce that President Biden has signed a National Security Memorandum on Artificial Intelligence. This is our nation’s first-ever strategy for harnessing the power and managing the risks of AI to advance our national security.

 

So, today I want to talk to you about what’s brought us to this moment and how our country needs all of you to help us meet it.

 

Like many of you here at the War College, I’ve had to grapple with AI and its implications for national security since I became National Security Advisor — about what makes it so potentially transformative and about what makes it different from other technological leaps our country has navigated before, from electrification to nuclear weapons to space flight to the Internet.

 

And I’ve seen three key things in particular.

 

First, the sheer speed of the development of artificial intelligence. The technical frontier of AI continues to advance rapidly — more rapidly than we’ve seen with other technologies.

 

Let’s just take protein folding as an example. Discovering a protein structure, or how it folds, is essential for understanding how it interacts with other molecules, which can solve fundamental puzzles in medicine and accelerate the development of treatment and cures. Up until 2018, humanity had collectively discovered the structure of around 150,000 proteins, largely through manual efforts, sometimes after years of painstaking work using advanced microscopes and x-rays.

 

Then, Google DeepMind showed that AI could predict the structure of a protein without any wet lab work. By 2022, four years later, that same team released predicted structures for almost every protein known to science, hundreds of millions in all.

 

Just a few weeks ago, the scientist involved won a Nobel Prize.

 

Now, imagine that same pace of change in the realms of science that impact your work as national security leaders every day.

 

Imagine how AI will impact areas where we’re already seeing paradigm shifts, from nuclear physics to rocketry to stealth, or how it could impact areas of competition that may not have yet matured, that we actually can’t even imagine, just as the early Cold Warriors could not really have imagined today’s cyber operations.

 

Put simply, a specific AI application that we’re trying to solve for today in the intelligence or military or commercial domains could look fundamentally different six weeks from now, let alone six months from now, or a year from now, or six years from now. The speed of change in this area is breathtaking.

 

This is compounded by huge uncertainty around AI’s growth trajectory, which is the second distinctive trait.

 

Over the last four years, I’ve met with scientists and entrepreneurs, lab CEOs and hyperscalers, researchers and engineers, and civil society advocates. And throughout all of those conversations, there’s clear agreement that developments in artificial intelligence are having a profound impact on our world.

 

But opinions diverge when I ask them, “What exactly should we expect next?” There’s a spectrum of views. At one end, some experts believe we barely kicked off the AI revolution, that AI capabilities will continue to grow exponentially, building on themselves to unlock paths we didn’t know existed, and that this could happen fast, well within this decade. And if they’re right, we could be on the cusp of one of the most significant technological shifts in human history.

 

At the other end of the spectrum is a view that AI isn’t a growth spurt, but it has or soon will plateau, or at least the pace of change will slow considerably, and more dramatic breakthroughs are further down the road.

 

Experts who believe this aren’t saying AI won’t be consequential, but they argue that the last-mile work of applying AI, that are already here — the capabilities that are already here — is what will matter most, not just now but for the foreseeable future.

 

These views are vastly different, with vastly different implications.

 

Now, innovation has never been predictable, but the degree of uncertainty in AI development is unprecedented. The size of the question mark distinguishes AI for many other technological challenges our government has had to face and make policy around. And that is our responsibility.

 

As National Security Advisor, I have to make sure our government is ready for every scenario along the spectrum. We have to build a national security policy that will protect the American people and the American innovation ecosystem, which is so critical to our advantage, even if the opportunities and challenges we face could manifest in fundamentally different ways. We have to be prepared for the entire spectrum of possibilities of where AI is headed in 2025, 2027, 2030, and beyond.

 

Now, what makes this even more difficult is that private companies are leading the development of AI, not the government. This is the third distinctive feature.

 

Many of the technological leaps of the last 80 years emerged from public research, public funding, public procurement. Our government took an early and critical role in shaping developments, from nuclear physics and space exploration to personal computing to the Internet.

 

That’s not been the case with most of the recent AI revolution. While the Department of Defense and other agencies funded a large share of AI work in the 20th century, the private sector has propelled much of the last decade of progress. And in many ways, that’s something to celebrate. It’s a testament to American ingenuity, to the American innovation system that American companies lead the world in frontier AI. It’s America’s special sauce. And it’s a good thing that taxpayers don’t have to foot the full bill for AI training costs, which can be staggeringly high.

 

But those of us in government have to be clear-eyed about the implications of this dynamic as both stewards and deployers of this technology.

 

Here, two things can be true at the same time.

 

On the one hand, major technology companies that develop and deploy AI systems by virtue of being American have given America a real national security lead, a lead that we want to extend. And they’re also going head-to-head with PRC companies like Huawei to provide digital services to people around the world. We’re supporting those efforts, because we want the United States to be the technology partner of choice for countries around the world.

 

On the other hand, we need to take responsible steps to ensure fair competition and open markets; to protect privacy, human rights, civil rights, civil liberties; to make sure that advanced AI systems are safe and trustworthy; to implement safeguards so that AI isn’t used to undercut our national security.

 

The U.S. government is fully capable of managing this healthy tension, as long as we’re honest and clear-eyed about it. And we have to get this right, because there is probably no other technology that will be more critical to our national security in the years ahead.

 

Now, when it comes to AI and our national security, I have both good news and bad news. The good news is that thanks to President Biden and Vice President Harris’s leadership, America is continuing to build a meaningful AI advantage.

 

Here at home, President Biden signed an executive order on the development and use of AI, the most comprehensive action that any country in the world has ever taken on AI.

 

We’ve worked to strengthen our AI talent, hardware, infrastructure, and governance. We’ve attracted leading researchers and entrepreneurs to move to and remain in the United States. We’ve unleashed tens of billions of dollars in incentives to catalyze domestic leading-edge chip production. We’ve led the world in issuing guidance to make sure that AI development and use is safe, secure, and trustworthy.

 

And as we’ve done all of this, we’ve scrutinized AI trends, not just frontier AI, but also the AI models that will proliferate most widely and rapidly around the world. And we’re working to enhance American advantages across the board.

 

But here’s the bad news: Our lead is not guaranteed. It is not pre-ordained. And it is not enough to just guard the progress we’ve made, as historic as it’s been. We have to be faster in deploying AI in our national security enterprise than America’s rivals are in theirs. They are in a persistent quest to leapfrog our military and intelligence capabilities. And the challenge is even more acute because they are unlikely to be bound by the same principles and responsibilities and values that we are.

 

The stakes are high. If we don’t act more intentionally to seize our advantages, if we don’t deploy AI more quickly and more comprehensively to strengthen our national security, we risk squandering our hard-earned lead.

 

Even if we have the best AI models but our competitors are faster to deploy, we could see them seize the advantage in using AI capabilities against our people, our forces, and our partners and allies. We could have the best team but lose because we didn’t put it on the field.

 

We could see advantages we built over decades in other domains, like space and undersea operations, be reduced or eroded entirely with AI-enabled technology.

 

And for all our strengths, there remains a risk of strategic surprise. We have to guard against that — which is why I’m here today.

 

Our new National Security Memorandum on AI seeks to address exactly this set of challenges. And as rising national security leaders, you will be charged with implementing it with no time to lose.

 

So, in the balance of my remarks, I want to spend a few minutes explaining the memorandum’s three main lines of effort: securing American leadership in AI, harnessing AI for national security, and strengthening international AI partnerships.

 

First, we have to ensure the United States continues to lead the world in developing AI. Our competitors also know how important AI leadership is in today’s age of geopolitical competition, and they are investing huge resources to seize it for themselves. So we have to start upping our game, and that starts with people.

 

America has to continue to be a magnet for global, scientific, and tech talent. As I noted, we’ve already taken major steps to make it easier and faster for top AI scientists, engineers, and entrepreneurs to come to the United States, including by removing friction in our visa rules to attract talent from around the world.

 

And through this new memorandum, we’re taking more steps, streamlining visa processing wherever we can for applicants working with emerging technologies. And we’re calling on Congress to get in the game with us, staple more green cards to STEM diplomas, as President Biden has been pushing to do for years.

 

So, that’s the people part of the equation.

 

Next is hardware and power. Developing advanced AI systems requires large volumes of advanced chips, and keeping those AI systems humming requires large amounts of power.

 

On chips, we’ve taken really significant steps forward. We passed the CHIPS and Science Act, making a generational investment in our semiconductor manufacturing, including the leading-edge logic chips and the high-bandwidth memory chips needed for AI.

 

We’ve also taken decisive action to limit strategic competitors’ access to the most advanced chips necessary to train and use frontier AI systems with national security implications, as well as the tools needed to make those chips.

 

The National Security Memorandum builds on this progress by directing all of our national security agencies to make sure that those vital chip supply chains are secure and free from foreign interference.

 

On power, the memorandum recognizes the importance of designing, permitting, and constructing clean energy generation facilities that can serve AI data centers so that the companies building world-leading AI infrastructure build as much as possible here in the United States in a way that is consistent with our climate goals.

 

One thing is for certain: If we don’t rapidly build out this infrastructure in the next few years, adding tens or even hundreds of gigawatts of clean power to the grid, we will risk falling behind.

 

Finally, there’s funding for innovation. This fiscal year, federal funding for non-defense R&D declined significantly. And Congress still hasn’t appropriated the science part of the CHIPS and Science Act, even while China is increasing its science and technology budget 10 percent year over year. That can mean critical gaps in AI R&D.

 

We want to work with Congress to make sure this and the other requirements within the AI National Security Memorandum are funded. And we’ve received strong bipartisan signals of support for this from the Hill. So, it’s time for us to collectively roll up our sleeves on a bicameral, bipartisan basis and get this done.

 

And we also have to be aware that our competitors are watching closely, not least because they would love to depose our AI leadership. One playbook we’ve seen them deploy again and again is theft and espionage. So, the National Security Memorandum takes this head on. It establishes addressing adversary threats against our AI sector as a top-tier intelligence priority, a move that means more resources and more personnel will be devoted to combating this threat.

 

It also directs people across government, like so many of you, to work more closely with private sector AI developers to provide them with timely cybersecurity and counter-intelligence information to keep their technology secure, just as we’ve already worked to protect other elements of the U.S. private sector from threats to them and to our national security.

 

The second pillar focuses on how we harness our advantage and our enduring advantage to advance national security.

 

As National Security Advisor, I see how AI is already poised to transform the national security landscape. And where you sit, as war fighters, as diplomats, as intelligence officers, I’m sure you’re seeing it too. Some change is already here. AI is reshaping our logistics, our cyber vulnerability detection, how we analyze and synthesize intelligence. Some change we see looming on the horizon, including AI-enabled applications that will transform the way our military trains and fights. But some change, as I said earlier, we truly cannot predict in both the form it will take and how fast it will come.

 

Bottom line: Opportunities are already at hand, and more soon will be, so we’ve got to seize them quickly and effectively, or our competitors will first.

 

That means all of us in the national security enterprise have to become much more adept users of AI. It means we need to make significant technical, organizational, and policy changes to ease collaboration with the actors that are driving this development. And the National Security Memorandum does just that. It directs agencies to propose ways to enable more effective collaboration with non-traditional vendors, such as leading AI companies and cloud computing providers.

 

In practice, that means quickly putting the most advanced systems to use in our national security enterprise just after they’re developed, like how many in private industry are doing. We need to be getting fast adoption of these systems, which are iterating and advancing, as we see every few months.

 

Next, today’s AI systems are more generally capable than the bespoke and narrow tools that dominated prior AI. And this general capability is a huge advantage. But the flipside is they cost much more to train and run. So we’re pushing agencies to use shared computing resources to accelerate AI adoption, lower cost, and learn from one another as they responsibly address a wide range of threats, from nuclear security to biosecurity to cybersecurity.

 

And I emphasize that word, “responsibly.” Developing and deploying AI safely, securely, and, yes, responsibly, is the backbone of our strategy. That includes ensuring that AI systems are free of bias and discrimination.

 

This is profoundly in our self-interest. One reason is that even if we can attract AI talent or foster AI development here in the United States, we won’t be able to lead the world if people do not trust our systems. And that means developing standards for AI evaluations, including what makes those systems work and how they might fail in the real world. It means running tests on the world’s most advanced AI systems before they’re released to the public. And it means leading the way in areas like content authentication and watermarking so people know when they’re interacting with AI, as opposed to interacting with, for example, a real human.

 

To do all of that, we have to empower and learn from a full range of AI firms, experts, and entrepreneurs, which our AI Safety Institute is now doing on a daily basis.

 

Another reason we need to focus so much on responsibility, safety, and trustworthiness is a little bit counterintuitive. Ensuring security and trustworthiness will actually enable us to move faster, not slow us down. Put simply, uncertainty breeds caution. When we lack confidence about safety and reliability, we’re slower to experiment, to adopt, to use new capabilities, and we just can’t afford to do that in today’s strategic landscape.

 

That’s why our memorandum directs the first-ever government-wide framework on AI risk management commitments in the national security space, commitments like refraining from uses that depart from our nation’s core values, avoiding harmful bias and discrimination, maximizing accountability, ensuring effective and appropriate human oversight.

 

As I said, preventing misuse and ensuring high standards of accountability will not slow us down; it will actually do the opposite. And we’ve seen this before with technological change.

 

During the early days of the railroads, for example, the establishment of safety standards enabled trains to run faster thanks to increased certainty, confidence, and compatibility.

 

And I also want to note we’re going to update this framework regularly. This goes back to the uncertainty I mentioned earlier. There may be capabilities or novel legal issues that just haven’t emerged yet. We must and we will ensure our governance and our guardrails can adapt to meet the moment, no matter what it looks like or how quickly it comes.

 

Finally, we need to do all of this in lockstep with our partners, which is the third pillar of our memorandum.

 

President Biden often says we’re going to see more technological change in the next 10 years than we saw in the last 50. He’s right. And it doesn’t just apply to our country, but to all countries.

 

And when it comes to AI specifically, we need to ensure that people around the world are able to seize the benefits and mitigate the risks. That means building international norms and partnerships around AI.

 

Over the last year, thanks to the leadership of President Biden and Vice President Harris, we’ve laid that foundation. We developed the first-ever International Code of Conduct on AI with our G7 partners. We joined more than two dozen nations at the Bletchley and Seoul AI summits to outline clear AI principles.

 

We released our Political Declaration on the Military Use of AI, which more than 50 countries have endorsed, to outline what constitutes responsible practices for using AI in the military domain.

 

And we sponsored the first-ever U.N. General Assembly Resolution on AI, which passed unanimously, including with the PRC, I might add, as a co-sponsor.

 

It makes clear that, as I said, we can both seize the benefits of AI for the world and advance AI safety.

 

Let me take just a moment to speak about the PRC specifically.

 

Almost a year ago, when President Biden and President Xi met in San Francisco, they agreed to a dialogue between our two countries on AI risk and safety. And this past May, some of our government’s top AI experts met PRC officials in Geneva for a candid and constructive initial conversation.

 

I strongly believe that we should always be willing to engage in dialogue about this technology with the PRC and with others to better understand risks and counter misperceptions.

 

But those meetings do not diminish our deep concerns about the ways in which the PRC continues to use AI to repress its population, spread misinformation, and undermine the security of the United States and our allies and partners.

 

AI should be used to unleash possibilities and empower people. And nations around the world, especially developing economies, want to know how to do that. They don’t want to be left behind, and we don’t want that either.

 

Our national security has always been stronger when we extend a hand to partners around the world. So, we need to get the balance right. We need to balance protecting cutting-edge AI technologies on the one hand, while also promoting AI technology adoption around the world.

 

Protect and promote. We can and must and are doing both.

 

So let me briefly preview for you a new global approach to AI diffusion, how AI can spread around the world in a responsible way that allows AI for good while protecting against downside risk.

 

This new global approach complements the memorandum that has come out, and comes out of extended conversations in the Situation Room and with allies, industry, and partners over the last year.

 

The finer print will come out later, but I can say now that it will give the private sector more clarity and predictability as they plan to invest hundreds of billions of dollars globally.

 

This includes how our government will manage the export of the most advanced chips necessary to develop frontier models; how we will ensure broad access to substantial AI computing power that lies behind the bleeding-edge but could nonetheless transform health, agriculture, and manufacturing around the world; how we will help facilitate partnerships between leading American AI firms and countries around the world that want to be part of the AI revolution; and how we will set safety and security standards for these partnerships to ensure we effectively protect against risks while unleashing new opportunities.

 

These partnerships are critical. They’re fundamental to our leadership. We know that China is building its own technological ecosystem with digital infrastructure that won’t protect sensitive data, that can enable mass surveillance and censorship, that can spread misinformation, and that can make countries vulnerable to coercion.

 

So, we have to compete to provide a more attractive path, ideally before countries go too far down an untrusted road from which can be expensive and difficult to return. And that’s what we’re doing.

 

We’ve already developed new partnerships that will support economic progress, technological innovation, and indigenous AI ecosystems, from Africa to Asia to the Middle East and beyond. And we’re going to keep at it, with a clear and rigorous approach to AI diffusion.

 

Now, I do want to make sure I leave time for our conversation, so let me just close with this:

 

Everything I just laid out is a plan, but we need all of you to turn it into progress. We need you, and leaders across every state and every sector, to adopt this technology to advance our national security and to do it fast.

 

We need you to ensure that our work aligns with the core values that have always underpinned American leadership.

 

And as President Eisenhower said, we need you to constantly update and develop our AI doctrine in the years ahead.

 

It will be hard. It will require constant thinking, constant rethinking, constant innovation, constant collaboration, and constant leadership. But with the past as our proof, I know that everyone in this room and all across our country is up for it. And together, we will win the competition for the 21st century.

 

So, thank you, and I look forward to the conversation. (Applause.)

 

APNSA: assistant to the president for national security affairs - commonly referred to as the national security advisor (NSA)

--- 

Phát biểu của Cố vấn An ninh Quốc gia Jake Sullivan về Trí tuệ Nhân tạo và An ninh Quốc gia
Đại học Quốc phòng Quốc gia
Washington, D.C.

Ông SULLIVAN: Chào buổi sáng tất cả mọi người. Cảm ơn Trung tá Grewal vì phần giới thiệu. Tôi cũng muốn cảm ơn Đại học Chiến tranh Quốc gia vì đã tổ chức buổi gặp mặt ngày hôm nay, cũng như các đồng nghiệp từ khắp các cơ quan tình báo, Bộ Quốc phòng, và Hội đồng An ninh Quốc gia, những người đã thực sự đổ công sức, tâm huyết vào việc xây dựng Bản ghi nhớ An ninh Quốc gia về Trí tuệ Nhân tạo mà chúng ta ra mắt hôm nay.

Quan trọng nhất, tôi muốn cảm ơn tất cả các bạn đã tạo điều kiện cho tôi có mặt ở đây để nói vài lời sáng nay. Đối với tôi, đây là một vinh dự thực sự. Thực tế, có lý do tôi muốn phát biểu trước nhóm lãnh đạo này.

Hơn 75 năm trước, chỉ vài tháng sau khi Thế chiến II kết thúc, Đại tướng Dwight Eisenhower đã viết một lá thư gửi các nhà lãnh đạo quân sự đồng nghiệp. Thế giới xung quanh họ khi đó đang thay đổi. Đức Quốc xã đã sụp đổ. Các quốc gia đang tái thiết. Chiến tranh Lạnh bắt đầu chớm nở. Và mọi người trên khắp thế giới đang đối diện với nỗi kinh hoàng của nạn diệt chủng Holocaust.

Đó là một kỷ nguyên mới, đòi hỏi những chiến lược mới, tư duy mới, và sự lãnh đạo mới.

Vì thế, Đại tướng Eisenhower đã đề xuất một ý tưởng: một trường Chiến tranh Quốc gia. Ông không biết nơi nào sẽ là trường này hay hình thức chính xác của nó, nhưng ông biết nước Mỹ cần một ngôi trường mà chức năng chính sẽ là, như ông viết, trích dẫn, “phát triển học thuyết thay vì chấp nhận và tuân theo học thuyết đã định sẵn.” Phát triển, chứ không phải chấp nhận và tuân theo.

Ý tưởng đó đã dẫn dắt cơ sở này từ đó đến nay. Sau Thế chiến II, nó đã giúp những người đi trước bạn tái hình dung cấu trúc ra quyết định của chúng ta, bao gồm cả việc thành lập Hội đồng An ninh Quốc gia. Cảm ơn các bạn vì điều đó. (Tiếng cười.)

Trong Chiến tranh Lạnh, điều đó đã giúp họ phát triển các chiến lược mới nhằm tăng cường an ninh quốc gia của chúng ta, bao gồm việc thực hiện chính sách ngăn chặn, hòa dịu, và hơn thế nữa.

Và trong suốt cuộc chiến toàn cầu chống khủng bố, những người tiền nhiệm của các bạn đã tiên phong trong tư duy và chiến thuật mới giúp bảo vệ an toàn cho đất nước chúng ta.

Giờ là đến lượt các bạn.

 

Chúng ta đang sống trong thời đại cạnh tranh chiến lược trong một thế giới phụ thuộc lẫn nhau, nơi chúng ta phải cạnh tranh mạnh mẽ và huy động các đối tác để giải quyết những thách thức lớn mà không một quốc gia nào có thể tự giải quyết.

Trong thời đại này, trong thế giới này, việc ứng dụng trí tuệ nhân tạo sẽ định hình tương lai, và đất nước chúng ta một lần nữa phải phát triển những khả năng mới, công cụ mới và, như Đại tướng Eisenhower đã nói, học thuyết mới, nếu chúng ta muốn đảm bảo rằng AI hoạt động vì chúng ta, vì các đối tác của chúng ta, vì lợi ích và giá trị của chúng ta, chứ không phải chống lại chúng ta.

Đó là lý do tại sao tôi tự hào thông báo rằng Tổng thống Biden đã ký một Bản ghi nhớ An ninh Quốc gia về Trí tuệ Nhân tạo. Đây là chiến lược đầu tiên của quốc gia chúng ta để khai thác sức mạnh và quản lý rủi ro của AI nhằm thúc đẩy an ninh quốc gia của chúng ta.

Vì vậy, hôm nay tôi muốn nói với các bạn về những gì đã đưa chúng ta đến thời điểm này và cách đất nước chúng ta cần tất cả các bạn giúp chúng ta vượt qua nó.

Giống như nhiều người trong số các bạn tại Trường Chiến tranh, tôi đã phải đối mặt với AI và những tác động của nó đối với an ninh quốc gia từ khi tôi trở thành Cố vấn An ninh Quốc gia — về điều gì khiến nó có khả năng thay đổi lớn và về điều gì khiến nó khác biệt với các bước tiến công nghệ mà đất nước chúng ta đã vượt qua trước đây, từ điện khí hóa đến vũ khí hạt nhân, đến chuyến bay không gian và đến Internet.

Và tôi nhận thấy có ba điểm chính nổi bật.

Thứ nhất, tốc độ phát triển đáng kinh ngạc của trí tuệ nhân tạo. Biên giới kỹ thuật của AI đang tiến bộ nhanh chóng — nhanh hơn những gì chúng ta từng thấy với các công nghệ khác.

Hãy lấy việc xác định cấu trúc protein làm ví dụ. Phát hiện cấu trúc của một protein, hay cách nó cuộn lại, rất quan trọng để hiểu cách nó tương tác với các phân tử khác, có thể giải quyết những câu hỏi cơ bản trong y học và đẩy nhanh việc phát triển điều trị và chữa bệnh. Trước năm 2018, nhân loại chỉ phát hiện được cấu trúc của khoảng 150.000 protein, chủ yếu bằng các phương pháp thủ công, đôi khi phải mất nhiều năm làm việc tỉ mỉ với kính hiển vi tiên tiến và tia X.

Sau đó, Google DeepMind cho thấy rằng AI có thể dự đoán cấu trúc của một protein mà không cần đến phòng thí nghiệm thực nghiệm. Đến năm 2022, bốn năm sau, nhóm này đã công bố cấu trúc dự đoán cho gần như mọi protein mà khoa học biết đến, hàng trăm triệu cấu trúc tất cả.

Chỉ vài tuần trước, các nhà khoa học liên quan đến nghiên cứu này đã nhận được giải Nobel.

Giờ đây, hãy tưởng tượng tốc độ thay đổi đó trong các lĩnh vực khoa học tác động đến công việc của bạn với tư cách là các nhà lãnh đạo an ninh quốc gia hàng ngày.

Hãy tưởng tượng AI sẽ ảnh hưởng thế nào đến các lĩnh vực mà chúng ta đã thấy những thay đổi cơ bản, từ vật lý hạt nhân đến tên lửa đến công nghệ tàng hình, hoặc nó có thể ảnh hưởng thế nào đến các lĩnh vực cạnh tranh chưa trưởng thành, mà thực tế chúng ta chưa thể tưởng tượng nổi, cũng giống như những người thời đầu Chiến tranh Lạnh không thể thực sự hình dung về các hoạt động mạng ngày nay.

Nói một cách đơn giản, một ứng dụng AI cụ thể mà chúng ta đang cố gắng giải quyết hôm nay trong các lĩnh vực tình báo, quân sự hoặc thương mại có thể trông hoàn toàn khác biệt chỉ sau sáu tuần, chứ chưa nói đến sáu tháng, một năm, hay sáu năm sau. Tốc độ thay đổi trong lĩnh vực này thật đáng kinh ngạc.

Điều này còn bị phức tạp bởi sự không chắc chắn lớn về lộ trình phát triển của AI, là đặc điểm nổi bật thứ hai.

Trong bốn năm qua, tôi đã gặp gỡ các nhà khoa học và doanh nhân, giám đốc phòng thí nghiệm và các công ty siêu cấp, các nhà nghiên cứu và kỹ sư, và những người ủng hộ từ xã hội dân sự. Và xuyên suốt tất cả các cuộc trò chuyện đó, có sự đồng thuận rõ ràng rằng các tiến bộ trong trí tuệ nhân tạo đang có tác động sâu rộng đến thế giới của chúng ta.

Nhưng khi tôi hỏi, "Chính xác chúng ta nên mong đợi điều gì tiếp theo?" thì các ý kiến trở nên phân tán. Có một phổ ý kiến khác nhau. Ở một đầu, một số chuyên gia tin rằng chúng ta mới chỉ khởi động cuộc cách mạng AI, rằng khả năng của AI sẽ tiếp tục phát triển theo cấp số nhân, tự củng cố để mở ra các con đường mà chúng ta chưa từng biết, và điều này có thể xảy ra nhanh chóng, trong thập kỷ này. Và nếu họ đúng, chúng ta có thể đang đứng trước một trong những bước ngoặt công nghệ quan trọng nhất trong lịch sử nhân loại.

Ở đầu kia của phổ ý kiến là quan điểm cho rằng AI không phải là một sự bùng nổ phát triển, mà đã hoặc sắp đến ngưỡng bão hòa, hoặc ít nhất tốc độ thay đổi sẽ chậm lại đáng kể, và các đột phá lớn hơn sẽ còn ở phía trước.

Những chuyên gia tin vào quan điểm này không nói rằng AI sẽ không quan trọng, nhưng họ cho rằng công việc ứng dụng AI đã có — những khả năng đã hiện hữu — sẽ là điều quan trọng nhất, không chỉ bây giờ mà còn trong tương lai gần có thể dự đoán.

Những quan điểm này rất khác biệt, và chúng mang đến những hệ quả rất khác nhau.

Đổi mới chưa bao giờ có thể đoán trước được, nhưng mức độ không chắc chắn trong phát triển AI là chưa từng có. Dấu hỏi lớn về AI phân biệt nó với nhiều thách thức công nghệ khác mà chính phủ chúng ta từng phải đối mặt và lập chính sách. Và đó là trách nhiệm của chúng ta.

Với vai trò Cố vấn An ninh Quốc gia, tôi phải đảm bảo rằng chính phủ của chúng ta sẵn sàng cho mọi kịch bản dọc theo dải khả năng. Chúng ta phải xây dựng một chính sách an ninh quốc gia để bảo vệ người dân Mỹ và hệ sinh thái đổi mới của Mỹ, điều rất quan trọng đối với lợi thế của chúng ta, ngay cả khi các cơ hội và thách thức mà chúng ta đối mặt có thể xuất hiện theo những cách hoàn toàn khác nhau. Chúng ta phải chuẩn bị cho mọi khả năng về hướng phát triển của AI trong năm 2025, 2027, 2030, và xa hơn.

Điều làm cho việc này trở nên khó khăn hơn là các công ty tư nhân đang dẫn đầu trong phát triển AI, chứ không phải chính phủ. Đây là đặc điểm nổi bật thứ ba.

Nhiều bước tiến công nghệ trong 80 năm qua xuất phát từ nghiên cứu công, tài trợ công, và mua sắm công. Chính phủ chúng ta đã đóng vai trò quan trọng từ sớm trong việc định hình sự phát triển, từ vật lý hạt nhân và khám phá không gian đến máy tính cá nhân và Internet.

Điều này không đúng với hầu hết cuộc cách mạng AI gần đây. Mặc dù Bộ Quốc phòng và các cơ quan khác đã tài trợ phần lớn cho nghiên cứu AI trong thế kỷ 20, khu vực tư nhân đã thúc đẩy phần lớn sự tiến bộ trong thập kỷ qua. Và ở nhiều khía cạnh, điều này là một lý do để ăn mừng. Đây là minh chứng cho sự sáng tạo của người Mỹ, cho hệ thống đổi mới của Mỹ, nơi các công ty Mỹ dẫn đầu thế giới về AI tiên tiến. Đó là “bí quyết đặc biệt” của Mỹ. Và thật tốt khi người dân đóng thuế không phải chi trả toàn bộ chi phí đào tạo AI, vốn có thể cao đến mức đáng kinh ngạc.

Nhưng những người trong chính phủ chúng ta phải nhận thức rõ ràng về những hệ quả của động lực này, vừa là người quản lý vừa là người triển khai công nghệ này.

Ở đây, hai điều có thể đúng cùng lúc.

Một mặt, các công ty công nghệ lớn phát triển và triển khai hệ thống AI, nhờ vào việc là các công ty Mỹ, đã mang lại cho nước Mỹ một lợi thế thực sự về an ninh quốc gia, một lợi thế mà chúng ta muốn tiếp tục mở rộng. Họ cũng đang cạnh tranh trực tiếp với các công ty Trung Quốc như Huawei để cung cấp dịch vụ số cho mọi người trên khắp thế giới. Chúng ta đang ủng hộ những nỗ lực đó, vì chúng ta muốn Hoa Kỳ trở thành đối tác công nghệ được các quốc gia trên thế giới lựa chọn.

Mặt khác, chúng ta cần có các bước đi có trách nhiệm để đảm bảo cạnh tranh công bằng và thị trường mở; bảo vệ quyền riêng tư, quyền con người, quyền dân sự, và tự do dân sự; đảm bảo rằng các hệ thống AI tiên tiến an toàn và đáng tin cậy; và thực hiện các biện pháp bảo vệ để đảm bảo rằng AI không được sử dụng nhằm làm suy yếu an ninh quốc gia của chúng ta.

Chính phủ Hoa Kỳ hoàn toàn có khả năng quản lý căng thẳng lành mạnh này, miễn là chúng ta thẳng thắn và nhận thức rõ về nó. Và chúng ta phải làm đúng điều này, bởi vì có lẽ sẽ không có công nghệ nào khác quan trọng hơn đối với an ninh quốc gia của chúng ta trong những năm tới.

Giờ đây, khi nói đến AI và an ninh quốc gia của chúng ta, tôi có cả tin tốt và tin xấu. Tin tốt là nhờ vào sự lãnh đạo của Tổng thống Biden và Phó Tổng thống Harris, nước Mỹ đang tiếp tục xây dựng một lợi thế AI có ý nghĩa.

Tại quê nhà, Tổng thống Biden đã ký một sắc lệnh hành pháp về phát triển và sử dụng AI, đây là hành động toàn diện nhất mà bất kỳ quốc gia nào trên thế giới từng thực hiện về AI.

Chúng ta đã làm việc để củng cố nguồn nhân lực AI, phần cứng, cơ sở hạ tầng và quản trị. Chúng ta đã thu hút các nhà nghiên cứu và doanh nhân hàng đầu đến định cư và ở lại Hoa Kỳ. Chúng ta đã giải phóng hàng chục tỷ đô la trong các biện pháp kích thích để thúc đẩy sản xuất chip tiên tiến trong nước. Chúng ta đã dẫn đầu thế giới trong việc ban hành hướng dẫn để đảm bảo rằng việc phát triển và sử dụng AI là an toàn, bảo mật và đáng tin cậy.

Và khi làm tất cả những điều này, chúng ta đã xem xét kỹ lưỡng các xu hướng AI, không chỉ AI tiên phong mà còn cả những mô hình AI sẽ lan rộng và nhanh chóng nhất trên toàn cầu. Và chúng ta đang làm việc để nâng cao lợi thế của Hoa Kỳ trên mọi phương diện.

Nhưng đây là tin xấu: lợi thế của chúng ta không được đảm bảo. Nó không phải là định sẵn. Và chỉ bảo vệ tiến bộ mà chúng ta đã đạt được thôi là chưa đủ, dù lịch sử có thế nào. Chúng ta phải nhanh chóng hơn trong việc triển khai AI trong lĩnh vực an ninh quốc gia của chúng ta hơn là các đối thủ của Mỹ làm trong lĩnh vực của họ. Họ đang theo đuổi không ngừng để vượt qua khả năng quân sự và tình báo của chúng ta. Và thách thức còn trở nên cấp bách hơn vì họ có thể sẽ không bị ràng buộc bởi những nguyên tắc, trách nhiệm và giá trị như chúng ta.

Lợi ích đặt cược rất cao. Nếu chúng ta không hành động có chủ đích hơn để nắm bắt lợi thế của mình, nếu chúng ta không triển khai AI nhanh hơn và toàn diện hơn để củng cố an ninh quốc gia của mình, chúng ta có nguy cơ đánh mất lợi thế mà chúng ta đã đạt được bằng nhiều nỗ lực.

Ngay cả khi chúng ta có những mô hình AI tốt nhất nhưng đối thủ của chúng ta triển khai nhanh hơn, họ có thể giành lợi thế trong việc sử dụng khả năng AI chống lại người dân, lực lượng và các đối tác và đồng minh của chúng ta. Chúng ta có thể có đội ngũ tốt nhất nhưng thất bại vì chúng ta không đưa nó vào trận đấu.

Chúng ta có thể thấy những lợi thế mà chúng ta đã xây dựng qua nhiều thập kỷ trong các lĩnh vực khác, như không gian và hoạt động dưới biển, bị suy giảm hoặc bị xóa bỏ hoàn toàn với công nghệ được hỗ trợ bởi AI.

Và dù có những điểm mạnh của mình, chúng ta vẫn có nguy cơ gặp phải bất ngờ chiến lược. Chúng ta phải đề phòng điều đó — đó là lý do tôi có mặt ở đây hôm nay.

Bản ghi nhớ An ninh Quốc gia mới về AI của chúng ta nhằm giải quyết chính những thách thức này. Và với vai trò là những nhà lãnh đạo an ninh quốc gia đang vươn lên, các bạn sẽ được giao trách nhiệm thực hiện nó mà không có thời gian để chậm trễ.

Vì vậy, trong phần còn lại của bài phát biểu, tôi muốn dành vài phút để giải thích ba mục tiêu chính của bản ghi nhớ: đảm bảo vị trí dẫn đầu của Mỹ trong AI, tận dụng AI cho an ninh quốc gia và củng cố các mối quan hệ đối tác quốc tế về AI.

Trước tiên, chúng ta phải đảm bảo Hoa Kỳ tiếp tục dẫn đầu thế giới trong việc phát triển AI. Các đối thủ của chúng ta cũng biết tầm quan trọng của việc dẫn đầu AI trong thời đại cạnh tranh địa chính trị, và họ đang đầu tư nguồn lực khổng lồ để chiếm lĩnh vị trí đó. Vì vậy, chúng ta phải bắt đầu cải thiện năng lực của mình, và điều đó bắt đầu với con người.

Mỹ phải tiếp tục là điểm đến thu hút nhân tài khoa học và công nghệ toàn cầu. Như tôi đã đề cập, chúng ta đã thực hiện các bước quan trọng để giúp các nhà khoa học, kỹ sư và doanh nhân AI hàng đầu dễ dàng và nhanh chóng đến Hoa Kỳ hơn, bao gồm việc giảm bớt rào cản trong quy định visa để thu hút nhân tài từ khắp nơi trên thế giới.

Và qua bản ghi nhớ mới này, chúng ta đang thực hiện thêm các bước, đơn giản hóa quy trình cấp visa ở mọi nơi có thể cho các ứng viên làm việc với công nghệ tiên tiến. Và chúng ta đang kêu gọi Quốc hội hợp tác với chúng ta, tăng số lượng thẻ xanh đi kèm với bằng STEM, điều mà Tổng thống Biden đã thúc đẩy trong nhiều năm qua.

Vậy là xong phần về nhân lực.

Tiếp theo là phần cứng và năng lượng. Phát triển các hệ thống AI tiên tiến đòi hỏi một lượng lớn chip tiên tiến, và duy trì hoạt động cho các hệ thống AI này đòi hỏi một lượng lớn năng lượng.

Về chip, chúng ta đã thực hiện những bước tiến quan trọng. Chúng ta đã thông qua Đạo luật CHIPS và Khoa học, thực hiện một khoản đầu tư mang tính thế hệ vào sản xuất bán dẫn, bao gồm cả các chip logic tiên tiến và chip bộ nhớ băng thông cao cần thiết cho AI.

Chúng ta cũng đã hành động quyết đoán để hạn chế việc các đối thủ chiến lược tiếp cận các chip tiên tiến nhất cần thiết để huấn luyện và sử dụng các hệ thống AI tiên phong có tác động đến an ninh quốc gia, cũng như các công cụ cần thiết để sản xuất những chip này.

Bản ghi nhớ An ninh Quốc gia xây dựng trên tiến trình này bằng cách chỉ đạo tất cả các cơ quan an ninh quốc gia của chúng ta đảm bảo rằng các chuỗi cung ứng chip quan trọng đó được bảo vệ và không bị can thiệp từ nước ngoài.

Về năng lượng, bản ghi nhớ công nhận tầm quan trọng của việc thiết kế, cấp phép và xây dựng các cơ sở phát điện sạch có thể phục vụ cho các trung tâm dữ liệu AI để các công ty xây dựng cơ sở hạ tầng AI hàng đầu thế giới có thể làm điều đó càng nhiều càng tốt tại Hoa Kỳ, phù hợp với các mục tiêu về khí hậu của chúng ta.

Một điều chắc chắn: Nếu chúng ta không nhanh chóng xây dựng cơ sở hạ tầng này trong vài năm tới, bổ sung hàng chục hoặc thậm chí hàng trăm gigawatt năng lượng sạch vào lưới điện, chúng ta sẽ có nguy cơ tụt lại phía sau.

Cuối cùng, là nguồn tài trợ cho đổi mới. Trong năm tài chính này, nguồn tài trợ liên bang cho nghiên cứu và phát triển phi quốc phòng đã giảm đáng kể. Và Quốc hội vẫn chưa phân bổ phần khoa học của Đạo luật CHIPS và Khoa học, trong khi Trung Quốc đang tăng ngân sách khoa học và công nghệ của họ 10% mỗi năm. Điều đó có thể dẫn đến khoảng cách quan trọng trong nghiên cứu và phát triển AI.

Chúng ta muốn làm việc với Quốc hội để đảm bảo các yêu cầu này và các yêu cầu khác trong Bản ghi nhớ An ninh Quốc gia về AI được tài trợ. Và chúng ta đã nhận được những tín hiệu hỗ trợ mạnh mẽ từ cả hai đảng tại Quốc hội. Vì vậy, đã đến lúc chúng ta cùng nhau xắn tay áo, từ lưỡng viện, lưỡng đảng, và hoàn thành nhiệm vụ này.

Chúng ta cũng phải nhận thức rằng các đối thủ của chúng ta đang theo dõi rất sát sao, phần lớn vì họ muốn lật đổ vị thế dẫn đầu về AI của chúng ta. Một chiến lược mà chúng ta đã thấy họ triển khai hết lần này đến lần khác là đánh cắp và gián điệp. Vì vậy, Bản ghi nhớ An ninh Quốc gia đối mặt trực tiếp với vấn đề này. Nó đặt việc xử lý các mối đe dọa từ đối thủ đối với ngành AI của chúng ta là ưu tiên tình báo hàng đầu, điều này có nghĩa là sẽ có thêm nguồn lực và nhân sự được dành riêng để đối phó với mối đe dọa này.

Nó cũng chỉ đạo các cơ quan trên khắp chính phủ, như nhiều người trong số các bạn, làm việc chặt chẽ hơn với các nhà phát triển AI trong khu vực tư nhân để cung cấp cho họ thông tin kịp thời về an ninh mạng và phản gián để giữ cho công nghệ của họ an toàn, giống như chúng ta đã bảo vệ các yếu tố khác trong khu vực tư nhân Hoa Kỳ khỏi các mối đe dọa đối với họ và an ninh quốc gia của chúng ta.

Trụ cột thứ hai tập trung vào cách chúng ta khai thác lợi thế của mình và lợi thế lâu dài của chúng ta để thúc đẩy an ninh quốc gia.

Với vai trò là Cố vấn An ninh Quốc gia, tôi thấy rằng AI đã sẵn sàng để biến đổi lĩnh vực an ninh quốc gia. Và ở vị trí của các bạn, với tư cách là chiến binh, nhà ngoại giao, sĩ quan tình báo, tôi chắc chắn rằng các bạn cũng đang nhìn thấy điều đó. Một số thay đổi đã có mặt ở đây. AI đang định hình lại hệ thống hậu cần, phát hiện lỗ hổng an ninh mạng và cách chúng ta phân tích và tổng hợp thông tin tình báo. Một số thay đổi khác thì đang đến gần, bao gồm các ứng dụng AI sẽ thay đổi cách quân đội của chúng ta đào tạo và chiến đấu. Nhưng một số thay đổi, như tôi đã nói trước đó, thực sự không thể đoán trước được về cả hình thức và tốc độ.

Điểm mấu chốt: Những cơ hội đã ở trong tầm tay, và sắp tới còn nhiều hơn nữa, vì vậy chúng ta phải nắm bắt chúng một cách nhanh chóng và hiệu quả, nếu không các đối thủ của chúng ta sẽ làm điều đó trước.

Điều đó có nghĩa là tất cả chúng ta trong lĩnh vực an ninh quốc gia phải trở thành những người sử dụng AI thành thạo hơn rất nhiều. Điều đó có nghĩa là chúng ta cần phải thực hiện những thay đổi đáng kể về kỹ thuật, tổ chức và chính sách để tạo điều kiện thuận lợi cho sự hợp tác với các tác nhân thúc đẩy sự phát triển này. Và Bản ghi nhớ An ninh Quốc gia thực hiện chính điều đó. Nó chỉ đạo các cơ quan đề xuất các cách để tạo điều kiện cho sự hợp tác hiệu quả hơn với các nhà cung cấp phi truyền thống, như các công ty AI hàng đầu và các nhà cung cấp dịch vụ điện toán đám mây.

Trên thực tế, điều đó có nghĩa là nhanh chóng đưa các hệ thống tiên tiến nhất vào sử dụng trong lĩnh vực an ninh quốc gia ngay sau khi chúng được phát triển, giống như cách mà nhiều công ty trong ngành tư nhân đang làm. Chúng ta cần nhanh chóng tiếp nhận những hệ thống này, vì chúng liên tục cải tiến và tiến bộ, như chúng ta thấy cứ mỗi vài tháng.

Tiếp theo, các hệ thống AI ngày nay có khả năng rộng hơn so với các công cụ đặt hàng riêng và hạn chế đã chiếm ưu thế trước đây. Và khả năng tổng quát này là một lợi thế lớn. Nhưng mặt trái của nó là chi phí đào tạo và vận hành cao hơn rất nhiều. Vì vậy, chúng ta đang thúc đẩy các cơ quan sử dụng các tài nguyên tính toán dùng chung để tăng tốc độ tiếp nhận AI, giảm chi phí và học hỏi lẫn nhau khi họ giải quyết có trách nhiệm nhiều mối đe dọa khác nhau, từ an ninh hạt nhân đến an ninh sinh học và an ninh mạng.

Tôi nhấn mạnh từ “có trách nhiệm.” Phát triển và triển khai AI một cách an toàn, bảo mật và, vâng, có trách nhiệm, là nền tảng của chiến lược của chúng ta. Điều này bao gồm việc đảm bảo rằng các hệ thống AI không có sự thiên vị và phân biệt đối xử.

Đây là lợi ích sâu sắc của chúng ta. Một lý do là ngay cả khi chúng ta có thể thu hút nhân tài AI hoặc thúc đẩy phát triển AI tại Hoa Kỳ, chúng ta sẽ không thể dẫn đầu thế giới nếu mọi người không tin tưởng vào hệ thống của chúng ta. Điều này có nghĩa là phát triển các tiêu chuẩn để đánh giá AI, bao gồm những yếu tố khiến các hệ thống này hoạt động và cách chúng có thể thất bại trong thế giới thực. Điều này có nghĩa là chạy các bài kiểm tra trên các hệ thống AI tiên tiến nhất thế giới trước khi chúng được phát hành ra công chúng. Và nó có nghĩa là đi đầu trong các lĩnh vực như xác thực nội dung và tạo dấu vết, để mọi người biết khi nào họ đang tương tác với AI, thay vì, ví dụ, tương tác với một con người thực sự.

Để làm được tất cả những điều đó, chúng ta phải trao quyền và học hỏi từ toàn bộ các công ty AI, chuyên gia và doanh nhân, điều mà Viện An toàn AI của chúng ta đang thực hiện hàng ngày.

Một lý do khác khiến chúng ta cần tập trung nhiều vào trách nhiệm, an toàn và độ tin cậy là khá nghịch lý. Đảm bảo an toàn và độ tin cậy sẽ thực sự cho phép chúng ta tiến nhanh hơn, không làm chậm chúng ta lại. Nói đơn giản, sự không chắc chắn sinh ra sự thận trọng. Khi chúng ta thiếu tự tin về an toàn và độ tin cậy, chúng ta sẽ chậm hơn trong việc thử nghiệm, tiếp nhận và sử dụng các khả năng mới, và chúng ta không thể để điều đó xảy ra trong bối cảnh chiến lược ngày nay.

Đó là lý do bản ghi nhớ của chúng ta chỉ đạo khung cam kết quản lý rủi ro AI toàn chính phủ đầu tiên trong lĩnh vực an ninh quốc gia, với các cam kết như kiềm chế các sử dụng đi ngược lại với các giá trị cốt lõi của quốc gia, tránh thiên vị và phân biệt gây hại, tối đa hóa trách nhiệm giải trình và đảm bảo giám sát của con người một cách hiệu quả và phù hợp.

Như tôi đã nói, ngăn chặn sự lạm dụng và đảm bảo các tiêu chuẩn trách nhiệm cao sẽ không làm chậm chúng ta lại; nó thực sự sẽ làm điều ngược lại. Và chúng ta đã thấy điều này trước đây với những thay đổi công nghệ.

Ví dụ, trong những ngày đầu của đường sắt, việc thiết lập các tiêu chuẩn an toàn đã cho phép tàu hỏa chạy nhanh hơn nhờ sự chắc chắn, tin cậy và tính tương thích được gia tăng.

Và tôi cũng muốn lưu ý rằng chúng ta sẽ cập nhật khung này thường xuyên. Điều này quay trở lại sự không chắc chắn mà tôi đã đề cập trước đó. Có thể có các khả năng hoặc các vấn đề pháp lý mới mà chúng ta chưa lường trước được. Chúng ta phải và sẽ đảm bảo rằng việc quản lý và các biện pháp bảo vệ của chúng ta có thể thích ứng với tình hình, dù trông nó như thế nào hoặc đến nhanh thế nào.

Cuối cùng, chúng ta cần làm tất cả những điều này cùng với các đối tác của chúng ta, đó là trụ cột thứ ba trong bản ghi nhớ của chúng ta.

Tổng thống Biden thường nói rằng chúng ta sẽ chứng kiến sự thay đổi công nghệ nhiều hơn trong 10 năm tới so với 50 năm qua. Ông nói đúng. Và điều này không chỉ áp dụng cho nước Mỹ, mà còn cho tất cả các quốc gia.

Khi nói riêng về AI, chúng ta cần đảm bảo rằng mọi người trên toàn thế giới có thể tận dụng lợi ích và giảm thiểu rủi ro từ công nghệ này. Điều đó có nghĩa là xây dựng các tiêu chuẩn quốc tế và hợp tác toàn cầu về AI.

Trong năm qua, nhờ vào sự lãnh đạo của Tổng thống Biden và Phó Tổng thống Harris, chúng ta đã đặt nền móng cho việc này. Chúng ta đã phát triển Bộ Quy tắc Ứng xử Quốc tế đầu tiên về AI với các đối tác G7. Chúng ta đã cùng hơn hai mươi quốc gia tham gia các hội nghị thượng đỉnh AI ở Bletchley và Seoul để đề ra các nguyên tắc rõ ràng về AI.

Chúng ta đã phát hành Tuyên bố Chính trị về Sử dụng AI trong Quân đội, đã được hơn 50 quốc gia ủng hộ, để xác định các thực hành có trách nhiệm trong việc sử dụng AI trong lĩnh vực quân sự.

Và chúng ta đã bảo trợ Nghị quyết đầu tiên về AI tại Đại hội đồng Liên Hợp Quốc, được thông qua một cách nhất trí, bao gồm cả Trung Quốc, với tư cách là đồng bảo trợ.

Điều này làm rõ rằng, như tôi đã nói, chúng ta có thể vừa nắm bắt lợi ích của AI cho thế giới vừa thúc đẩy an toàn AI.

Cho phép tôi nói một chút về Trung Quốc.

Gần một năm trước, khi Tổng thống Biden và Chủ tịch Tập Cận Bình gặp nhau ở San Francisco, họ đã đồng ý đối thoại giữa hai nước về rủi ro và an toàn AI. Vào tháng 5 vừa qua, một số chuyên gia hàng đầu của chính phủ chúng ta về AI đã gặp các quan chức Trung Quốc tại Geneva để có một cuộc trò chuyện đầu tiên thẳng thắn và mang tính xây dựng.

Tôi tin rằng chúng ta luôn nên sẵn sàng tham gia đối thoại về công nghệ này với Trung Quốc và với các quốc gia khác để hiểu rõ hơn về các rủi ro và đối phó với các nhận thức sai lầm.

Nhưng những cuộc họp đó không làm giảm đi mối quan ngại sâu sắc của chúng ta về cách Trung Quốc tiếp tục sử dụng AI để đàn áp người dân, lan truyền thông tin sai lệch và làm suy yếu an ninh của Hoa Kỳ cũng như của các đồng minh và đối tác của chúng ta.

AI nên được sử dụng để khai mở các tiềm năng và trao quyền cho con người. Các quốc gia trên thế giới, đặc biệt là các nền kinh tế đang phát triển, muốn biết cách làm điều đó. Họ không muốn bị bỏ lại phía sau, và chúng ta cũng không muốn điều đó xảy ra.

An ninh quốc gia của chúng ta luôn mạnh mẽ hơn khi chúng ta đưa tay ra cho các đối tác trên toàn thế giới. Vì vậy, chúng ta cần có được sự cân bằng đúng đắn. Chúng ta cần cân bằng giữa việc bảo vệ các công nghệ AI tiên tiến và thúc đẩy việc áp dụng công nghệ AI trên toàn cầu.

Bảo vệ và thúc đẩy. Chúng ta có thể, phải và đang làm cả hai.

Vì vậy, cho phép tôi tóm lược cho các bạn một cách tiếp cận toàn cầu mới về việc phổ biến AI, cách AI có thể lan rộng khắp thế giới một cách có trách nhiệm, cho phép AI được sử dụng cho mục đích tốt và đồng thời bảo vệ chống lại các rủi ro.

Cách tiếp cận toàn cầu mới này bổ sung cho bản ghi nhớ vừa được công bố và đến từ các cuộc thảo luận kéo dài trong Phòng Tình huống và với các đồng minh, ngành công nghiệp và đối tác trong năm qua.

Chi tiết sẽ được công bố sau, nhưng tôi có thể nói ngay rằng điều này sẽ cung cấp cho khu vực tư nhân sự rõ ràng và dự đoán khi họ lên kế hoạch đầu tư hàng trăm tỷ đô la trên toàn cầu.

Điều này bao gồm cách chính phủ chúng ta sẽ quản lý việc xuất khẩu các chip tiên tiến cần thiết để phát triển các mô hình tiên phong; cách chúng ta sẽ đảm bảo khả năng truy cập rộng rãi vào sức mạnh tính toán AI đáng kể nằm sau những công nghệ tiên tiến nhất nhưng có thể vẫn biến đổi y tế, nông nghiệp và sản xuất trên toàn thế giới; cách chúng ta sẽ hỗ trợ các mối quan hệ hợp tác giữa các công ty AI hàng đầu của Mỹ và các quốc gia trên thế giới muốn tham gia vào cuộc cách mạng AI; và cách chúng ta sẽ thiết lập các tiêu chuẩn an toàn và bảo mật cho các quan hệ đối tác này để bảo vệ hiệu quả khỏi rủi ro trong khi mở ra cơ hội mới.

Những mối quan hệ đối tác này là rất quan trọng. Chúng là nền tảng cho vị thế lãnh đạo của chúng ta. Chúng ta biết rằng Trung Quốc đang xây dựng hệ sinh thái công nghệ của riêng họ với cơ sở hạ tầng kỹ thuật số không bảo vệ dữ liệu nhạy cảm, có thể cho phép giám sát và kiểm duyệt đại trà, lan truyền thông tin sai lệch và làm các quốc gia dễ bị ép buộc.

Vì vậy, chúng ta phải cạnh tranh để cung cấp một con đường hấp dẫn hơn, lý tưởng là trước khi các quốc gia đi quá xa trên một con đường không đáng tin cậy mà việc quay lại có thể tốn kém và khó khăn. Đó là điều chúng ta đang thực hiện.

Chúng ta đã phát triển các mối quan hệ đối tác mới sẽ hỗ trợ tiến bộ kinh tế, đổi mới công nghệ và hệ sinh thái AI bản địa, từ châu Phi đến châu Á đến Trung Đông và xa hơn nữa. Và chúng ta sẽ tiếp tục làm điều đó, với một cách tiếp cận rõ ràng và nghiêm ngặt để phổ biến AI.

Giờ đây, tôi muốn đảm bảo rằng tôi dành thời gian cho cuộc trò chuyện của chúng ta, vì vậy cho phép tôi kết thúc với điều này:

Mọi thứ tôi vừa trình bày là một kế hoạch, nhưng chúng tôi cần tất cả các bạn biến nó thành tiến bộ thực sự. Chúng ta cần bạn và các nhà lãnh đạo ở mọi bang và mọi lĩnh vực áp dụng công nghệ này để thúc đẩy an ninh quốc gia của chúng ta và làm điều đó một cách nhanh chóng.

Chúng ta cần bạn đảm bảo rằng công việc của chúng ta phù hợp với các giá trị cốt lõi đã luôn là nền tảng cho sự lãnh đạo của Hoa Kỳ.

Và như Tổng thống Eisenhower đã nói, chúng ta cần các bạn liên tục cập nhật và phát triển các nguyên tắc AI của chúng ta trong những năm tới.

Điều đó sẽ khó khăn. Nó sẽ đòi hỏi sự suy nghĩ liên tục, suy nghĩ lại liên tục, đổi mới liên tục, hợp tác liên tục và lãnh đạo liên tục. Nhưng với quá khứ làm minh chứng, tôi biết rằng mọi người trong phòng này và trên khắp đất nước của chúng ta đều sẵn sàng cho thử thách. Và cùng nhau, chúng ta sẽ giành chiến thắng trong cuộc cạnh tranh của thế kỷ 21.

Vì vậy, xin cảm ơn, và tôi mong đợi cuộc trò chuyện này. (Vỗ tay.)