Trí tuệ nhân tạo và những thách thức cho nhân loại (RFI)

Trí tuệ Nhân tạo và những rủi ro khó có thể kiểm soát

Chi Phương, RFI Tiếng Việt

Sự phát triển của Trí tuệ Nhân tạo (AI) ngày càng thu hút sự chú ý với những tính năng ưu việt, hỗ trợ con người trong nhiều lĩnh vực như giáo dục, y tế, trong các ngành công nghiệp. Tuy nhiên, trong bối cảnh các cường quốc tham gia vào cuộc đua về công nghệ, AI cũng có thể là con dao hai lưỡi, tạo ra những mối đe dọa khó lường, nếu không được kiểm soát. Đây cũng là chủ đề được thảo luận tại thượng đỉnh do Pháp và Ấn Độ tổ chức tại Paris, ngày 10-11/02/2025.

Trong vòng hai ngày, Paris trở thành “kinh đô” của Trí tuệ Nhân tạo (AI), quy tụ lãnh đạo từ nhiều quốc gia, cùng những “ông trùm” trong giới công nghệ thế giới, cùng hàng ngàn nhà nghiên cứu trong lĩnh vực này. Sự kiện do tổng thống Pháp Emmanuel Macron và thủ tướng Ấn Độ Narendra Modi đồng chủ trì, không chỉ đưa ra những thảo luận về “rủi ro hiện sinh” hoặc “rủi ro thảm khốc” liên quan đến Trí tuệ Nhân tạo, vốn là chủ đề trọng tâm của thượng đỉnh đầu tiên về AI tại Luân Đôn vào năm 2023, theo Le Monde, mà điện Elysée còn muốn làm nổi bật những khía cạnh tích cực của AI.

Nhân sự kiện này,  RFI Tiếng Việt đã phỏng vấn nhà nghiên cứu người Pháp gốc Việt Hoàng Lê Nguyên, tốt nghiệp trường Polytechnique ParisTech, từng là nghiên cứu sinh tại Viện Công nghệ Massachusetts của Hoa Kỳ, và hiện làm nghiên cứu tại trường École Polytechnique Fédérale of Lausanne (EPFL), Thụy Sĩ. Chuyên gia về Trí tuệ Nhân tạo, ông cũng là nhà sáng lập công ty về an ninh mạng Calicarpa và chủ của một kênh Youtube Science4All, đưa ra những giải thích dễ hiểu về khoa học và công nghệ. 

**********

Xin cảm ơn ông Hoàng Lê Nguyên đã dành thời gian chia sẻ với thính giả của RFI Tiếng Việt về chủ đề thu hút sự quan tâm của công luận gần đây : Trí tuệ Nhân tạo. Trước tiên, ông có thể cho biết đâu là những tiến bộ nào đáng chú ý nhất về AI trong những năm vừa qua ?

Hoàng Lê Nguyên : Phải nói rằng từ đầu những năm 2010, những khả năng của máy học (machine learning), ngày càng được quan tâm, ban đầu là những khả năng, ví dụ như phát hiện, nhận dạng các con vật, chó hay mèo trong các bức ảnh. Đó chính là điều khiến loại công nghệ này được quan tâm nhiều hơn, và có nhiều đầu tư trong lĩnh vực này, cả về nghiên cứu học thuật và trong công nghiệp.

Kể từ đó, ngày càng có nhiều những khả năng ngoạn mục khác, sử dụng các thuật toán tạo sinh như ChatGPT hay Midjourney, cho phép tạo ra văn bản hình ảnh và cả video. Tuy nhiên, tôi cho rằng, không nên quên rằng đó là lĩnh vực được đầu tư nhiều tiền bạc nhất ngày nay, với những loại ứng dụng mang nhiều lợi nhuận, nhưng cũng mang tính ảnh hưởng về địa chính trị. 

Mọi người có thể thấy trên các trang mạng điện tử, đặc biệt là phải nói đến các loại thuật toán đề xuất nội dung. Ví dụ, trên Google, Amazon, Facebook hay TikTok, AI mang lại nhiều lợi nhuận, lên đến hàng tỷ euro mỗi năm, trên hết là nhờ vào các thuật toán nhắm mục tiêu quảng cáo, qua những đề xuất nội dung với sự phân tích tâm lý của hàng tỷ người để biết nội dung nào tốt nhất để giới thiệu.

Trí tuệ Nhân tạo ngày càng được sử dụng trong nhiều lĩnh vực, đặc biệt trong ngành sáng tạo nội dung, hay giáo dục, với những khả năng vượt trội. Liệu khả năng của AI, phải chăng đã vượt qua con người ?

Hoàng Lê Nguyên : Đây là một câu hỏi mang tính tranh cãi và có nhiều quan điểm khác nhau được đưa ra. Mọi người thường có xu hướng so sánh với những người giỏi nhất. Nhưng trên thực tế, trong nhiều lĩnh vực, đúng là AI rất hiệu quả, vượt trội hơn rất nhiều người, có những khả năng mà con người không thể làm được.

Ví dụ, tạo ra hàng tỷ cuộc trò chuyện mỗi ngày. Bản thân tôi là người nói nhiều, nhưng tôi cũng không thể làm được như vậy. AI có khả năng xử lý lượng dữ liệu khổng lồ. Ví dụ, trên nền tảng video Youtube, “một thế kỷ video” được đăng tải mỗi ngày. Ngay cả khi tôi có làm việc hết sức, tôi cũng không thể xem hết lượng video đó. Tuy nhiên, AI có những khả năng này, và cho phép xử lý thông tin để thực hiện việc phân tích tâm lý về những người xem những video. Đây là khả năng mà những nhà độc tài lớn nhất trong lịch sử từng mơ ước, để giám sát dân số như ngày nay.

Do đó, thuật toán của TikTok, của YouTube có khả năng thực hiện nhiều chức năng. Trên thực tế, những hệ thống này phần lớn đều đã vượt lên khả năng của con người.

Trong trường hợp này, với những khả năng như vậy, làm sao có thể bảo đảm rằng AI có thể có lợi cho tất cả mọi người ? Liệu AI có gây ra đe dọa nào hay không ?

Hoàng Lê Nguyên : Đúng là điều này có thể tạo ra những mối đe dọa mới, ví dụ, chỉ với khả năng đánh giá phân tích tâm lý (profilage psychologique). Ngoài ra, ngày nay, có rất nhiều doanh nghiệp công nghệ với những dịch vụ về tin tặc.

Liên quan đến OpenAI, doanh nghiệp được cho là đi đầu về Trí tuệ Nhân tạo, gần đây đã tuyển dụng Paul M. Nakasone , một cựu tướng lĩnh trong quân đội Hoa Kỳ, và cũng từng là lãnh đạo của Cơ quan An ninh Quốc gia Hoa Kỳ (NSA), chuyên gia về an ninh mạng.

Nếu như nói đến các doanh nghiệp công nghệ Trung Quốc có mối liên hệ gần gũi với chính phủ Trung Quốc, thì với đạo luật Patriot Act, các doanh nghiệp Hoa Kỳ cũng bị buộc phải tiết lộ cho chính phủ những thông tin mà được lưu trữ, ngay cả những thông tin của các cá nhân.

Theo tôi, đúng là có những vấn đề về địa chính trị quan trọng. Nhưng điều nguy hiểm nhất vẫn là sức ảnh hưởng, và khả năng của những thuật toán có thể điều khiển công luận. Từ một thập kỷ qua, mọi người có thể thấy những hậu quả về sự gia tăng của chủ nghĩa dân túy, hay sự gia tăng thù hận giữa các quốc gia, hay trong nội tại mỗi quốc gia, giữa các đảng phái chính trị.

Hoàng Lê Nguyên, chuyên gia về Trí tuệ Nhân tạo, CEO của Calicarpa
Hoàng Lê Nguyên, chuyên gia về Trí tuệ Nhân tạo, CEO của Calicarpa. © Chi Phuong/Canva

Để hiểu thêm về những thuật toán đề xuất của Trí tuệ Nhân tạo. Ông Hoàng Lê Nguyên cũng là đồng tác giả của cuốn La dictature des algorithmes, được ra mắt vào năm 2024. Liệu những thuật toán đó đôi khi được xem như là những « hộp đen », mà ngay cả những người tạo ra nó cũng không nắm rõ được hết. Vậy, làm thế nào có thể bảo đảm là tránh được những rủi ro mà những thuật toán đó có thể tạo ra ?

Hoàng Lê Nguyên : Theo tôi, đây là một vấn đề lớn và đặt ra hai câu hỏi cùng lúc, về an ninh mạng cũng như cách quản lý. Đáng tiếc là ngày nay, không có nhiều các tiêu chuẩn về an ninh mạng và phát triển những sản phẩm công nghệ này. Mọi người chỉ mới bắt đầu liệt kê ra những rủi ro gần đây.

Nếu nhìn vào những doanh nghiệp công nghệ lớn ngày nay, như Google Facebook, và đặc biệt là Amazon, phải nói rằng phần lớn doanh thu của họ có được là nhờ việc đề xuất các nội dung, sản phẩm mà mọi người sẽ “clic” vào, hay tiêu tốn thời gian vào đó, và đề xuất cho người dùng những loại quảng cáo nhắm vào riêng họ, khiến họ mua hàng.

Trên thực tế, các thuật toán đề xuất này là một thị trường lớn hơn gấp 100 lần, với hàng trăm ngàn tỷ đô la khi so với các thuật toán của ChatGPT. Mọi người nói nhiều về thuật toán của ChatGPT, với những khả năng ưu việt và bị lo lắng. Nhưng trên thực tế, những thuật toán đề xuất lại chiếm thị phần lớn nhất trong lĩnh vực Trí tuệ Nhân tạo.

Dưới góc độ địa chính trị, các thuật toán đề xuất này cũng có khả năng tạo sức ảnh hưởng đối với công luận và gây bất ổn cho các nước. Nhiều nền dân chủ hiện nay đã bị “tê liệt”, với những hận thù giữa các đảng phái,để tranh giành quyền quản trị, mà theo tôi đó là một hậu quả từ cuộc chiến thông tin, xảy ra là do các thuật toán đề xuất đó.

Ý ông muốn nói đến sức ảnh hưởng các mạng xã hội như X, (Twitter cũ) ?

Hoàng Lê Nguyên : Đúng vậy. Trên thực tế, mạng xã hội X, có những hệ thống mà người ta có thể thấy rằng người quản lý các thuật toán đó có “ác ý”, hoặc không thực sự phù hợp với những lợi ích của dân chủ. Ngay cả trên những nền tảng mạng xã hội khác, có ít vấn đề hơn, thì cũng tồn tại những thuật toán đề xuất bị thao túng, bởi “một nền công nghiệp” những tài khoản giả mạo. Điều này không chỉ tác động đến truyền thông nói chung mà cả những nội dung được người dùng tiêu thụ, và cả việc sản xuất thông tin.

Ví dụ, tôi cũng là một nhà sáng tạo nội dung trên Youtube và tôi thường xuyên bị những thuật toán của Youtube, nhắc tôi về hiệu suất của những video mà tôi tạo ra, thúc đẩy tôi tạo ra nội dung phổ biến hơn, nhưng cũng thường gây chia rẽ hơn, giật gân hơn.

Liên quan đến một ứng dụng thu hút rất nhiều sự ý gần đây, DeepSeek được xem là có khả năng cạnh tranh với ChatGPT nhưng được tạo ra với chi phí quá rẻ bởi một doanh nghiệp Trung Quốc và gây ra nhiều tranh cãi. Ông có suy nghĩ gì về sự ra đời của DeepSeek ?

Hoàng Lê Nguyên : Với tôi, về mặt khoa học, DeepSeek có những điểm thú vị, có khả năng tạo ra một ứng dụng với rất ít nguồn lực, nhưng không hẳn là mang tính cách mạng(..) Tôi nghĩ DeepSeek là sự kết hợp của nhiều chiến lược. Nếu nhìn từ góc độ địa chính trị, sự ra đời của ứng dụng này dấy lên nhiều câu hỏi. Mọi người biết rằng lãnh đạo của các doanh nghiệp Trung Quốc đã từng bị “mất tích”, bị bỏ tù chỉ vì không tuân theo đường lối, sự chỉ đạo của chính phủ Trung Quốc. Mọi người cũng đã quan sát được những hạn chế của DeepSeek khi trả lời những câu hỏi, hay bình luận về đảng Cộng Sản Trung Quốc. Điều này đặt ra những câu hỏi về sự thao túng của Bắc Kinh, hay những vấn đề về tin tặc, gián điệp, liên quan đến dữ liệu mà DeepSeek thu được. Nhưng tôi muốn nhấn mạnh rằng đối thủ OpenAI, đã tuyển dụng cựu lãnh đạo của NSA vào hội đồng quản trị. Mặc dù có những lo ngại về DeepSeek, nhưng các quan ngại đó không nên chỉ bị giới hạn đối với ứng dụng của Trung Quốc mà còn của cả Hoa Kỳ. 

Vậy làm sao có thể kiểm soát loại công nghệ này, trách nhiệm thuộc về ai ? Đã có những quy định nào được đưa ra để kiểm soát Trí tuệ Nhân tạo ?

Hoàng Lê Nguyên : Lấy ví dụ về ly nước tôi cầm trên nay. Để tạo ra chiếc ly này, nhà sản xuất phải tuân thủ nhiều quy định hơn là DeepSeek hay TikTok hiện nay. Hơn nữa, các nhà máy sản xuất đó có thể được thăm quan, hay bị kiểm tra xem họ có tuân thủ luật hay không. Thế nhưng, thật không may là trong không gian số ngày nay thì không hề có những sự kiểm soát như vậy. Ví dụ, phiên bản mới hơn của DeepSeek, có nguy cơ được triển khai mà không ai được biết về những thuật toán, hay các đoạn mã nào, tạo nên ứng dụng này.

Lãnh đạo của Open AI, đã công khai thừa nhận vi phạm bản quyền để có thể tạo ra ChatGPT. Lời thú nhận này chứng tỏ một hành động vi phạm pháp luật và chính phủ Hoa Kỳ phải hành động và thực thi các luật hiện hành.

Tại châu Âu, có nhiều tiến bộ đối với việc đưa luật AI Act, cùng với Quy định về việc bảo vệ dữ liệu cá nhân. Tuy nhiên, tôi cho rằng vẫn còn một vấn đề lớn là làm sao có khể áp dụng những luật để có thể biến không gian mạng thành một Nhà nước pháp quyền và để luật pháp được thực thi.

Hiện cũng đã có rất nhiều phong trào đến từ các hiệp hội, cố gắng lên án những sai lệch, thiếu tiêu chuẩn quản lý, nhất là về an ninh mạng, hoặc tôn trọng các luật đã tồn tại. 

Ông có hy vọng gì về thượng đỉnh Trí tuệ Nhân tạo được tổ chức tuần này tại Paris hay không ?

Hoàng Lê Nguyên : Nói thật là tôi không hy vọng gì nhiều. Mọi người biết rằng sự kiện do Pháp đồng tổ chức, và tổng thống Pháp hướng tới việc quảng bá rộng rãi hơn loại công nghệ này, mà theo tôi đây là điều đáng chỉ trích. Sự kiện này diễn ra sau thượng đỉnh ở Luân Đôn và ở Seoul, chủ yếu tập trung vào những quan ngại về rủi ro của AI. Do đó, tôi thấy một chút “nguy hiểm”, khi quảng bá quá mức những công nghệ này mà không chú ý tới rủi ro.

Song, điều thú vị ở sự kiện này là cũng có nhiều hoạt động bên lề, nói nhiều về những rủi ro, tìm cách đưa ra cảnh báo, đề phòng hơn nữa những loại công nghệ này.

Những năm gần đây, nhiều nhà nghiên cứu trong lĩnh vực này đã kêu gọi ngừng phát triển nghiên cứu về Trí tuệ Nhân tạo và cảnh báo những rủi ro. Quan điểm của ông như thế nào về những lời kêu gọi này ?

Hoàng Lê Nguyên : Tôi cũng phần nào đồng tình với điều này. Vì cần phải hiểu rằng, ngày nay giới học thuật chủ yếu được tài trợ từ ngân sách, công quỹ, và có nhiệm vụ phục vụ xã hội. Tuy nhiên, có thể thấy rằng, thông thường, giới học thuật lại hợp tác, hoặc có liên hệ với các doanh nghiệp công nghệ, mà học tìm cách tăng cường phát triển công nghệ, và không quan tâm đến những vấn đề về quản trị, an ninh. Về phần mình, lời kêu gọi của tôi sẽ là, thay vì ngừng nghiên cứu, hãy chuyển hướng những quỹ nghiên cứu để khuyến khích nghiên cứu nhiều hơn về công nghệ thông tin phục vụ xã hội một cách an toàn hơn.

**********

RFI Tiếng Việt xin chân thành cảm ơn ông Hoàng Lê Nguyên, chuyên gia về Trí tuệ Nhân tạo, lãnh đạo doanh nghiệp chuyên về an ninh mạng Calicarpa, và đồng tác giả của cuốn La dictature des algorithmes (tạm dịch là Tính độc tài của các thuật toán), do Tallandier xuất bản năm 2024. 

Đường dẫn bài gốc

Thuật toán đề xuất AI là gì ?

Thuật toán đề xuất, hay hệ thống gợi ý, theo trang Datascientest, sử dụng các kỹ thuật của Trí tuệ nhân tạo, là một hệ thống sử dụng dữ liệu để dự đoán và gợi ý những nội dung hoặc sản phẩm mà người dùng có thể quan tâm, được thiết kế để cá nhân hóa trải nghiệm người dùng trên các nền tảng trực tuyến.

Các thuật toán này hoạt động bằng cách thu thập và phân tích lượng lớn dữ liệu về người dùng, từ lịch sử xem phim trên Netflix, lịch sử mua sắm trên Amazon, đến các bài đăng yêu thích trên Facebook. Dữ liệu này được xử lý bằng các thuật toán thông minh để tìm ra các mẫu và dự đoán sở thích của người dùng.

Ví dụ, nếu thường xuyên xem phim hành động trên Netflix, thuật toán sẽ ghi nhận điều này và gợi ý những bộ phim hành động tương tự. Hoặc nếu hay mua sách về nấu ăn trên Amazon, thuật toán có thể gợi ý những cuốn sách dạy nấu ăn mới ra.

Các thuật toán đề xuất không chỉ giúp người dùng khám phá những nội dung và sản phẩm phù hợp với sở thích của mình, mà còn giúp các nền tảng trực tuyến tăng mức độ tương tác và doanh thu. Tuy nhiên, chúng cũng tiềm ẩn những rủi ro như tạo ra “bong bóng lọc” thông tin, khiến người dùng chỉ tiếp xúc với những quan điểm quen thuộc, hoặc xâm phạm quyền riêng tư của người dùng.


Trí tuệ Nhân tạo : Hủy hoại hay thân thiện với môi trường ?

Minh Anh, RFI Tiếng Việt

Trong hai ngày 10 và 11/02/2025, Paris tổ chức thượng đỉnh lần thứ ba về Trí tuệ Nhân tạo AI, được cho là có thể mang lại các tiến bộ trong nhiều lĩnh vực của nhân loại. Tuy nhiên, giới chuyên gia và nhiều tổ chức phi chính phủ báo động về tác động tiêu cực của AI đối với môi trường : Lượng khí thải cacbon vượt xa những lợi ích sinh thái mà chúng có thể mang lại.

Một trung tâm dữ liệu ở Dublin, Ireland.
Một trung tâm dữ liệu ở Dublin, Ireland. Ảnh chụp ngày 16/10/2024. AP – Bram Janssen

Điều thú vị là vấn đề này cũng được chính các trợ lý đàm thoại như Copilot, một công cụ AI của hãng Google hay như Mistral của Pháp nhìn nhận, « những máy chủ cho phép vận hành AI tiêu thụ nhiều năng lượng ».

Các đánh giá mới nhất của Cơ quan Chuyển đổi Sinh thái Pháp (Ademe) cũng cho thấy là Trí tuệ Nhân tạo « không hẳn là Sạch » cho môi trường. Gia tăng sử dụng AI, cụ thể là đối với những công nghệ có thể tạo văn bản và hình ảnh từ một trung tâm dữ liệu khổng lồ sẽ còn làm bùng nổ tiêu thụ năng lượng, phát thải khí gây hiệu ứng nhà kính. Nguyên nhân là vì 60% năng lượng cung cấp cho các trung tâm dữ liệu, các siêu máy tính cực nhanh, là đến từ nhiên liệu hóa thạch.

Theo ước tính của Cơ quan Năng lượng Quốc tế (AIE), được nhật báo Công giáo La Croix trích dẫn, lượng điện tiêu thụ cho việc sử dụng AI có khả năng tăng hơn gấp hai lần từ 460 TWh (2022) – tức chiếm đến 2% lượng điện tiêu thụ toàn cầu – lên mức 1.000 TWh vào năm 2026. Ví dụ, một truy vấn trên ChatGPT ngốn năng lượng cao gấp 10 lần so với việc truy tìm thông thường trên Google.

Các nghiên cứu còn chỉ ra rằng công cụ AI càng đa năng, thì càng phải dựa vào một trung tâm dữ liệu, như trường hợp của ChatGPT và công cụ tương tự. Hệ quả tất yếu là càng tiêu thụ nhiều năng lượng để có thể cho phép tạo ra một bài viết khoa học, một hình ảnh hay một đoạn video… Đó là chưa tính đến khối lượng nước được sử dụng để làm mát các trung tâm dữ liệu luôn trong tình trạng bị quá nhiệt, hay như nhu cầu khai thác khoáng sản và đất hiếm cần thiết để chế tạo các siêu máy tính.

Ông Thomas Brilland, kỹ sư tại Ademe nhìn nhận đó chỉ là những ước tính, « khó thể đánh giá tác động môi trường thực sự của những công cụ AI » do sự thiếu minh bạch từ các nhà thiết kế, viện dẫn rằng đó « những thông tin bảo mật ». Tuy nhiên, các báo cáo mới nhất do Google và Microsoft công bố gần đây cho thấy lượng khí thải cacbon đã tăng mạnh do các hoạt động từ AI.

Việc doanh nghiệp DeepSeek của Trung Quốc đưa ra một mô hình AI tạo sinh mới có chi phí sản xuất thấp và nhất là có thể giảm tiêu thụ năng lượng đến 90% so với các đối thủ, đã thực sự đặt ra vấn đề : Nên phát triển những mô hình AI nào cho phép tối ưu hóa các nguồn lực nhưng vẫn có thể giữ được các cam kết phi cacbon hóa các mạng lưới điện tại các trung tâm xử lý dữ liệu ?

Phương trình này sẽ còn khó giải đáp hơn khi mà sự phát triển các thuật toán và lượng người sử dụng AI bùng nổ theo cấp số nhân. Chẳng hạn, theo kỹ sư Théo Alves Da Costa, đồng chủ tịch tổ chức phi chính phủ Data For Good, « ChatGPT giờ có đến 350 triệu người sử dụng mỗi tháng, tiêu thụ nhiều năng lượng hơn cả việc huấn luyện các mô hình vốn dĩ trước đây từng ngốn nhiều điện năng ».

Nhiều giải pháp thay thế như AI « đơn giản », mô hình nhỏ hơn, với các chức năng chuyên biệt và do vậy ít tiêu hao năng lượng hơn bắt đầu xuất hiện. Những mô hình có thể « ấn định cấp độ nguồn lực và tối đa hóa hiệu quả của mô hình tùy theo từng chức năng » theo như giải thích từ Anna Médan, người điều hành dự án tại Hiệp hội Chuẩn hóa của Pháp.

Tuy nhiên, những dự án này chỉ mới ở giai đoạn phôi thai và vẫn là thiểu số do phải đối mặt với lượng sử dụng AI tạo sinh cho những mục đích lợi nhuận ngày càng tăng. Lời khuyên giới chuyên gia đưa ra là nên sử dụng những mô hình chuyên biệt nhằm vào một nhiệm vụ duy nhất để giảm khí thải gây hiệu ứng nhà kính trên mọi cấp độ !

Đường dẫn bài gốc


Thượng đỉnh AI : 61 quốc gia ra thông cáo chung về nhu cầu AI « có đạo đức »

Minh Anh, RFI Tiếng Việt

Các nước ký thông cáo chung bao gồm cả Trung Quốc, Pháp và Ấn Độ, kêu gọi tăng cường phối hợp quản lý AI, đòi hỏi một sự « đối thoại toàn cầu » và kêu gọi tránh tình trạng « tập trung thị trường » tạo điều kiện cho việc tiếp cận công nghệ.

Đại diện các nước tham gia Thượng đỉnh Trí tuệ Nhân tạo, Paris, Pháp, ngày 11/02/2025.
Đại diện các nước tham gia Thượng đỉnh Trí tuệ Nhân tạo, Paris, Pháp, ngày 11/02/2025. © Michel Euler / AP

Phát biểu tại hội nghị, tổng thống Pháp Emmanuel Macron nhấn mạnh đến « nhu cầu cần có các quy tắc » và một « khuôn khổ đáng tin cậy » để hỗ trợ phát triển AI. Nguyên thủ Pháp khẳng định thế giới cần « những quy tắc này để AI phát triển » và « cần phải tiếp tục thúc đẩy một chính sách quản trị quốc tế về AI ».

Hôm qua, ngày đầu tiên của thượng đỉnh AI, tổng thống Pháp Emmanuel Macron đã kêu gọi các nước châu Âu tăng tốc « đột phá » để tránh tụt hậu. Vạch ra một « lộ trình hành động rõ ràng », thu hút các tài năng và ưu tiên sử dụng « điện phát thải thấp » là các điểm chính trong quan điểm của tổng thống Macron.

Về nguồn năng lượng cho Trí tuệ Nhân tạo, tổng thống Macron cũng khẳng định lập trường hoàn toàn đối nghịch với tổng thống Mỹ Donald Trump. Ông nói với giới đầu tư: « trong lúc một người bạn tốt ở bên kia Đại Tây Dương khuyến khích khoan thêm dầu khí, thì ở đây chúng tôi không cần phải khoan », « điện đã sẵn sàng, các bạn chỉ cần nối mạng », ngụ ý nói đến điện hạt nhân, lá chủ bài của nước Pháp trong tiến trình chuyển sang nền kinh tế phát thải thấp.

Đường dẫn bài gốc

About the author