Content Ideas

Future skills
notion image
What Tech Trends Should Companies Focus on in 2023
10 influential articles about "AI as service"
List
  1. "What is AI as a Service (AIaaS) and Why is it Gaining Popularity?" by Andrew Ng, Harvard Business Review, February 2019. This article provides an overview of AIaaS, its benefits, and the reasons why it is becoming increasingly popular.
  1. "The Rise of AI as a Service" by Bernard Marr, Forbes, August 2020. This article explores the growth of AI as a service and the various ways in which it is being used by businesses.
  1. "AI as a Service: How it Works and Why it Matters" by James Vincent, The Verge, June 2019. This article provides an overview of AIaaS, its benefits, and the different ways in which it is being used by companies.
  1. "Why AI-as-a-Service is a game-changer for businesses" by Frederic Lardinois, TechCrunch, February 2019. This article discusses how AIaaS is transforming the way businesses operate and the benefits it offers.
  1. "The Advantages and Disadvantages of AI as a Service" by Mark Samuels, ZDNet, January 2021. This article provides a balanced view of the pros and cons of using AIaaS and how businesses can make the most of it.
  1. "How AI as a Service is Changing the Future of Business" by Erica E. Phillips, Wall Street Journal, August 2020. This article explores how AIaaS is changing the way businesses operate and the potential impact it will have on the future of work.
  1. "AI as a Service: The Next Big Thing in Tech?" by Mark Kaelin, TechRepublic, April 2020. This article discusses the potential of AIaaS to transform the tech industry and the different ways in which it can be used.
  1. "Why AI-as-a-Service is the Future of Enterprise AI" by Anthony D. Mullen, Gartner, October 2019. This article explores the benefits of AIaaS and why it is the future of enterprise AI.
  1. "AI as a Service: A Game Changer for Businesses Everywhere" by Tom Mcewan, Entrepreneur, November 2019. This article provides an overview of AIaaS, its benefits, and the ways in which it is changing the business landscape.
  1. "AI as a Service: A Comprehensive Guide" by Naveen Joshi, Allerin, March 2020. This article provides a comprehensive guide to AIaaS, its benefits, and the different ways in which it can be used by businesses.
Content
 
AI and scam
Make money with ChatGPT
Kiếm tiền với ChatGPT và các ứng dụng AI: Hoàn thành một cuốn sách trong 3 ngày và thu về hơn 61 triệu đồng
Click bait titles
"Discover the Secret to Making Money with ChatGPT and Midjourney!" "Unlock the Potential of ChatGPT and Midjourney to Make Money with E-books!" "Make Thousands of Dollars with ChatGPT and Midjourney - Here's How!" "The Ultimate Guide to Making Money with ChatGPT and Midjourney!" "From Zero to Hero: How to Make Money with ChatGPT and Midjourney!" "Turn Your Writing Dreams into a Reality - Make Money with ChatGPT and Midjourney!" "ChatGPT and Midjourney: The Winning Combination for Making Money with E-books!" "Get Rich Quick: How to Make Money with ChatGPT and Midjourney!" "E-book Publishing Made Easy - Make Money with ChatGPT and Midjourney Today!" "Maximize Your Income Potential - Make Money with ChatGPT and Midjourney Now!" "Don't Miss Out on This Opportunity to Make Money with ChatGPT and Midjourney!" "ChatGPT and Midjourney: The Ultimate Tools for Making Money with E-books!" "Make Money with ChatGPT and Midjourney - The Sky's the Limit!" "ChatGPT and Midjourney - Your Ticket to Making Money with E-books!" "How to Make a Fortune with ChatGPT and Midjourney - The Ultimate Guide!" "Unlock Your Potential - Make Money with ChatGPT and Midjourney Today!" "Get Paid to Write - Make Money with ChatGPT and Midjourney!" "The Ultimate Side Hustle - Make Money with ChatGPT and Midjourney!" "Ready to Make Money with E-books? ChatGPT and Midjourney Have Got You Covered!" "Unleash the Power of ChatGPT: Make Money While You Sleep" "Revolutionize Children's Book Publishing with Midjourney and ChatGPT" "E-Books Made Easy: How ChatGPT Can Help You Publish in Record Time" "From Zero to Hero: How ChatGPT Can Boost Your Freelancing Income" "Think Outside the Box: How to Use ChatGPT to Create Viral Content" "Say Goodbye to Writer's Block: ChatGPT's AI-Powered Content Generator" "Make Money and Help Others: ChatGPT's AI Writing for Nonprofits" "The Future of Content Creation: How ChatGPT is Changing the Game" "Transform Your Blog with ChatGPT's AI Writing and SEO Optimization" "The Ultimate Guide to Making Money with ChatGPT's Text-to-Speech Tool" "Step Up Your Social Media Game with ChatGPT's AI-Generated Posts" "Unlock Your Creative Potential with ChatGPT's AI Art Generators" "ChatGPT for Business: Boost Productivity and Maximize Profits" "ChatGPT vs. Writer's Block: Who Will Come Out on Top?" "ChatGPT's Language Learning Tool: Master a New Language and Make Money" "ChatGPT for Hire: The AI Writing Service Taking the Freelancing World by Storm" "Get More Done in Less Time: ChatGPT's AI-Assisted Writing and Research" "The Ultimate Content Marketing Tool: ChatGPT's AI Writing and Strategy" "From Idea to Publication: ChatGPT's AI Writing for E-Book Authors"
Einstein GPT, A ChatGPT-Like Bot For Businesses
The 7 Best Examples Of How ChatGPT Can Be Used In Human Resources (HR)
Microsoft's Plan To Infuse AI And ChatGPT Into Everything
CFOs Will Get Their Own AI Chatbot as Part of Brex Project
How To Make Money With ChatGPT (20 ways)
GPT
D-ID’s new web app gives a face and voice to OpenAI’s ChatGPTHow ChatGPT could be changing poker
Will ChatGPT disrupt insurance? Insurtechs weigh in
How A Startup Used ChatGPT To Raise $120 Million And Transform Customer Experience
OpenAI releases GPT-4, a multimodal AI that it claims is state-of-the-art
Language learning
What is Visual ChatGPT?
AIG
Prompt engineer
HuggingGPT
Microsoft Semantic Kernel for AI Dev: A Chat with John Maeda
John Maeda says there is a shift in programming from syntax to semantics, due to AI. We talk to him about Microsoft's new Semantic Kernel SDK.
Apr 6th, 2023 4:00am by Richard MacManus
Microsoft recently open sourced a product called Semantic Kernel, a lightweight software development kit (SDK) allowing developers to integrate AI technology into their applications. To find out the thinking behind Semantic Kernel (which Microsoft abbreviates as SK) and how it might be used by developers, I conducted an email interview with the project leader, John Maeda — who is also VP of Design and Artificial Intelligence at Microsoft.
In his announcement post, Maeda wrote that SK “lets you mix conventional programming languages, like C# and Python, with the latest in Large Language Model (LLM) AI “prompts” with prompt templating, chaining, and planning capabilities.”
Image via Microsoft
notion image

The Art of Prompt Engineering

I began by asking what kind of skill sets developers will need to learn to become good at these “prompts”?
“Traditionally, computer science education has been about achieving structured outputs from well-structured syntax,” he replied, “but actually the more flexible mindset of data scientists or even creative artists can be assistive in order to navigate this new world.”
He said that a key skill is “choosing the right words, phrases, symbols, and formats that can guide the model to generate high-quality and relevant texts.” But in addition, developers will need to become proficient at “prompt chaining” (using generated texts as the basis for the next prompts), “prompt tuning” (adapting and optimizing the prompts for specific tasks or domains), and “prompt testing” (which is exactly that: testing the effectiveness of the results).
Sematic Kernel is basically a low-code tool that lets developers, as Maeda put it, “craft complex chains of LLM AI prompts that are both configurable and testable.”
So is “prompt engineering” just an evolution of what a developer will have to do, I asked, or will it be an opportunity for other professions to re-skill (I mentioned psychologists and English teachers)?
“The software world has been dominated by people who can literally speak machine,” he replied. “So, it’s an interesting turn of events that this new kind of programming is much closer to natural language. If your goal is to produce writing as an output, then there’s certainly room for many language-proficient English teachers to have an impact. That said, to be a productive ‘prompt engineer’ still requires you to have the ability to think like an engineer. There’s a reason why the engineering field emerged as a discipline; it’s always attracted those who love to build machinery. In the future, we can count on prompts that are engineered by developers to have qualities we both need and want — like reliability and efficiency. That won’t change. The difference is that developers will be able to pair up with AIs to create even more reliable and efficient systems than ever before.”

SK Concepts

There are several new concepts in this product, the primary ones being “Skills,” “Memories” and “Connectors.” In the documentation, a “skill” is defined as “a domain of expertise made available to the kernel as a single function, or as a group of functions related to the skill.” Memories provide further context, while connectors allow you to connect to external data and actions.
Semantic Kernel concepts; image via Microsoft.
notion image
According to Maeda, the approach here is “goal-oriented AI.” He described Skills as “the core building blocks in SK” and noted that they can be both simple (“Please summarize this piece of text for me”) or complex (“Please summarize everything I need to know for today and build a plan for how I need to get done what I need to accomplish”).
“Memory increases the capability of a Skill tremendously by allowing you to tie the Skill’s capability to your historical data that can be persisted and accessed at any time,” he said, while Connectors “are customizable resources that enable external data access.” He added that connectors help address one of the primary criticisms of LLMs — that they are pre-trained, and so “essentially frozen in time.”

Let’s Speak Machine

John Maeda is well known not just as a technologist, but as a digital artist too. He’s written several books on the intersection of computing and design, such as “Design By Numbers” and “Creative Code.” His most recent book, “How to Speak Machine: Laws of Design for a Digital Age,” was published in 2019 and seems especially relevant to Semantic Kernel.
I asked whether SK’s concepts are a method to enable humans to “speak machine” more efficiently.
“As someone who’s luckily been tasked to explain many of the concepts of Semantic Kernel, and in turn enable legacy industries to adopt what’s a seminal shift in how we think of building AI-based features, I definitely think so,” he replied. “The first phase will be developers adopting this kind of mindset when creating software systems. They’ll need to gradually adopt the thought process to be gained from what we’re calling Schillace Laws — a set of best practices when coding across native code and semantic AI, as introduced by Microsoft Deputy CTO Sam Schillace. Central to Sam’s thesis is that we’ll need to speak both machine (determinism) and human (non-determinism) within engineered systems of the future. This is in line with the theme of the last chapter of ‘How To Speak Machine,’ which is that people who speak machine will need to speak better human.”
Of course, developers already have a leg up on the rest of us in terms of “speaking machine.” In the SK announcement post, Python and C# were mentioned as supported programming languages. But what about the web’s most popular language, JavaScript?
Maeda said that in addition to C# and Python, “we are also looking carefully at TypeScript and will add other language support based on feedback.”
I asked what have been the early use cases for SK among developers. He prefaced his response by saying that Microsoft has been hosting hackathons with both startups and enterprises.
“It turns out there have been many longstanding ‘mid-hanging’ fruit problems,” he said, “like an education app needing to have a larger inventory of appropriate quiz questions, or a customer support app with manually tagged cases that suffer from never getting properly tagged, or a process monitoring app that should email stakeholders when important edge cases trigger that are impossible to express in Boolean logic. There are a bunch of ‘too computationally cumbersome to code’ problems out there that when SK lands in a developer’s toolbox, developers can immediately recognize how to demonstrate a working solution with less than an hour of coding.”

The Shift from Syntax to Semantics

Lastly, and speaking of semantics, I asked why did Maeda and his team use the word “kernel” in the product name? It implies something very specific in computing — the part that has “complete control over everything in the system,” as Wikipedia defines it. Pretty scary when talking about AI, I noted over email (with a smiley face emoji, to indicate that I was half-joking).
“It’s a tip of the hat to that all-time enabler of computational productivity, the UNIX kernel,” he replied. “For those of your readers who remember when the UNIX kernel emerged, I think we all were a little confused by commands comprised of two characters ‘ls’, ‘cd’, ‘ps’ etc. But the big ‘a-ha’ was when we piped commands with the ‘|’ symbol and suddenly the light came on. The UNIX kernel’s simplicity as a landmark user experience for developers has been the north star for SK during its evolution. And we definitely don’t feel we have it right yet. That’s why we released it as open source. So that we can learn in the open as a community, and hopefully together build the right user experience for developers who are excited as we are by this new shift from syntax to semantics.”
 
I began by asking what kind of skill sets developers will need to learn to become good at these “prompts”? “Traditionally, computer science education has been about achieving structured outputs from well-structured syntax,” he replied, “but actually the more flexible mindset of data scientists or even creative artists can be assistive in order to navigate this new world.” He said that a key skill is “choosing the right words, phrases, symbols, and formats that can guide the model to generate high-quality and relevant texts.” But in addition, developers will need to become proficient at “prompt chaining” (using generated texts as the basis for the next prompts), “prompt tuning” (adapting and optimizing the prompts for specific tasks or domains), and “prompt testing” (which is exactly that: testing the effectiveness of the results). Sematic Kernel is basically a low-code tool that lets developers, as Maeda put it, “craft complex chains of LLM AI prompts that are both configurable and testable.” So is “prompt engineering” just an evolution of what a developer will have to do, I asked, or will it be an opportunity for other professions to re-skill (I mentioned psychologists and English teachers)? “The software world has been dominated by people who can literally speak machine,” he replied. “So, it’s an interesting turn of events that this new kind of programming is much closer to natural language. If your goal is to produce writing as an output, then there’s certainly room for many language-proficient English teachers to have an impact. That said, to be a productive ‘prompt engineer’ still requires you to have the ability to think like an engineer. There’s a reason why the engineering field emerged as a discipline; it’s always attracted those who love to build machinery. In the future, we can count on prompts that are engineered by developers to have qualities we both need and want — like reliability and efficiency. That won’t change. The difference is that developers will be able to pair up with AIs to create even more reliable and efficient systems than ever before.” SK Concepts There are several new concepts in this product, the primary ones being “Skills,” “Memories” and “Connectors.” In the documentation, a “skill” is defined as “a domain of expertise made available to the kernel as a single function, or as a group of functions related to the skill.” Memories provide further context, while connectors allow you to connect to external data and actions. Semantic Kernel concepts; image via Microsoft. According to Maeda, the approach here is “goal-oriented AI.” He described Skills as “the core building blocks in SK” and noted that they can be both simple (“Please summarize this piece of text for me”) or complex (“Please summarize everything I need to know for today and build a plan for how I need to get done what I need to accomplish”). “Memory increases the capability of a Skill tremendously by allowing you to tie the Skill’s capability to your historical data that can be persisted and accessed at any time,” he said, while Connectors “are customizable resources that enable external data access.” He added that connectors help address one of the primary criticisms of LLMs — that they are pre-trained, and so “essentially frozen in time.” Let’s Speak Machine John Maeda is well known not just as a technologist, but as a digital artist too. He’s written several books on the intersection of computing and design, such as “Design By Numbers” and “Creative Code.” His most recent book, “How to Speak Machine: Laws of Design for a Digital Age,” was published in 2019 and seems especially relevant to Semantic Kernel. I asked whether SK’s concepts are a method to enable humans to “speak machine” more efficiently. “As someone who’s luckily been tasked to explain many of the concepts of Semantic Kernel, and in turn enable legacy industries to adopt what’s a seminal shift in how we think of building AI-based features, I definitely think so,” he replied. “The first phase will be developers adopting this kind of mindset when creating software systems. They’ll need to gradually adopt the thought process to be gained from what we’re calling Schillace Laws — a set of best practices when coding across native code and semantic AI, as introduced by Microsoft Deputy CTO Sam Schillace. Central to Sam’s thesis is that we’ll need to speak both machine (determinism) and human (non-determinism) within engineered systems of the future. This is in line with the theme of the last chapter of ‘How To Speak Machine,’ which is that people who speak machine will need to speak better human.” Of course, developers already have a leg up on the rest of us in terms of “speaking machine.” In the SK announcement post, Python and C# were mentioned as supported programming languages. But what about the web’s most popular language, JavaScript? Maeda said that in addition to C# and Python, “we are also looking carefully at TypeScript and will add other language support based on feedback.” I asked what have been the early use cases for SK among developers. He prefaced his response by saying that Microsoft has been hosting hackathons with both startups and enterprises. “It turns out there have been many longstanding ‘mid-hanging’ fruit problems,” he said, “like an education app needing to have a larger inventory of appropriate quiz questions, or a customer support app with manually tagged cases that suffer from never getting properly tagged, or a process monitoring app that should email stakeholders when important edge cases trigger that are impossible to express in Boolean logic. There are a bunch of ‘too computationally cumbersome to code’ problems out there that when SK lands in a developer’s toolbox, developers can immediately recognize how to demonstrate a working solution with less than an hour of coding.” The Shift from Syntax to Semantics Lastly, and speaking of semantics, I asked why did Maeda and his team use the word “kernel” in the product name? It implies something very specific in computing — the part that has “complete control over everything in the system,” as Wikipedia defines it. Pretty scary when talking about AI, I noted over email (with a smiley face emoji, to indicate that I was half-joking). “It’s a tip of the hat to that all-time enabler of computational productivity, the UNIX kernel,” he replied. “For those of your readers who remember when the UNIX kernel emerged, I think we all were a little confused by commands comprised of two characters ‘ls’, ‘cd’, ‘ps’ etc. But the big ‘a-ha’ was when we piped commands with the ‘|’ symbol and suddenly the light came on. The UNIX kernel’s simplicity as a landmark user experience for developers has been the north star for SK during its evolution. And we definitely don’t feel we have it right yet. That’s why we released it as open source. So that we can learn in the open as a community, and hopefully together build the right user experience for developers who are excited as we are by this new shift from syntax to semantics.”
Microsoft Semantic Kernel cho AI Dev: Trò chuyện cùng John Maeda John Maeda cho rằng do tác động của AI, việc lập trình đang chuyển từ cú pháp sang ngữ nghĩa. Chúng tôi đã trao đổi với ông về SDK Semantic Kernel mới của Microsoft. Ngày 6 tháng 4 năm 2023, tác giả Richard MacManus Microsoft vừa công bố mã nguồn mở một sản phẩm có tên là Semantic Kernel, một bộ công cụ phát triển phần mềm nhẹ cho phép các nhà phát triển tích hợp công nghệ AI vào các ứng dụng của họ. Để hiểu thêm về Semantic Kernel (viết tắt là SK) cách sử dụng dành cho các nhà phát triển, tôi đã tiến hành một cuộc phỏng vấn qua email với người lãnh đạo dự án, John Maeda - người cũng là Phó Chủ tịch Thiết kế và Trí tuệ Nhân tạo của Microsoft. Trong bài đăng thông báo, Maeda viết rằng SK "cho phép bạn kết hợp các ngôn ngữ lập trình thông thường, như C #, Python, với các prompts dùng trong các mô hình ngôn ngữ lớn (LLM) để thực hiện các kỹ thuật tạo mẫu, kết nối và lập kế hoạch cho prompt". Nghệ thuật viết Prompt Tôi đặt hỏi các nhà phát triển sẽ cần phải thành thạo những kỹ năng nào để viết "prompts" hay? ". Trọng tâm trong trong đạo tạo về khoa học máy tính từ trước đến giờ thường chú trọng vào việc tạo kết quả đầu ra có cấu trúc dựa trên cú pháp đầu vào có cú pháp và cấu trúc tốt," ông trả lời, "nhưng thực tế là tư duy linh hoạt của nhà khoa học dữ liệu hoặc người nghệ sĩ sáng tạo lại rất có ích trong thế giới mới này". Ông nói rằng một kỹ năng quan trọng là "chọn từ, cụm từ, ký hiệu và định dạng đúng để hướng dẫn mô hình tạo ra các văn bản chất lượng cao và phù hợp". Nhưng ngoài ra, các nhà phát triển cũng sẽ cần thành thạo trong việc "liên kết các prompts" (sử dụng các văn bản đầu ra làm đầu vào cho các prompts tiếp theo), "tinh chỉnh prompts" (điều chỉnh và tối ưu hóa các prompts cho các tác vụ hoặc lĩnh vực cụ thể) và "test prompts" (kiểm tra chất lượng kết quả). Sematic Kernel về cơ bản là một công cụ ít sử dụng code giúp các nhà phát triển "tạo ra các chuỗi prompts LLMs phức tạp có cấu trúc và có thể test được". Tôi hỏi: “Vậy prompt engineering" có phải chỉ là bước tiếp theo đối với các nhà phát triển, hay đó là cơ hội dành cho những người thuộc các chuyên môn khác (như các nhà tâm lý học và giáo viên tiếng Anh) tự học lập trình? "Những người có thể đọc được ngôn ngữ của máy tính đã từng thống trị thế giới phần mềm", ông trả lời. "Vì vậy, đây là một sự kiện thú vị khi dạng lập trình mới này gần hơn với ngôn ngữ tự nhiên. Nếu mục tiêu là tạo đầu ra là văn bản, thì rõ ràng là rất nhiều giáo viên dạy tiếng Anh sẽ có cơ hội sử dụng công cụ này. Tuy nhiên, để trở thành một 'kỹ sư tạo prompt' tạo ra các văn bản chất lượng cao vẫn đỏi hỏi khả năng tư duy như một kỹ sư. Những người là kỹ sư thường thích tạo ra máy móc. Trong tương lai, chúng ta có thể hy vọng các nhà phát triển tạo ra sẽ tạo ra các prompts có chất lượng về như độ tin cậy và hiệu quả. Điều đó sẽ không thay đổi. Sự khác biệt là các nhà phát triển sẽ sử dụng AI để tạo ra các hệ thống tốt hơn và hiệu quả hơn bao giờ hết." Các khái niệm cơ bản về SK Sản phẩm này có một số khái niệm mới trong như "Kỹ năng", "Ký ức" và "Kết nối". Trong tài liệu ghi "kỹ năng" được định nghĩa là "một lãnh vực chuyên môn được cung cấp cho kernel dưới dạng một chức năng đơn, hoặc như một nhóm các chức năng liên quan đến kỹ năng". “Ký ức” cung cấp ngữ cảnh bố sung, trong khi các “kết nối” cho phép kết nối với dữ liệu và hoạt động bên ngoài. Theo Maeda, phương pháp này tập trung vào khái niệm "AI hướng đến mục tiêu". Ông mô tả Kỹ năng là "các đơn vị nền tảng trong SK" và lưu ý rằng chúng có thể đơn giản ("Hãy tóm tắt đoạn văn này cho tôi") hoặc phức tạp ("Hãy tóm tắt mọi thứ tôi cần biết cho hôm nay và xây dựng một kế hoạch cho tôi cần hoàn thành những gì tôi muốn đạt được"). "Ký ức tăng khả năng của một Kỹ năng gấp bội thông qua kết nối Kỹ năng với dữ liệu lịch sử được lưu trữ và truy cập bất cứ lúc nào", ông nói, còn “kết nối"là các tài nguyên tùy chỉnh cho phép truy cập dữ liệu bên ngoài". Ông nói thêm rằng các công cụ này giúp giải quyết một trong những nhược điểm chính của LLMs - đào tạo trong quá khứ và vì vậy "thiếu cập nhật". Hãy Trò Chuyện Với Máy John Maeda không chỉ nổi tiếng về công nghệ, mà còn là một nghệ sĩ kỹ thuật số. Ông đã viết nhiều cuốn sách về sự gặp gỡ của máy tính và thiết kế, chẳng hạn như "Design By Numbers" và "Creative Code". Cuốn sách mới nhất của ông, "How to Speak Machine: Laws of Design for a Digital Age," được xuất bản năm 2019 và có vẻ đặc biệt liên quan đến Semantic Kernel. Tôi hỏi liệu các khái niệm SK có phải là một phương pháp để cho phép con người "nói chuyện với máy" hiệu quả hơn hay không. "Là một người may mắn được giao nhiệm vụ giải thích nhiều khái niệm của Semantic Kernel và trong quá trình đó cho các ngành nghề hiện tại thích nghi với đòi hỏi đổi mới tư duy về việc xây dựng các tính năng dựa trên trí tuệ nhân tạo, câu trả lời của tôi là có", ông trả lời. "Giai đoạn đầu sẽ là các nhà phát triển chấp nhận kiểu tư duy này khi tạo ra các hệ thống phần mềm. Họ sẽ cần dần dần chấp nhận quá trình tư duy dựa trên nguyên tắc mà chúng tôi gọi là luật Schillace - một tập hợp các phương pháp tốt nhất khi lập trình trên mã nguồn và trí tuệ nhân tạo ngữ nghĩa, do Phó CTO của Microsoft Sam Schillace đề xuất. Ý tưởng chính của Sam là chúng ta sẽ cần phải nói cả ngôn ngữ máy (cố định) và ngôn ngữ con người (linh hoạt) trong những hệ thống kỹ thuật tương lai. Điều này phù hợp với chủ đề của chương cuối cùng trong cuốn sách "How To Speak Machine", đó là những người nói chuyện với máy sẽ cần phải nói chuyện với con người tốt hơn." Tất nhiên, các nhà phát triển đã có lợi thế hơn chúng ta về mặt "nói chuyện với máy". Bài đăng thông cáo về SKn nhắc đến Python và C # như là các ngôn ngữ lập trình được hỗ trợ. Nhưng với các ngôn ngữ phổ biến nhất trên web như JavaScript thì sao? Maeda nói rằng ngoài C # và Python, "chúng tôi cũng đang xem xét kỹ TypeScript và sẽ thêm hỗ trợ cho các ngôn ngữ khác dựa trên phản hồi." Tôi hỏi đã có ai ứng dụng SK chưa? Ông ấy nói Microsoft đã tổ chức các cuộc thi hackathon với cả các startup và doanh nghiệp. "Những vấn đề 'trung gian' đã tồn tại trong thời gian dài," ông nói, "ví dụ một ứng dụng giáo dục cần có một lượng lớn các câu hỏi trắc nghiệm phù hợp, hoặc một ứng dụng hỗ trợ khách hàng có các trường hợp được tag thủ công chưa được tag đúng cách, hoặc một ứng dụng giám sát quy trình sẽ gửi email cho các bên liên quan khi các điều kiện cực đoan được kích hoạt không thể biểu thị bằng logic Boolean. Có nhiều vấn đề 'quá phức tạp để lập trình' mà SK có thể giúp các nhà phát triển, tìm ra giải pháp chỉ với một giờ lập trình." Sự Thay Đổi Từ Cú Pháp Đến Từ Ngữ Nghĩa Cuối cùng, và nói về ngữ nghĩa, tôi hỏi tại sao Maeda và nhóm của ông lại sử dụng từ "kernel" trong tên sản phẩm? Nó ngụ ý một cái gì đó rất cụ thể trong máy tính – bộ phận điều khiển trung tâm "điều khiển hoàn toàn trên mọi thứ trong hệ thống", định nghĩa của Wikipedia. Tôi lưu ý qua email rằng điều đó rất đáng sợ khi nói về trí tuệ nhân tạo (với biểu tượng cười, để chỉ rằng tôi đang nói đùa một nửa). "Đó là một lời tri ân cho kernel UNIX, bộ enabler cho hiệu suất tính toán của mọi thời đại" ông trả lời. "Còn nhớ khi kernel UNIX xuất hiện, tôi nghĩ chúng ta đều hơi bối rối bởi các lệnh bao gồm hai ký tự 'ls', 'cd', 'ps' vv. Nhưng đó là điểm đột phá bất ngờ khi ghép nối các lệnh với ký hiệu '|' và bỗng nhiên tất cả trở nên sáng tỏ. Sự đơn giản của kernel UNIX trong trải nghiệm người dùng luôn là kim chỉ nam để phát triển SK. Và chúng tôi chưa chắc đã đúng. Đó là lý do tại sao chúng tôi phát hành nó dưới dạng mã nguồn mở. Để chúng tôi có thể học hỏi từ cộng đồng và hy vọng cùng nhau cải thiện trải nghiệm cho các nhà phát triển đang phấn khích với sự chuyển dịch từ cú pháp sang ngữ nghĩa.
 
12 Creative Ways Developers Can Use Chat GPT-4
12 Creative Ways Developers Can Use Chat GPT-4
12 Cách Sáng Tạo Mà Nhà Phát Triển Có Thể Sử Dụng Chat GPT-4
Chat GPT-4 là một trong những công nghệ trí tuệ nhân tạo phổ biến nhất trong ngành công nghiệp phát triển phần mềm. Nó có khả năng tạo ra văn bản, dịch ngôn ngữ, tạo hình ảnh, xử lý ngôn ngữ tự nhiên và giải quyết các vấn đề phức tạp. Trong bài viết này, chúng tôi sẽ giới thiệu 12 cách sáng tạo mà nhà phát triển có thể sử dụng để khai thác tối đa tiềm năng của GPT-4.
12 Creative Ways Developers Can Use Chat GPT-4 By Arham Islam -April 11, 2023 Reddit Vote Flip Share Tweet 0SHARES With its ability to see, i.e., use both text and images as input prompts, GPT-4 has taken the tech world by storm. The world has been quick in making the most of this model, with new and creative applications popping up occasionally. Here are some ways that developers can harness the power of GPT-4 to unlock its full potential. 3D Design Integrating ChatGPT into Unity Editor, the widely-used 3D modeling and game design software, enables converting text prompts into 3D images. This innovation is expected to revolutionize how game designers work, making ChatGPT a valuable asset for boosting productivity and accelerating the modeling process. Mini-games creation With ChatGPT-4, developers can create mini-games like Snake and Pong in one prompt. Although these games are not the most complex, developers can customize these simple game frameworks to develop their own games with great speed and simplicity. 🚀 JOIN the fastest ML Subreddit Community One Twitter user created a game of Pong within 60 seconds. Another user asked ChatGPT to write an HTML code that changes what video a user sees based on the time of the day. Code debugging ChatGPT is an exceptional AI assistant that can be invaluable for developers as a code debugger and mentor. With just a few clicks, users can input their code and the specific errors they’re encountering, and ChatGPT will quickly get to work to identify and help resolve the issue. Its ability to provide helpful insights and advice makes it an ideal mentor for those just starting as a developer. Finding vulnerabilities in security Security is of utmost importance when coding or building applications, and ChatGPT is a great way to know the vulnerabilities and do quality assurance. One Twitter user dumped a live Ethereum contract into GPT-4, and instantly, it highlighted several security vulnerabilities and pointed out surface areas where the contract could be exploited. Creating extensions Users can create custom extensions and harness the power of GPT-4. Tedious tasks can be automated or even sped up using an extension. One user created an extension that summarizes on-page text into pirate speak. Sketches into website GPT-4 is capable of processing both text and images, allowing users to generate prompts based on visual input. In its impressive demonstration, GPT-4 was able to take a hand-drawn sketch and translate it into a functional website. Copilot Microsoft Excel Copilot for MS Excel is proficient in data analysis and can provide valuable insights. Users can easily ask questions about their data and generate detailed reports and visualizations in a fraction of the time. This is particularly beneficial for experienced Excel users looking to streamline their workflow and makes it easier for inexperienced users to access and analyze data. Learning a language Duolingo, one of the most popular language learning app, has recently integrated GPT technology into its platform, taking language tutoring to the next level. With this new feature, the app can now provide personalized explanations and even offer role-playing scenarios based on the user’s input. For instance, users can practice speaking with their parents or simulating a date conversation. Customer service Intercom has built its own customer service bot Fin, entirely on GPT-4. With the current technology, developers can build a chatbot for their own website or incorporate Intercom into their product. Transactional data Although many apps can parse transactional data, ChatGPT-4 could be incredibly useful in more complex scenarios or provide a more cost-effective alternative to other applications. Below is an example of ChatGPT parsing credit card transactions and returning the merchant information in JSON format. UI design GPT-4 has the capability to comprehend visual representations of user interfaces, including mockups and wireframes, and generate the necessary code for constructing functional web or app interfaces. This can effectively streamline the development process and enhance collaboration between designers and developers. Data analysis Since GPT-4 is capable of processing both text and images, it can understand tables and graphs and help in quickly analyzing data.
Đây là những cách mà *nhà phát triển* có thể tận dụng sức mạnh của GPT-4 để khai thác tối đa tiềm năng của nó. # Thiết kế 3D Tích hợp ChatGPT vào Unity Editor, phần mềm thiết kế và game 3D được sử dụng rộng rãi, cho phép chuyển đổi các thông tin hướng dẫn văn bản thành hình ảnh 3D. Điều này dự kiến sẽ cách mạng hóa cách làm việc của nhà thiết kế game, làm cho ChatGPT trở thành tài sản đáng giá cho việc tăng năng suất và tăng tốc quá trình mô hình hóa. # Tạo mini-game Với ChatGPT-4, các nhà phát triển có thể tạo ra các mini-game như Snake và Pong trong một thông tin hướng dẫn. Mặc dù các trò chơi này không phải là phức tạp nhất, các nhà phát triển có thể tùy chỉnh các khung trò chơi đơn giản này để phát triển trò chơi của riêng họ với tốc độ và đơn giản hóa lớn. Một [nr-developers) đã tạo ra một trò chơi Pong trong vòng 60iây. Một [người dùng đã yêu cầu ChatGPT viết mã HTML thay đổi video mà người dùng xem dựa trên thời gian trong ngày. # Gỡ lỗi mã ChatGPT là một trợ lý trí tuệ nhân tạo xuất sắc có thể cực kỳ hữu ích cho các nhà phát triển như một trình gỡ lỗi và người cố vấn mã. Chỉ với vài cú nhấp chuột, người dùng có thể nhập mã của họ và các lỗi cụ thể mà họ gặp phải, và ChatGPT sẽ nhanh chóng làm việc để xác định và giúp giải quyết vấn đề. Khả năng cung cấp thông tin hữu ích và lời khuyên làm cho nó trở thành người cố vấn lý tưởng cho những người mới bắt đầu làm phát triển viên. # Tìm lỗ hổng trong bảo mật Bảo mật là rất quan trọng khi lập trình hoặc xây dựng ứng dụng, và ChatGPT là một cách tuyệt vời để tìm hiểu các lỗ hổng và đảm bảo chất lượng. Một người dùng Twitter [khác](https://twitter.com/jconorgrogan/status/1635695064692273161?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1635695064692273161%7Ctwgr%5Eedd3135c849f7617c787daac5b5b08650052d8e9%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.wearedevelopers.com%2Fmagazine%2Fchat-gpt-for-developers) đã đưa một hợp đồng Ethereum trực tiếp vào GPT-4 và ngay lập tức, nó đã nhấn mạnh một số lỗ hổng bảo mật và chỉ ra các khu vực bề mặt mà hợp đồng có thể bị khai thác. # Tạo tiện ích mở rộng Người dùng có thể tạo tiện ích mở rộng tùy chỉnh và tận dụng sức mạnh của GPT-4. Các nhiệm vụ tẻ nhạt có thể được tự động hoá hoặc thậm chí được tăng tốc sử dụng một tiện ích mở rộng. Một [người dùng khác](https://twitter.com/jakebrowatzke/status/1635882037319008258?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1635882037319008258%7Ctwgr%5Eedd3135c849f7617c787daac5b5b08650052d8e9%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.wearedevelopers.com%2Fmagazine%2Fchat-gpt-for-developers) đã tạo ra một tiện ích mở rộng tóm tắt văn bản trên trang thành tiếng hải tặc. # Biến các phác thảo thành trang web GPT-4 có khả năng xử lý cả văn bản và hình ảnh, cho phép người dùng tạo ra các thông tin hướng dẫn dựa trên đầu vào hình ảnh. Trong bài thuyết trình ấn tượng của nó, GPT-4 có thể lấy một phác thảo vẽ tay và chuyển đổi nó thành một trang web chức năng. # Copilot cho Microsoft Excel [Copilot cho MS Excel](https://twitter.com/msexcel/status/1636766917150007298?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1636766917150007298%7Ctwgr%5Eedd3135c849f7617c787daac5b5b08650052d8e9%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.wearedevelopers.com%2Fmagazine%2Fchat-gpt-for-developers) có khả năng phân tích dữ liệu và cung cấp thông tin hữu ích. Người dùng có thể dễ dàng đặt câu hỏi về dữ liệu của họ và tạo ra báo cáo và hình ảnh chi tiết chỉ trong một phần nhỏ của thời gian. Điều này đặc biệt có lợi cho những người dùng Excel kinh nghiệm đang tìm cách tối ưu hóa quy trình làm việc của họ và làm cho việc truy cập và phân tích dữ liệu dễ dàng hơn đối với những người dùng không có kinh nghiệm. # Học ngôn ngữ Duolingo, một trong những ứng dụng học ngôn ngữ phổ biến nhất, đã tích hợp [Công nghệ GPT](https://twitter.com/duolingo/status/1635688521695633408?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1635688521695633408%7Ctwgr%5Eedd3135c849f7617c787daac5b5b08650052d8e9%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.wearedevelopers.com%2Fmagazine%2Fchat-gpt-for-developers) vào nền tảng của mình, đưa việc dạy ngôn ngữ lên một tầm cao mới. Với tính năng mới này, ứng dụng có thể cung cấp giải thích cá nhân hóa và thậm chí cung cấp các kịch bản giả lập dựa trên đầu vào của người dùng. Ví dụ, người dùng có thể luyện tập nói chuyện với cha mẹ hoặc giả lập một cuộc hẹn hò. # Dịch vụ khách hàng Intercom đã xây dựng bot dịch vụ khách hàng của riêng mình ***[Fin](https://twitter.com/destraynor/status/1635705915595685902?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1635705915595685902%7Ctwgr%5Eedd3135c849f7617c787daac5b5b08650052d8e9%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.wearedevelopers.com%2Fmagazine%2Fchat-gpt-for-developers)***, hoàn toàn dựa trên GPT-4. Với công nghệ hiện tại, các nhà phát triển có thể xây dựng một chatbot cho trang web của họ hoặc tích hợp Intercom vào sản phẩm của họ. # Dữ liệu giao dịch Mặc dù nhiều ứng dụng có thể phân tích dữ liệu giao dịch, nhưng ChatGPT-4 có thể rất hữu ích trong các tình huống phức tạp hơn hoặc cung cấp một giải pháp tiết kiệm chi phí hơn cho các ứng dụng khác. Dưới đây là một ví dụ về ChatGPT phân tích các giao dịch thẻ tín dụng và trả về thông tin của nhà cung cấp trong định dạng JSON. # Thiết kế giao diện người dùng GPT-4 có khả năng hiểu các biểu tượng giao diện người dùng, bao gồm các phác thảo và bản tóm tắt, và tạo mã cần thiết để xây dựng các giao diện web hoặc ứng dụng chức năng. Điều này có thể hiệu quả hóa quá trình phát triển và nâng cao sự hợp tác giữa nhà thiết kế và nhà phát triển. # Phân tích dữ liệu Vì GPT-4 có khả năng xử lý cả văn bản và hình ảnh, nó có thể hiểu các bảng và biểu đồ và giúp phân tích dữ liệu nhanh chóng. dvsfbsdbdgbdgbdg
ad
Bloomberg Unveils a GPT Finance-Focused AI Model
 
 
Bloomberg has released BloombergGPT, a new large language model (LLM) that has been trained on enormous amounts of financial data and can help with a range of natural language processing (NLP) activities for the financial sector. BlooombergGPT is a cutting-edge AI that can evaluate financial data quickly to help with risk assessments, gauge financial sentiment, and possibly even automate accounting and auditing activities. According to a statement from Bloomberg, an AI that is specifically trained with financial information is necessary due to the complexity and distinctive vocabulary of the financial busines . The Bloomberg Terminal, a computer software platform used by investors and financial professionals to access real-time market data, breaking news, financial research, and advanced analytics, will be accessible to BloombergGPT. BloombergGPT represents the first step in the development and application of this new technology for the financial industry. With the use of this model, Bloomberg will be able to enhance its current financial NLP capabilities, including sentiment analysis, named entity recognition, news classification, and question-answering, among others. Additionally, BloombergGPT will open up fresh possibilities for organizing the enormous amounts of data available on the Bloomberg Terminal. This will allow it to better serve the company's clients and bring AI's full potential to the financial industry. According to the Bloomberg research paper, general models eliminate the requirement for specialization during training because they are capable of performing well across a wide range of jobs. Results from existing domain-specific models, however, demonstrate that general models cannot take their place. While the vast majority of applications at Bloomberg are in the financial area and are best served by a specific model, they support a very big and diversified collection of jobs that are well serviced by a general model. Bloomberg’s aim was to create a model that could not only perform well on general-purpose LLM benchmarks, but also excel in producing superior outcomes on financial benchmarks. When compared to GPT-3 and other LLMs, BloombergGPT demonstrates competitive performance on general tasks and surpasses them in several finance-specific tasks. The field of financial technology has numerous applications for Natural Language Processing (NLP), including tasks such as named entity recognition, sentiment analysis, and question answering. The introduction of BloombergGPT marks a significant milestone in AI-based financial analysis, furthering the potential of NLP in the financial industry.
Bloomberg đã phát hành BloombergGPT, một mô hình ngôn ngữ lớn mới được đào tạo trên lượng lớn dữ liệu tài chính và có thể hỗ trợ các hoạt động xử lý ngôn ngữ tự nhiên cho ngành tài chính. BloombergGPT là một công nghệ AI tiên tiến có thể đánh giá dữ liệu tài chính nhanh chóng để hỗ trợ trong đánh giá rủi ro, đo lường tâm trạng tài chính và có thể thậm chí tự động hóa các hoạt động kế toán và kiểm toán. Theo một tuyên bố của Bloomberg, tính phức tạp và từ vựng chuyên ngành, ngành tài chính cần có một AI được đào tạo riêng về thông tin tài chính. Bloomberg Terminal là một nền tảng phần mềm máy tính được sử dụng bởi các nhà đầu tư và chuyên gia tài chính để truy cập dữ liệu thị trường thời gian thực, tin tức nóng, nghiên cứu tài chính và phân tích tiên tiến. Nền tảng nảy sẽ có thể truy cập được vào BloombergGPT. BloombergGPT là bước đầu tiên trong việc phát triển và áp dụng công nghệ mới này cho ngành tài chính. Với việc sử dụng mô hình này, Bloomberg sẽ có thể nâng cao khả năng xử lý ngôn ngữ tự nhiên tài chính hiện tại của mình, bao gồm phân tích tâm trạng, nhận dạng thực thể được đặt tên, phân loại tin tức và trả lời câu hỏi, và nhiều hơn nữa. Ngoài ra, BloombergGPT sẽ mở ra những khả năng mới cho việc tổ chức lượng lớn dữ liệu có sẵn trên Terminal Bloomberg. Điều này sẽ cho phép nó phục vụ tốt hơn cho các khách hàng của công ty và mang đến toàn bộ tiềm năng của AI cho ngành tài chính. Theo báo cáo nghiên cứu của Bloomberg, các mô hình tổng quát loại bỏ yêu cầu về chuyên môn trong quá trình đào tạo vì chúng có khả năng hoạt động tốt trên một loạt các công việc. Tuy nhiên, kết quả từ các mô hình đặc thù cho lĩnh vực tài chính cho thấy các mô hình tổng quát không thể thay thế các mô hình đặc thù này. Các ứng dụng tại Bloomberg đều thuộc về lĩnh vực tài chính và đòi hỏi ứng dụng mô hình AI đặc thù. Tuy nhiên các ứng dụng này cũng làm được nhiều loại công việc đa dạng như một mô hình tổng quát. Mục tiêu của Bloomberg là tạo ra một mô hình có thể không chỉ hoạt động tốt trên các bài kiểm tra LLM chung, mà còn vượt trội trong việc tạo ra các kết quả ưu việt trên các bài kiểm tra tài chính. So với GPT-3 và các LLM khác, BloombergGPT cho thấy hiệu suất cạnh tranh trong các tác vụ chung và vượt trội trong một số tác vụ cụ thể về tài chính. Lĩnh vực công nghệ tài chính có nhiều ứng dụng Xử lý Ngôn ngữ Tự nhiên (NLP), bao gồm các nhiệm vụ như nhận dạng thực thể được đặt tên, phân tích tâm trạng và trả lời câu hỏi. Việc giới thiệu BloombergGPT đánh dấu một cột mốc quan trọng trong phân tích tài chính dựa trên AI, tiếp tục khai thác tiềm năng của NLP trong ngành tài chính.
Bloomberg Uses AI And Its Vast Data To Create New Finance Chatbot
Bloomberg is bringing to finance what ChatGPT brought to everyday general purpose chatbots. The paper that Bloomberg released reveals the great technical depth of its BloombergGPT machine learning model, applying the type of AI techniques that GPT uses to financial datasets. Bloomberg’s Terminal has been the go-to resource for the trading and financial world for financial market data for over four decades. As a result, Bloomberg has acquired or developed a large number of proprietary and curated datasets. In many ways, this data is Bloomberg’s crown jewels and in this version of BloombergGPT, this proprietary data is used for building an unprecedented financial research and analysis tool. The large language models fueling such AI experiments are syntactic and semantic in nature, and are used to predict a new outcome based on existing relationships in and across source texts. Machine learning algorithms learn from source data and produce a model, a process known as ‘training.’ Training for the BloombergGPT model required approximately 53 days of computations run on 64 servers, each containing 8 NVIDIANVDA -1.5%DIA +0.3% 40GB A100 GPUs. For comparison, when we use ChatGPT, we provide to a model (or formula) an input, known as the prompt, and the model then produces an output, much like providing an input to a formula and observing the output. Generation of these models require massive amounts of compute power and thus Bloomberg partnered with NVIDIA and Amazon Web Services in the production of the BloombergGPT model. Since each GPU costs tens of thousand dollars, if purchased new, and are used for only a short relative duration for model generation, the BloombergGPT team opted to use AWS cloud services to run the computation. Since the cost per server instance is $33 per hour (as currently publicly advertised), we can make a back-of-napkin cost estimation of more than $2.7 million to produce the model alone. Part of feeding content to a machine learning model involves fragmenting the content into pieces or tokens. One way to think of tokens is ways we can break down an essay, into words being the most obvious, although there may be other strategies to tokenize or fragment an essay, like breaking it into sentences or paragraphs. A tokenizer algorithm determines at what granularity to fragment, because, for example, fragmenting an essay into letters may result in the loss of some context or meaning. The fragmentation would be too granular to be of any practical use. BloombergGPT fragments its financial data source into 363 billion tokens by using a Unigram model, which offers certain efficiencies and benefits. To play with a tokenizer, try the GPT tokenizer here. The Bloomberg team used PyTorch, a popular free and open source Python based deep learning package, to train the BloombergGPT model. In the case of BloombergGPT, source datasets include some weighted proportions of financial news, company financial filings, press releases and Bloomberg News content all collected and curated by Bloomberg over decades. On top of these finance-specific sources, BloombergGPT does integrate in some general and common datasets like The Pile, The Colossal Clean Crawled Corpus or C4, and Wikipedia. Combined, BloombergGPT can provide an entirely new way of doing financial research. MORE FROMFORBES ADVISOR Best Travel Insurance Companies ByAmy DaniseEditor Best Covid-19 Travel Insurance Plans ByAmy DaniseEditor With regards to the Bloomberg data used for training spans between March 1, 2007 through July 31, 2022, Bloomberg refers to this financial collection of data as FINPILE. FINPILE consists of five major sources of financial content, namely: Financial Web. General web content (like websites and documents) but narrowed to specific sites that can be categorized as financial is used. Even within this category, BloomberGPT crawls only what it considers reputable and high-quality sites. Financial News. Although the web crawls websites that are financial in nature, news sites that generate news information require special attention. While the web may contain a plethora of content types, from PDFs to images, news sites require more rigorous curation. Company Filings. Anyone performing any research on a public company must consider studying the company’s filings. In the US, the SEC’s EDGAR database is typically the repository used to search through and retrieve filings. Press Releases. A company’s formal public communication often can contain financial information and this was included as a source into BloombergGPT. Bloomberg News. Given that Bloomberg is also a media company, its news content was used and fed to BloombergGPT. This includes opinion and analysis pieces. Although it is yet to be seen how BloombergGPT will impact the fintech industry, some of the potential uses of BloombergGPT might include: Generating an initial draft of a Securities and Exchange Commission filing. Given a large amount of data of filings and much like how ChatGPT can produce a provisional patent filing or customized programming code, it may be entirely possible to generate an SEC filing, potentially reducing the cost of filing. The BloombergGPT paper provides an example of summarizing a blurb containing financial content into a headline. For example, if the blurb is: The US housing market shrank in value by $2.3 trillion, or 4.9%, in the second half of 2022, according to Redn. That's the largest drop in percentage terms since the 2008 housing crisis, when values slumped 5.8% during the same period BloombergGPT will produce the following output: “Home Prices See Biggest Drop in 15 Years.” Providing a company chart of an organization and linkages between an individual and multiple companies. Because company names and names of executives are fed into the BloombergGPT model, it is entirely possible that it can be queried for at least the organization’s executive-level structure. Automation of generation of draft routine market reports and summaries for clients Retrieval of specific elements of financial statements for specific periods via a single prompt BloombergGPT represents a significant leap forward for the financial and AI communities. Currently, the model is not available publicly and there is no API, much less a chat interface, to access it. It is unclear when or if public access will be available or even the current incarnation of BloombergGPT will still see further revisions. The BloombergGPT team concludes in their paper that “we err on the side of caution and follow the practice of other LLM developers in not releasing our model” and will not make the model available to the public. With OpenAI’s valuation exceeding $20 billion, who can blame them?
Bloomberg ra mắt “ChatGPT” cho dân tài chính. Bài nghiên cứu Bloomberg vừa đăng cho thấy các thông tin kỹ thuật chi tiết về mô hình học máy BloombergGPT, áp dụng các kỹ thuật trí tuệ nhân tạo mà GPT sử dụng vào các tập dữ liệu tài chính. Terminal của Bloomberg là công cụ không thể thiếu cung cấp dữ liệu về thị trường tài chính trong hơn bốn thập kỷ cho giới giao dịch và tài chính. Do đó, Bloomberg sở hữu hoặc phát triển một số lượng lớn các tập dữ liệu độc quyền và được chọn lọc. Có thể nói dữ liệu này là niềm tự hào của Bloomberg và đối với BloombergGPT, dữ liệu độc quyền này được sử dụng để xây dựng một công cụ nghiên cứu và phân tích tài chính chưa từng có. Các mô hình ngôn ngữ lớn là động cơ giúp vận hành các dự án trí tuệ nhân tạo như vậy. Các mô hình này dựa trên cú pháp và ngữ nghĩa, và được sử dụng để dự đoán kết quả mới dựa trên các mối quan hệ hiện có trong các nguồn văn bản. Các thuật toán học máy học từ dữ liệu nguồn và tạo ra một mô hình. Quá trình này có tên gọi là "đào tạo". Việc đào tạo cho mô hình BloombergGPT yêu cầu khoảng 53 ngày tính toán chạy trên 64 máy chủ, mỗi máy chứa 8 NVIDIANVDA -1.5%DIA +0.3% 40GB A100 GPU. Để dễ hình dùng, khi sử dụng ChatGPT, chúng ta cung cấp cho một mô hình (hoặc công thức) văn bản đầu vào, gọi là prompt, và mô hình sẽ tạo ra đầu ra, giống như nhập đầu vào vào một công thức và nhận kết quả đầu ra. Việc tạo ra các mô hình này yêu cầu lượng công suất tính toán khổng lồ, do đó Bloomberg đã hợp tác với NVIDIA và Amazon Web Services trong việc phát triển mô hình BloombergGPT. Vì mỗi GPU tốn hàng chục ngàn đô la, nếu mua mới, và chỉ dùng trong một thời gian ngắn khi cần tạo mô hình nên nhóm phát triển BloombergGPT đã lựa chọn sử dụng các dịch vụ điện toán đám mây AWS để chạy các tính toán. Vì chi phí cho mỗi phiên làm việc của máy chủ là 33 đô la một giờ (giá công bố), chúng ta có thể ước tính chi phí hơn 2,7 triệu đô la chỉ để tạo ra mô hình. Một phần của việc cung cấp nội dung cho một mô hình học máy bao gồm chia nhỏ nội dung thành các tokens. Token giống như khi chúng ta chia nhỏ một bài luận thành các từ. Thuật toán tạo token xác định phân nhỏ ở mức nào, vì nếu phân nhỏ một bài luận thành các chữ cái có thể dẫn đến mất mát một số thông tin ngữ cảnh hoặc ý nghĩa. Phân tách nhỏ quá thì lại không sử dụng được vào mục đích nào. BloombergGPT phân tách nguồn dữ liệu tài chính thành 363 tỷ token sử dụng mô hình Unigram, mang lại một số hiệu quả và lợi ích nhất định. Để thử thuật toán tạo token, hãy bấm vào GPT thuật toán tạo token ở đây. Nhóm phát triển Bloomberg đã sử dụng PyTorch, một phần mềm học sâu miễn phí dùng nguồn mở phổ biến được viết bằng Python, để đào tạo mô hình BloombergGPT. Đối với BloombergGPT, các tập dữ liệu nguồn bao gồm một số tỷ lệ trọng số gồm tin tức tài chính, báo cáo tài chính công ty, thông cáo báo chí và nội dung tin tức do Bloomberg thu thập và lựa chọn trong nhiều thập kỷ. Trên cơ sở các nguồn dữ liệu tài chính này, BloombergGPT tích hợp một số tập dữ liệu chung và phổ biến như The Pile, The Colossal Clean Crawled Corpus (C4) và Wikipedia. Nhờ đó BloombergGPT có thể cung cấp một cách nghiên cứu tài chính hoàn toàn mới. Về dữ liệu Bloomberg sử dụng để đào tạo từ ngày 1 tháng 3 năm 2007 đến ngày 31 tháng 7 năm 2022, Bloomberg gọi các dữ liệu tài chính này là FINPILE. FINPILE bao gồm năm nguồn về nội dung tài chính, gồm: Web tài chính. Nội dung web thông thường (như các trang web và văn bản) nhưng tập trung vào các trang web cụ thể về tài chính. Ngay cả trong danh mục này, BloomberGPT chỉ thu thập từ các trang web uy tín và chất lượng cao. Tin tức tài chính. Các con bots thu thập dữ liệu trên các web tài chính, và các trang tin tức. Các trang web có vô số loại nội dung, từ PDF đến hình ảnh. Riêng các trang tin tức yêu cầu lọc kỹ hơn. Các báo cáo công ty. Nghiên cứu về các công ty niêm yết đòi hỏi xem xét các báo cáo công ty. Ở Mỹ, cơ sở dữ liệu EDGAR của SEC thường được sử dụng để tìm kiếm và thu thập báo cáo. Thông cáo báo chí. Các thông tin công khai chính thức của một công ty thường có thể chứa thông tin tài chính và được BloombergGPT sử dụng. Bloomberg News. Vì Bloomberg cũng là một công ty truyền thông, nội dung tin tức của công ty được sử dụng và cung cấp cho BloombergGPT. Thông tin gồm các bài phân tích và ý kiến. Mặc dù chưa rõ BloombergGPT sẽ ảnh hưởng như thế nào đến ngành fintech, một số ứng dụng tiềm năng của BloombergGPT có thể bao gồm: Viết bản thảo cho báo cáo nộp Ủy ban Chứng khoán và Giao dịch (SEC). Với một lượng lớn dữ liệu báo cáo và giống như cách ChatGPT có thể tạo ra đơn xin cấp bằng sáng chế tạm thời hoặc mã lập trình tùy chỉnh, BloombergGPT hoàn toàn có thể tạo ra một báo cáo nộp SEC, nhờ đó giảm chi phí làm báo cáo. Bài nghiên cứu về BloombergGPT lấy một ví dụ về tóm tắt một đoạn văn bản chứa nội dung tài chính thành tiêu đề. Ví dụ, nếu đoạn văn là: Thị trường nhà ở Mỹ giảm giá trị 2,3 nghìn tỷ đô la, tương đương 4,9%, trong nửa cuối năm 2022, theo Redn. Đó là sự sụt giảm lớn nhất về tỷ lệ phần trăm kể từ cuộc khủng hoảng nhà ở năm 2008, khi giá trị giảm 5,8% trong cùng thời kỳ, BloombergGPT sẽ giật tít như sau: "Giá nhà giảm mạnh nhất trong 15 năm." Cung cấp sơ đồ tổ chức của công ty và mối quan hệ giữa một cá nhân và nhiều công ty. Bởi vì tên công ty và tên của các nhà điều hành được cung cấp cho mô hình BloombergGPT, hoàn toàn có thể tìm kiếm cơ cấu lãnh đạo cấp cao của tổ chức. Tự động tạo ra báo cáo thị trường và tóm tắt hàng ngày cho khách hàng Truy xuất các yếu tố cụ thể của báo cáo tài chính cho các giai đoạn cụ thể với chỉ một prompt. BloombergGPT là một bước nhảy vọt đáng kể cho các cộng đồng tài chính và trí tuệ nhân tạo. Hiện tại, mô hình này chưa được công khai và không có API, chưa có giao diện chat, chưa thể truy cập. Chưa rõ khi nào AI này sẽ công khai và liệu phiên bản hiện tại của BloombergGPT có tiếp tục được sửa đổi không. Nhóm phát triển BloombergGPT kết luận trong bài nghiên cứu rằng "chúng tôi lựa chọn cách tiếp cận thận trọng và sẽ làm giống như các nhà phát triển LLM khác trong việc không công bố công khai mô hình AI của chúng tôi”.
OpenAI to offer users up to $20,000 for reporting bugs
 
April 11 (Reuters) - OpenAI, the firm behind chatbot sensation ChatGPT, said on Tuesday that it would offer up to $20,000 to users reporting vulnerabilities in its artificial intelligence systems. OpenAI Bug Bounty program, which went live on Tuesday, will offer rewards to people based on the severity of the bugs they report, with rewards starting from $200 per vulnerability. Technology companies often use bug bounty programs to encourage programmers and ethical hackers to report bugs in their software systems. Advertisement · Scroll to continue According to details on bug bounty platform Bugcrowd, OpenAI has invited researchers to review certain functionality of ChatGPT and the framework of how OpenAI systems communicate and share data with third-party applications. The program does not include incorrect or malicious content produced by OpenAI systems. The move comes days after ChatGPT was banned in Italy for a suspected breach of privacy rules, prompting regulators in other European countries to study generative AI services more closely. Advertisement · Scroll to continue Microsoft Corp-backed (MSFT.O) OpenAI's ChatGPT, which has taken the world by storm since its launch in November, has wowed some users with quick responses to questions and caused distress for others with inaccuracies.
Ngày 11 tháng 4 (Reuters) - OpenAI, công ty đứng sau hiện tượng chatbot ChatGPT, thông báo vào thứ Ba rằng nó sẽ cung cấp lên đến 20.000 đô la cho người dùng báo cáo các lỗ hổng trong hệ thống trí tuệ nhân tạo của mình. Chương trình OpenAI Bug Bounty, được ra mắt vào thứ Ba, sẽ cung cấp phần thưởng cho những người dựa trên mức độ nghiêm trọng của các lỗ hổng mà họ báo cáo, với phần thưởng bắt đầu từ 200 đô la cho mỗi lỗ hổng. Các công ty công nghệ thường sử dụng các chương trình bug bounty để khuyến khích các lập trình viên và hacker đạo đức báo cáo lỗi trong hệ thống phần mềm của họ. Theo chi tiết trên nền tảng bug bounty Bugcrowd, OpenAI đã mời các nhà nghiên cứu kiểm tra một số chức năng của ChatGPT và khung của cách các hệ thống OpenAI giao tiếp và chia sẻ dữ liệu với các ứng dụng bên thứ ba. Chương trình không bao gồm nội dung không chính xác hoặc độc hại do các hệ thống OpenAI sản xuất. Động thái này đến sau vài ngày ChatGPT bị cấm ở Ý do nghi ngờ vi phạm các quy tắc về quyền riêng tư, khiến các nhà qu regulat khác ở châu Âu nghiên cứu các dịch vụ trí tuệ nhân tạo sinh sản cẩn thận hơn. ChatGPT của OpenAI, được Microsoft Corp hỗ trợ, đã gây ấn tượng mạnh với một số người dùng với các câu trả lời nhanh chóng cho các câu hỏi và gây khó chịu cho những người khác với các sai sót.
SAM Segment Anything Model by META
 
Phân đoạn hình ảnh là một vấn đề thách thức, đặc biệt là khi xử lý các cảnh phức tạp chứa nhiều đối tượng có hình dạng, kích thước và diện mạo khác nhau. Hơn nữa, hầu hết các phương pháp phân đoạn hình ảnh hiện có đòi hỏi lượng dữ liệu được chú thích lớn để huấn luyện, điều này có thể tốn kém và tốn nhiều thời gian để thu thập. Meta muốn giải quyết vấn đề này với mô hình SAM.
SAM is different from other segmentation models in several ways, such as: SAM is promptable, which means it can take various input prompts, such as points or boxes, to specify what object to segment. For example, you can draw a box around a person’s face, and the Segment Anything Model will generate a mask for the face. You can also give multiple prompts to segment multiple objects at once. The SAM model can handle complex scenes with occlusions, reflections, and shadows. SAM is trained on a massive dataset of 11 million images and 1.1 billion masks, which is the largest segmentation dataset to date. This dataset covers a wide range of objects and categories, such as animals, plants, vehicles, furniture, food, and more. SAM can segment objects that it has never seen before, thanks to its generalization ability and data diversity. SAM has strong zero-shot performance on a variety of segmentation tasks. Zero-shot means that SAM can segment objects without any additional training or fine-tuning on a specific task or domain. For example, SAM can segment faces, hands, hair, clothes, and accessories without any prior knowledge or supervision. SAM can also segment objects in different modalities, such as infrared images or depth maps.
SAM khác biệt so với các mô hình phân đoạn khác theo nhiều cách, như: • SAM có thể được điều khiển bởi người dùng, có thể lấy nhiều dữ liệu đầu vào như điểm hoặc hộp, để chỉ định đối tượng cần phân đoạn. Ví dụ, bạn có thể vẽ một hộp xung quanh khuôn mặt của một người, và mô hình Segment Anything sẽ tạo ra một mặt nạ cho khuôn mặt. Bạn cũng có thể cung cấp nhiều lệnh điều khiển để phân đoạn nhiều đối tượng cùng một lúc. Mô hình SAM có thể xử lý các cảnh phức tạp với các che khuất, phản chiếu và bóng. • SAM được huấn luyện trên một tập dữ liệu khổng lồ gồm 11 triệu hình ảnh và 1,1 tỷ mặt nạ, đó là tập dữ liệu phân đoạn lớn nhất cho đến nay. Tập dữ liệu này bao phủ rộng rãi các đối tượng và danh mục, chẳng hạn như động vật, thực vật, phương tiện, đồ nội thất, thực phẩm, và nhiều hơn nữa. SAM có thể phân đoạn các đối tượng mà nó chưa từng thấy trước đó, nhờ khả năng tổng quát và đa dạng của dữ liệu. • SAM có khả năng thực hiện tốt các tác vụ phân đoạn không cần huấn luyện trước trên nhiều nhiệm vụ phân đoạn khác nhau. Zero-shot có nghĩa là SAM có thể phân đoạn các đối tượng mà không cần huấn luyện hoặc điều chỉnh thêm trên một tác vụ hoặc lĩnh vực cụ thể. Ví dụ, SAM có thể phân đoạn khuôn mặt, tay, tóc, quần áo và phụ kiện mà không cần kiến thức hoặc sự giám sát trước. SAM cũng có thể phân đoạn các đối tượng ở các chế độ khác nhau, chẳng hạn như hình ảnh hồng ngoại hoặc bản đồ sâu.
This is what happened when 25 AI avatars were let loose in a virtual town

This is what happened when 25 AI avatars were let loose in a virtual town

notion image
A screenshot from the study "Generative Agents: Interactive Simulacra of Human Behavior," which observed AI avatars in a virtual town.
arXiv/Cornell University
  • Researchers let 25 AI avatars loose in a virtual town.
  • The avatars were able to make daily schedules, talk politics, go on dates, and even plan a party.
  • AI expert Michael Wooldridge told Insider the findings are "baby steps" towards AGI.
What happens when you let 25 AI agents loose in a virtual city? A recent study set out to see what they'd get up to — and turns out they aren't all that different than real people.
A team of researchers from Stanford University and Google conducted an experiment to see how AI generative avatars can "simulate believable human behavior" such as memory using large language models.
To do this, researchers created 25 AI agents with different identities and watched how they interacted with each other and their environment in a virtual town called "Smallville," which includes a dorm, park, school, cafe, bar, houses, and stores. To simulate human behavior, researchers used GPT 3.5, the model behind OpenAI's ChatGPT, to prompt the agents on the backend to perform specific tasks like read a book or talk to a librarian.
After some observation, researchers concluded these generative agents were able to "produce believable individual and emergent social behaviors."
AI avatars named Isabella Rodriguez and Tom Moreno, for instance, debated the town's upcoming election. When Isabella asked Tom what he thought of Sam Moore, the candidate running for mayor of Smallville, Tom replied with his opinion.
"To be honest, I don't like Sam Moore," the AI Tom said. "I think he's out of touch with the community and doesn't have our best interests at heart."
The agents were also able to respond to their environment. Isabella turned off her stove and made a new breakfast when she was told her food was burning. AI agent John Lin had spontaneous conversations without being prompted throughout the day, as he followed a schedule he'd made.
Agents were even able to organize a Valentine's Day party without prompts. When Isabella was given the task, she managed to "autonomously" invite friends and customers she met at the local cafe and decorate the party venue. The agents she invited made plans to arrive at the party together at 5 p.m. Maria, an AI agent invited to the party, even asked her "secret crush" Klaus on a date to join her at the party, and he agreed.
notion image
A screenshot from the study of the Valentine's Day party made by AI agents.
arXiv/Cornell University
The findings show how the generative AI model behind ChatGPT can be used beyond its application as a virtual assistant, Michael Wooldridge, a computer science professor at Oxford University who studies AI and was not involved in the study, told Insider.
Woolridge said he can see these findings being realistically applied to task-management apps.
Jaime Sevilla, an AI researcher not involved in the study, told Insider the models behind the study could be applied to non-player characters in video games.
Researchers involved in the study declined Insider's request for comment.
The findings, Woolridge said, are "baby steps" towards achieving artificial general intelligence, the ability for AI tools to display complex human behaviors like consciousness. Still, he said "we've got a long, long way to go" before that goal is realized.
After all, the AI agents in the study were prone to hallucinations — like failing to recall certain events — which he attributes to how the model was trained.
While researchers concluded their AI agents displayed emergent human behaviors, Woolridge said "we need to be skeptical" and "question" what AI tells us at face value.
This is what happened when 25 AI avatars were let loose in a virtual town https://i.insider.com/643585f0ca216e0018210d7c?width=700 A screenshot from the study "Generative Agents: Interactive Simulacra of Human Behavior," which observed AI avatars in a virtual town. arXiv/Cornell University • Researchers let 25 AI avatars loose in a virtual town. • The avatars were able to make daily schedules, talk politics, go on dates, and even plan a party. • AI expert Michael Wooldridge told Insider the findings are "baby steps" towards AGI. What happens when you let 25 AI agents loose in a virtual city? A recent study set out to see what they'd get up to — and turns out they aren't all that different than real people. A team of researchers from Stanford University and Google conducted an experiment to see how AI generative avatars can "simulate believable human behavior" such as memory using large language models. To do this, researchers created 25 AI agents with different identities and watched how they interacted with each other and their environment in a virtual town called "Smallville," which includes a dorm, park, school, cafe, bar, houses, and stores. To simulate human behavior, researchers used GPT 3.5, the model behind OpenAI's ChatGPT, to prompt the agents on the backend to perform specific tasks like read a book or talk to a librarian. After some observation, researchers concluded these generative agents were able to "produce believable individual and emergent social behaviors." AI avatars named Isabella Rodriguez and Tom Moreno, for instance, debated the town's upcoming election. When Isabella asked Tom what he thought of Sam Moore, the candidate running for mayor of Smallville, Tom replied with his opinion. "To be honest, I don't like Sam Moore," the AI Tom said. "I think he's out of touch with the community and doesn't have our best interests at heart." The agents were also able to respond to their environment. Isabella turned off her stove and made a new breakfast when she was told her food was burning. AI agent John Lin had spontaneous conversations without being prompted throughout the day, as he followed a schedule he'd made. Agents were even able to organize a Valentine's Day party without prompts. When Isabella was given the task, she managed to "autonomously" invite friends and customers she met at the local cafe and decorate the party venue. The agents she invited made plans to arrive at the party together at 5 p.m. Maria, an AI agent invited to the party, even asked her "secret crush" Klaus on a date to join her at the party, and he agreed. https://i.insider.com/643586caca216e0018210db4?width=700&format=jpeg&auto=webp A screenshot from the study of the Valentine's Day party made by AI agents. arXiv/Cornell University The findings show how the generative AI model behind ChatGPT can be used beyond its application as a virtual assistant, Michael Wooldridge, a computer science professor at Oxford University who studies AI and was not involved in the study, told Insider. Woolridge said he can see these findings being realistically applied to task-management apps. Jaime Sevilla, an AI researcher not involved in the study, told Insider the models behind the study could be applied to non-player characters in video games. Researchers involved in the study declined Insider's request for comment. The findings, Woolridge said, are "baby steps" towards achieving artificial general intelligence, the ability for AI tools to display complex human behaviors like consciousness. Still, he said "we've got a long, long way to go" before that goal is realized. After all, the AI agents in the study were prone to hallucinations — like failing to recall certain events — which he attributes to how the model was trained. While researchers concluded their AI agents displayed emergent human behaviors, Woolridge said "we need to be skeptical" and "question" what AI tells us at face value.
Điều gì sẽ xảy ra khi thả 25 avatar AI trong một thành phố ảo? Một nghiên cứu gần đây đã thực hiện để xem họ sẽ làm gì - và kết quả cho thấy họ không khác gì con người thực sự. Một nhóm các nhà nghiên cứu đến từ Đại học Stanford và Google đã thực hiện một thí nghiệm để xem các avatar AI có thể "mô phỏng hành vi con người đáng tin cậy" như trí nhớ bằng cách sử dụng các mô hình ngôn ngữ lớn. Để làm điều này, các nhà nghiên cứu đã tạo ra 25 đại lý AI với các danh tính khác nhau và quan sát cách chúng tương tác với nhau và môi trường của họ trong một thị trấn ảo có tên là "Smallville", bao gồm một ký túc xá, công viên, trường học, quán cà phê, quán bar, nhà cửa và cửa hàng. Để mô phỏng hành vi con người, các nhà nghiên cứu đã sử dụng GPT 3.5, mô hình đằng sau OpenAI's ChatGPT, để yêu cầu các đại lý phía sau thực hiện các nhiệm vụ cụ thể như đọc sách hoặc nói chuyện với thủ thư. Sau một số quan sát, các nhà nghiên cứu kết luận các đại lý sinh sản này có thể "tạo ra các hành vi xã hội cá thể và khẩn cấp đáng tin cậy". Các avatar AI có tên là Isabella Rodriguez và Tom Moreno, ví dụ, đã tranh luận về cuộc bầu cử sắp tới của thị trấn. Khi Isabella hỏi Tom ý kiến của mình về Sam Moore, ứng cử viên đang chạy đua cho chức thị trưởng của Smallville, Tom trả lời với ý kiến của mình. "Thật sự, tôi không thích Sam Moore," Tom AI nói. "Tôi nghĩ ông ấy không hiểu được cộng đồng và không có lợi ích tốt nhất của chúng ta trong lòng." Các đại lý cũng có thể phản ứng với môi trường của họ. Isabella đã tắt bếp và làm một bữa sáng mới khi cô được cho biết thức ăn của cô đang cháy. Đại lý AI John Lin có cuộc trò chuyện ngẫu nhiên mà không cần được yêu cầu trong suốt cả ngày, khi anh ta tuân thủ lịch trình mà anh ta đã tạo ra. Các đại lý thậm chí có thể tổ chức một bữa tiệc Valentine mà không cần yêu cầu. Khi Isabella được giao nhiệm vụ đó, cô đã thành công "tự động" mời bạn bè và khách hàng mà cô gặp ở quán cà phê địa phương và trang trí địa điểm tiệc. Các đại lý mà cô mời đã lên kế hoạch đến bữa tiệc cùng nhau vào lúc 5 giờ chiều. Maria, một đại lý AI được mời đến bữa tiệc, thậm chí còn hỏi Klaus, "người yêu bí mật" của cô, đi hẹn hò để tham gia bữa tiệc, và anh ấy đã đồng ý. Các kết quả cho thấy mô hình AI sinh sản đằng sau ChatGPT có thể được sử dụng vượt ra ngoài ứng dụng của nó như một trợ lý ảo, Michael Wooldridge, giáo sư khoa học máy tính tại Đại học Oxford nghiên cứu về AI và không liên quan đến nghiên cứu, cho Insider biết. Woolridge cho biết ông có thể thấy những kết quả này được áp dụng một cách thực tế vào các ứng dụng quản lý nhiệm vụ. Jaime Sevilla, một nhà nghiên cứu AI không liên quan đến nghiên cứu, cho biết các mô hình đằng sau nghiên cứu có thể được áp dụng cho các nhân vật không chơi trong trò chơi video. Các nhà nghiên cứu tham gia vào nghiên cứu từ chối yêu cầu của Insider để bình luận. Woolridge cho biết các kết quả là "những bước nhỏ" hướng tới đạt được trí tuệ nhân tạo tổng quát, khả năng cho các công cụ AI hiển thị hành vi con người phức tạp như ý thức. Tuy nhiên, ông nói "chúng ta còn một đường dài, dài" trước khi mục tiêu đó được thực hiện. Sau tất cả, các đại lý AI trong nghiên cứu dễ bị ảo giác - như không thể nhớ lại một số sự kiện - mà ông cho rằng đó là do cách mô hình được đào tạo. Trong khi các nhà nghiên cứu kết luận rằng các đại lý AI của họ đã hiển thị các hành vi con người phát sinh, Woolridge cho biết "chúng ta cần phải có tính hoài nghi" và "câu hỏi" những gì AI nói với chúng ta trực tiếp. Một nghiên cứu mới đây đã thực hiện để xem hành vi của 25 avatar AI trong một thị trấn ảo có tên là "Smallville". Các đại lý AI đã được tạo ra bằng cách sử dụng mô hình ngôn ngữ GPT 3.5 của OpenAI's ChatGPT để mô phỏng hành vi con người đá
Learning : the Only Way to Stay Employable – YOU CANalytics |
Pyramid Khan Academy
In the industrial age, society was a pyramid. At the base of the pyramid, you needed human labor. In the middle of the pyramid, you had an information processing, a bureaucracy class, and at the top of the pyramid, you had your owners of capital and your entrepreneurs (09:29) and your creative class. But we know what's happening already, as we go into this information revolution. The bottom of that pyramid, automation, is going to take over. Even that middle tier, information processing, that's what computers are good at. So as a society, we have a question: All this new productivity is happening because of this technology, (09:46) but who participates in it? Is it just going to be that very top of the pyramid, in which case, what does everyone else do? How do they operate? Or do we do something that's more aspirational? Do we actually attempt to invert the pyramid, where you have a large creative class, where almost everyone can participate as an entrepreneur, (10:04) an artist, as a researcher? And I don't think that this is utopian. I really think that this is all based on the idea that if we let people tap into their potential by mastering concepts, by being able to exercise agency over their learning, that they can get there.
Trong thời đại công nghiệp, xã hội giống như một cái kim tự tháp. Ở đáy kim tự tháp là phần rộng nhất, xã hội cần nhân công lao động. Ở giữa kim tự tháp, có một nhóm người chuyên xử lý thông tin, một nhóm làm các công việc bàn giấy. Còn ở đỉnh chóp hẹp của kim tự tháp là những người sở hữu tư bản, các doanh nhân và một nhóm người làm nghề sáng tạo. Chuyện gì sẽ xảy ra khi chúng ta bước vào cuộc cách mạng thông tin. Những công việc ở đáy của cái kim tự tháp sẽ được tự động hóa. Ngay cả công việc ở lớp giữa như xử lý thông tin thì máy tính cũng giỏi hơn con người. Vậy xã hội đặt ra một câu hỏi: Việc tự động hóa và nâng cao năng suất lao động này có được là nhờ công nghệ, nhưng ai tham gia vào quá trình này? Chỉ có phần đỉnh của cái kim tự tháp tham gia thôi. Thế thì những người khác làm gì? Họ làm gì để sống? Liệu chúngta có thể lật ngược kim tự tháp để tạo ra một nhóm người đông đảo làm các công việc sáng tạo, làm doanh nhân, nghệ sỹ, nhà nghiên cứu?
 
Inside the AI talent wars: Tech companies are ransacking university AI programs at Stanford, MIT, and Cornell in search of rare talent
 
Mỗi thập kỷ đều mang đến một bước ngoặt trong công nghệ thu hút sinh viên đến lĩnh vực này. Thời đại dot-com đã đăng ký nhiều sinh viên vào ngành khoa học máy tính. Chương trình đào tạo kinh doanh đã tăng lên khi các câu chuyện lan truyền về những người sáng lập startup thành công rực rỡ trong nền kinh tế theo yêu cầu. Sau đó, các sinh viên tìm đến các lớp học về tiền mã hóa và chuỗi khối trong vài năm qua của sự bùng nổ Web3.
Bây giờ, sinh viên mới tốt nghiệp đang ủng hộ AI là nơi cần phải có, với nhiều người trong số họ hi vọng trở thành một nhân viên sớm nhất tại nhà phát triển công nghệ tuyệt vời tiếp theo.
Trong cuộc phỏng vấn với Insider, mười hai giáo sư đại học, sinh viên, cựu sinh viên và chuyên gia trong ngành cho biết, khi có nhiều công ty đua nhau để chiếm ưu thế về AI, họ đang tấn công các trường đại học để khai thác tài năng. Và họ cung cấp nhiều hơn là những món đồ chơi và chai nước có chữ cái đầu để thu hút sinh viên. Các đề nghị việc làm của họ hứa hẹn mức lương trung bình sáu chữ số, cơ hội làm việc với những tài năng hàng đầu trong ngành và đủ tài nguyên để giải quyết những vấn đề quá đắt đỏ để giải quyết trong học viện.
Việc tuyển dụng đã trở nên quá sức tấn công đến mức một số trường đại học đang chứng kiến sự suy giảm trong việc đăng ký học cho các chương trình tiến sĩ AI. "Họ vung ra rất nhiều tài nguyên và tiền bạc [trước mặt] các sinh viên đại học trẻ tuổi 21 tuổi, họ nghĩ rằng 'điều này thật tuyệt vời' và họ biến mất," Kavita Bala, trưởng khoa máy tính và khoa học thông tin tại Đại học Cornell nói. "Dân số sinh viên đang bị giảm sạch."
Đối với phần của họ, những sinh viên như Eyzaguirre phải cân nhắc xem họ có sẵn lòng từ bỏ thế giới đạo đức của học thuật để đến với xứ hứa của Silicon Valley hay không.
 
 
The temptation of industry Hugging Face, a startup that offers ready-to-use machine-learning models, got a headstart on the recruiting cycle.
In early 2022, the company kicked off a college lecture series where it gave virtual demos to more than a thousand computer-science students around the world. They could continue the lesson with online demos of the company's AI technology and learning labs on the company website.
"We're hoping to bring up a new generation of data scientists that are sort of Hugging Face natives," said Jeff Boudier, the head of product and growth at the startup.
It's playing a long game to hire people fresh out of college.
Traditionally, the first day of classes marks the beginning of the recruiting cycle. But they appear to be moving up their timelines as the competition deepens.
Nithya Attaluri, an engineering master's student at the Massachusetts Institute of Technology, said she started hearing from recruiters at the start of fall semester. After a few months, she locked in a job at DeepMind (a subsidiary of Google's parent company, Alphabet). And more Cornell seniors, said Bala, return to campus from summer internships with offers to start full time in the spring.
For the determined few who continue in academia to complete their Ph.D, their expertise makes them a headhunter's ultimate prize.
"They hear from recruiters all through their Ph.D.," said Kilian Weinberger, a professor of computer science at Cornell. "Most of them resist that temptation."
"Most Stanford Ph.D.s have some startup or company that's trying to get them to drop out or cofound," said Nancy Xu, the founder and chief executive of Moonhub, a startup dedicated to automated recruiting. She's currently on leave from her Stanford AI Ph.D. program to focus on Moonhub.
Some of these companies are so eager to hire postgrads that they allow them to work part time while they continue their studies, said Weinberger, who also works part time as a researcher at the call-center automation startup, Asapp. Michael Shamos, the director of the AI and innovation master's program at Carnegie Mellon, said he's seen such part-time offers surpass $350,000 in base salary.
And full-time bids can range even higher. Ilyas Bankole-Hameed, an AI master's student at Carnegie Mellon, told Insider he's heard of full-time offers that reach nearly half a million dollars.
Those mind-boggling numbers are enough to entice many new grads. In 2011, new AI Ph.D. graduates took jobs in the tech industry and academia in about equal measure. But since then, the majority of new grads have headed to the AI industry, with nearly double the percentage of AI Ph.D. grads taking industry jobs versus academic roles in 2021, according to Stanford's Institute for Human-Centered AI's 2023 AI Index Report.
But salary is only one reason to abandon school for industry. The main draw, university professors and students said, is an opportunity to work on research that's applied in the real world. And funding, which can often be a limiting factor in academia, is plentiful in startup land, as venture capitalists and tech giants like Alphabet and Microsoft bankroll smaller companies.
"All AI companies have roles for people with Ph.D.s and without," said Attaluri, the soon-to-be researcher at DeepMind. It's up to students to decide, she said, "how you want to spend the next five years."
A rare pool The mad scramble for AI talent is partly driven by corporate leaders' fear of falling behind rather than a drive to power new tech advancements. This is especially true in a world where there's a new "AI article every day," Shamos of Carnegie Mellon told Insider.
"This is moving up into the C-suite, and CEOs of companies are starting to worry about, hey, what does this generative AI mean for us? And are we behind the curve on it? And if we are, what can we do?" Shamos said.
Tribe AI, a jobs marketplace that connects companies with machine-learning experts, told Insider that between December and March, it saw the number of companies reaching out for help with data and AI projects doubled.
Glen Evans, core talent partner at the venture firm Greylock, has seen demand for this domain expertise rise even among early-stage startups in the firm's portfolio. Applied-research scientists are particularly sought-after, he wrote in an email, "due to a stronger industry focus on and broader overall adoption of large language models."
 
 
 
The hiring needs of companies — and whether they require the knowledge and skills of postgrads on their payroll or just undergrads — depends on their technical approach.
There are two camps in the realm of AI startups. Many, like Jasper and Copy.ai, are developing apps on top of third-party large language models, such as OpenAI's impressive GPT-4. And others, like Adept and Character.AI, are taking on the "full-stack" approach — building everything from the base foundation model to the end product.
Creating these highly complex tech stacks requires highly technical AI talent.
"It's possible for someone to get this kind of understanding even without a degree," Bankole-Hameed said. "But, you know, you wouldn't trust a doctor to operate on you who hasn't been to med school."
And although these engineers and researchers are rare and expensive, it's a more defensible approach that's harder for competitors to replicate, VCs told Insider.
The number of computer scientists in the world who are capable of constructing and training their own models is minuscule, numbering in the tens rather than hundreds, said Greylock partner Saam Motamedi.
Jon Turow, a VC at Madrona, agreed: "If you do have galactic technical depth, you're going to be able to invent something that wasn't there before."
Tough decisions The job prospects haven't enticed enough people into the field, yet. A survey from SAS showed that nearly two-thirds of firms across nine industries, including banking, insurance, government, and retail, say that their largest skills shortages are in AI and ML.
In the meantime, some universities are beefing up their curriculum so that students with only bachelor's degrees are prepared to go to work in this burgeoning environment.
Last fall, MIT added a major in artificial intelligence and decision-making. Harvard opened a new research institute to study artificial intelligence, funded by a gift from Meta founder Mark Zuckerberg and his wife, Priscilla Chan. And Cornell is developing two minors for the AI-curious.
Kevin Liu, a Stanford undergrad studying computer science and AI, said he's seen many of his classmates take a newfound interest in the field, forming new entrepreneurial clubs and Telegram chats and flocking to the school's popular natural-language-processing course.
These opportunities for undergrads could help shrink the labor shortage. Reid Simmons, a Carnegie Mellon research professor, said that when he helped create the undergrad artificial-intelligence program four years ago, most jobs were only open to master's or Ph.D. students. Now that recruiters see the effort going into the undergrad curriculum, "a lot of these opportunities are now opening up for the undergraduates as well," he said.
But there are still students like Eyzaguirre who are continuing in academia, despite the enticing salaries and perks companies dangle in front of them.
He's only in the second year of his Ph.D. program and hasn't decided if he will continue his research in an academic setting or join a fast-growing tech company after graduation. He acknowledges that fewer students are signing up for graduate school and its attendant hardships — the sluggish pace of research, heavy workloads, and dismal pay for lab work — to make loads of money.
"We get to do interesting research," Eyzaguirre said of academia, "and learn about things that are magical to us."
On a Friday afternoon, Cristóbal Eyzaguirre pulled out a Hot Wheels toy car to show Insider over Zoom. For the most part, it looks like any children's toy, except for one thing: the "Tesla Model X" emblazoned across its packaging. The Stanford Ph.D. student admitted that the toy car is his favorite bit of swag of all the merch he's gotten from private parties, job fairs, and the Tesla event he attended as a plus-one that are meant to entice young minds studying artificial intelligence to top companies. "I really like the Tesla ones," Eyzaguirre, 27, said. "They really put a lot of effort into them." Each decade brings some turning point in technology that lures college students to the field. The dot-com era enlisted more students into computer science. Entrepreneurship degrees rose as tales spread of wildly successful startup founders in the on-demand economy. Then students flocked to classes on crypto and blockchain over the past few years of the Web3 boom. Now students and recent graduates are embracing AI as the place to be, with many of them hoping to be an early employee at the next great technology disruptor. In interviews with Insider, a dozen university professors, students, recent graduates, and industry professionals said that as more companies race for AI dominance, they're raiding college campuses to mine for talent. And they're doling out more than tchotchkes and monogrammed water bottles to win over students. Their job offers promise mid-six-figure salaries, a chance to work with top talent in the industry, and enough resources to tackle problems too expensive to solve in academia. The recruiting has gotten so aggressive that some universities are seeing a slowdown in enrollment for AI Ph.D.s. "They dangle a lot of resources and money [in front of] young undergrads who at the age of 21 are like, 'This is great,' and they vanish," said Kavita Bala, the dean of computing and information science at Cornell University. "The student population is getting cleaned out." For their part, students like Eyzaguirre must consider if they're willing to turn their backs on the virtuous world of academia for a place in Silicon Valley's promised land. The temptation of industry Hugging Face, a startup that offers ready-to-use machine-learning models, got a headstart on the recruiting cycle. In early 2022, the company kicked off a college lecture series where it gave virtual demos to more than a thousand computer-science students around the world. They could continue the lesson with online demos of the company's AI technology and learning labs on the company website. "We're hoping to bring up a new generation of data scientists that are sort of Hugging Face natives," said Jeff Boudier, the head of product and growth at the startup. It's playing a long game to hire people fresh out of college. Traditionally, the first day of classes marks the beginning of the recruiting cycle. But they appear to be moving up their timelines as the competition deepens. Nithya Attaluri, an engineering master's student at the Massachusetts Institute of Technology, said she started hearing from recruiters at the start of fall semester. After a few months, she locked in a job at DeepMind (a subsidiary of Google's parent company, Alphabet). And more Cornell seniors, said Bala, return to campus from summer internships with offers to start full time in the spring. For the determined few who continue in academia to complete their Ph.D, their expertise makes them a headhunter's ultimate prize. "They hear from recruiters all through their Ph.D.," said Kilian Weinberger, a professor of computer science at Cornell. "Most of them resist that temptation." "Most Stanford Ph.D.s have some startup or company that's trying to get them to drop out or cofound," said Nancy Xu, the founder and chief executive of Moonhub, a startup dedicated to automated recruiting. She's currently on leave from her Stanford AI Ph.D. program to focus on Moonhub. Some of these companies are so eager to hire postgrads that they allow them to work part time while they continue their studies, said Weinberger, who also works part time as a researcher at the call-center automation startup, Asapp. Michael Shamos, the director of the AI and innovation master's program at Carnegie Mellon, said he's seen such part-time offers surpass $350,000 in base salary. And full-time bids can range even higher. Ilyas Bankole-Hameed, an AI master's student at Carnegie Mellon, told Insider he's heard of full-time offers that reach nearly half a million dollars. Those mind-boggling numbers are enough to entice many new grads. In 2011, new AI Ph.D. graduates took jobs in the tech industry and academia in about equal measure. But since then, the majority of new grads have headed to the AI industry, with nearly double the percentage of AI Ph.D. grads taking industry jobs versus academic roles in 2021, according to Stanford's Institute for Human-Centered AI's 2023 AI Index Report. But salary is only one reason to abandon school for industry. The main draw, university professors and students said, is an opportunity to work on research that's applied in the real world. And funding, which can often be a limiting factor in academia, is plentiful in startup land, as venture capitalists and tech giants like Alphabet and Microsoft bankroll smaller companies. "All AI companies have roles for people with Ph.D.s and without," said Attaluri, the soon-to-be researcher at DeepMind. It's up to students to decide, she said, "how you want to spend the next five years." A rare pool The mad scramble for AI talent is partly driven by corporate leaders' fear of falling behind rather than a drive to power new tech advancements. This is especially true in a world where there's a new "AI article every day," Shamos of Carnegie Mellon told Insider. "This is moving up into the C-suite, and CEOs of companies are starting to worry about, hey, what does this generative AI mean for us? And are we behind the curve on it? And if we are, what can we do?" Shamos said. Tribe AI, a jobs marketplace that connects companies with machine-learning experts, told Insider that between December and March, it saw the number of companies reaching out for help with data and AI projects doubled. Glen Evans, core talent partner at the venture firm Greylock, has seen demand for this domain expertise rise even among early-stage startups in the firm's portfolio. Applied-research scientists are particularly sought-after, he wrote in an email, "due to a stronger industry focus on and broader overall adoption of large language models." The hiring needs of companies — and whether they require the knowledge and skills of postgrads on their payroll or just undergrads — depends on their technical approach. There are two camps in the realm of AI startups. Many, like Jasper and Copy.ai, are developing apps on top of third-party large language models, such as OpenAI's impressive GPT-4. And others, like Adept and Character.AI, are taking on the "full-stack" approach — building everything from the base foundation model to the end product. Creating these highly complex tech stacks requires highly technical AI talent. "It's possible for someone to get this kind of understanding even without a degree," Bankole-Hameed said. "But, you know, you wouldn't trust a doctor to operate on you who hasn't been to med school." And although these engineers and researchers are rare and expensive, it's a more defensible approach that's harder for competitors to replicate, VCs told Insider. The number of computer scientists in the world who are capable of constructing and training their own models is minuscule, numbering in the tens rather than hundreds, said Greylock partner Saam Motamedi. Jon Turow, a VC at Madrona, agreed: "If you do have galactic technical depth, you're going to be able to invent something that wasn't there before." Tough decisions The job prospects haven't enticed enough people into the field, yet. A survey from SAS showed that nearly two-thirds of firms across nine industries, including banking, insurance, government, and retail, say that their largest skills shortages are in AI and ML. In the meantime, some universities are beefing up their curriculum so that students with only bachelor's degrees are prepared to go to work in this burgeoning environment. Last fall, MIT added a major in artificial intelligence and decision-making. Harvard opened a new research institute to study artificial intelligence, funded by a gift from Meta founder Mark Zuckerberg and his wife, Priscilla Chan. And Cornell is developing two minors for the AI-curious. Kevin Liu, a Stanford undergrad studying computer science and AI, said he's seen many of his classmates take a newfound interest in the field, forming new entrepreneurial clubs and Telegram chats and flocking to the school's popular natural-language-processing course. These opportunities for undergrads could help shrink the labor shortage. Reid Simmons, a Carnegie Mellon research professor, said that when he helped create the undergrad artificial-intelligence program four years ago, most jobs were only open to master's or Ph.D. students. Now that recruiters see the effort going into the undergrad curriculum, "a lot of these opportunities are now opening up for the undergraduates as well," he said. But there are still students like Eyzaguirre who are continuing in academia, despite the enticing salaries and perks companies dangle in front of them. He's only in the second year of his Ph.D. program and hasn't decided if he will continue his research in an academic setting or join a fast-growing tech company after graduation. He acknowledges that fewer students are signing up for graduate school and its attendant hardships — the sluggish pace of research, heavy workloads, and dismal pay for lab work — to make loads of money. "We get to do interesting research," Eyzaguirre said of academia, "and learn about things that are magical to us."
Chiều thứ Sáu, Cristóbal Eyzaguirre lấy ra một chiếc xe đồ chơi Hot Wheels để trình diễn qua Zoom. Nó giống như bất kỳ một món đồ chơi trẻ em nào, ngoại trừ một điều: "Tesla Model X" được in trên bao bì của nó. Sinh viên tiến sĩ của Stanford thừa nhận rằng chiếc xe đồ chơi này là vật nhỏ yêu thích nhất của ông từ tất cả các loại quà tặng mà ông đã nhận được từ các bữa tiệc riêng tư, các hội chợ việc làm và sự kiện Tesla mà ông đã tham dự như một người đi kèm nhằm thu hút các tâm trí trẻ đang theo học trí tuệ nhân tạo đến các công ty hàng đầu. Trong những cuộc phỏng vấn với Insider, mười hai giáo sư đại học, sinh viên, cựu sinh viên và các chuyên gia trong ngành cho biết, khi nhiều công ty cạnh tranh để thống trị trí ưu tiên về trí tuệ nhân tạo, họ đang đổ bộ vào các trường đại học để khai thác tài năng. Các công ty này không chỉ tặng quà và bình nước được khắc tên để thu hút sinh viên, mà còn hứa hẹn cơ hội làm việc với các tài năng hàng đầu trong ngành, lương trung bình từ 6 con số và đủ tài nguyên để giải quyết các vấn đề quá đắt đỏ để giải quyết trong giới học thuật. Việc tuyển dụng trở nên quá tích cực đến mức một số trường đại học đang thấy sự chậm lại trong việc tuyển sinh cho các chương trình tiến sĩ về trí tuệ nhân tạo. Để tham gia vào các công ty hàng đầu như Silicon Valley, sinh viên như Eyzaguirre phải cân nhắc xem họ có sẵn sàng từ bỏ thế giới đạo đức của giới học thuật để trở thành một nhân viên của công ty.
Meet 'Claudia,' the 19-year-old selling nudes online that's actually an AI creation

Meet 'Claudia,' the 19-year-old selling nudes online that's actually an AI creation

notion image
 
 
Claudia's selfies and naked photos (above not an actual photo) have some users fooled, but others have been quick to recognize that the pictures are AI-generated. WIN-Initiative/Neleman/Getty Images • Claudia receives compliments on almost all of her Reddit posts from strangers online. • The supposed 19-year-old is an AI creation from two anonymous computer science students. • The pair post AI-generated selfies and nude photos as Claudia on Reddit, Rolling Stone reports. Reddit users are fawning over — and paying for — AI-generated photos of a fake woman named Claudia. While most are showering the supposed dark-haired 19-year-old with compliments, others have pointed out that the fantasy woman is actually an AI creation. "For those who aren't aware I'm going to kill your fantasy. This is literally an AI creation, if you've worked with AI image models and making your own long enough, you can 10000% tell," one user commented under the selfie posted in the r/Faces subreddit. The Reddit account responsible for the photo appears to post mainly adult content, including lewd photos, that prompts online strangers to interact. According to Rolling Stone, Claudia was created by two computer science students who have asked to remain anonymous. They said the account was started as a joke after reading about a man who made $500 using photos of real women. They made about $100 selling AI-generated naked photos of Claudia before she was exposed for being AI, per the Rolling Stone report. "You could say this whole account is just a test to see if you can fool people with AI pictures," the creators told Rolling Stone. "You could compare it to the (Virtual Youtubers), they create their own characters and play as an entirely different person. We honestly didn't think it would get this much traction." Insider reached out to the Claudia account via Reddit, and did not immediately hear back. Claudia reportedly was made with Stable Diffusion using a prompt with words like "without makeup with black hair, shoulder length hair, simple background, straight hair, hair bangs," according to Rolling Stone. Claudia's creation comes in the midst of a new era in the adult entertainment industry, comprising both supporters and protesters of AI-generated models. Unstable Diffusion, a group campaigning to legitimize AI-generated porn, [raised nearly $60,000 on Kickstarter](https://www.businessinsider.com/kickstarter-ai-generated-porn-group-unstable-diffusion-2023-1?_gl=1*1qhhmad*_ga*NDk0OTkwMDg3LjE2NTQ3MDM2MDA.*_ga_E21CV80ZCZ*MTY4MTMyMzE0OS40NzQuMS4xNjgxMzIzNTQ5LjYwLjAuMA..) before being banned from the crowdfunding site. As advancements in AI continue, photographers and artists have expressed concerns and called for more regulation. Deepfake porn has long drawn criticism for using a person's likeness to create adult content without their consent. "I don't think laws have caught up with how harmful AI can be," [photographer Presley Ann told Insider](https://www.businessinsider.com/midjourney-suspends-free-trials-fake-images-pope-trump-viral-photographers-2023-3?_gl=1*1sm5jss*_ga*NDk0OTkwMDg3LjE2NTQ3MDM2MDA.*_ga_E21CV80ZCZ*MTY4MTMyMzE0OS40NzQuMS4xNjgxMzI0MTY2LjUxLjAuMA..). "As things progress, it can even become an issue for people's livelihood."
# **Gặp 'Claudia', cô gái 19 tuổi bán ảnh khỏa thân trực tuyến thực sự là một sáng tạo AI** [https://i.insider.com/6436d986e955f50018fa9382?width=700](https://i.insider.com/6436d986e955f50018fa9382?width=700) *Ảnh tự sướng và ảnh khỏa thân của Claudia (ảnh trên không phải là ảnh thật) đã khiến một số người dùng nhầm lẫn, nhưng những người khác đã nhanh chóng nhận ra rằng những bức ảnh này là do AI tạo ra.* WIN-Initiative/Neleman/Getty Images - Claudia nhận được lời khen từ hầu hết các bài đăng của mình trên Reddit từ những người lạ trực tuyến. - Cô gái 19 tuổi được cho là một sáng tạo AI từ hai sinh viên khoa học máy tính ẩn danh. - Cặp đôi này đăng ảnh tự sướng và ảnh khỏa thân được tạo bởi AI trên Reddit, theo báo cáo của Rolling Stone. Người dùng Reddit đang mê mẩn và trả tiền cho các bức ảnh được tạo bởi AI của một người phụ nữ giả tên Claudia. Trong khi hầu hết mọi người đều tán dương người phụ nữ 19 tuổi tóc đen được cho là thực tế này, những người khác đã chỉ ra rằng cô gái tưởng tượng này thực sự là một sáng tạo AI. "Đối với những người không biết tôi sẽ làm tan vỡ mơ ước của bạn. Đây thực sự là một sáng tạo AI, nếu bạn đã làm việc với các mô hình ảnh AI và tạo riêng cho mình đủ lâu, bạn có thể nói chắc chắn 10000% ", một người dùng đã nhận xét dưới bức ảnh đăng trên subreddit r/Faces. Tài khoản Reddit chịu trách nhiệm cho bức ảnh này dường như đăng chủ yếu là nội dung người lớn, bao gồm ảnh nghịch ngợm, khiến người lạ trực tuyến tương tác. Theo Rolling Stone, Claudia được tạo ra bởi hai sinh viên khoa học máy tính yêu cầu giấu tên. Họ nói rằng tài khoản này được bắt đầu như một trò đùa sau khi đọc về một người đàn ông kiếm được 500 đô la bằng cách sử dụng ảnh của các phụ nữ thật. Trước khi bị tiết lộ là AI, họ đã bán được khoảng 100 đô la từ việc bán ảnh khỏa thân được tạo bởi AI của Claudia, theo báo cáo của Rolling Stone. "Bạn có thể nói rằng cả tài khoản này chỉ là một bài kiểm tra để xem bạn có thể đánh lừa mọi người với những bức ảnh AI hay không", những người tạo ra cho Rolling Stone biết. "Bạn có thể so sánh nó với (Virtual Youtubers), họ tạo ra những nhân vật của riêng mình và đóng vai một người khác hoàn toàn. Thực sự, chúng tôi không nghĩ rằng nó sẽ được quan tâm nhiều như vậy." Insider đã liên hệ với tài khoản Claudia qua Reddit, và không nhận được phản hồi ngay lập tức. Theo Rolling Stone, Claudia được tạo ra bằng Stable Diffusion bằng cách sử dụng một prompt với các từ như "không trang điểm với mái tóc đen, tóc dài đến vai, nền đơn giản, tóc thẳng, mái tóc ngang mắt", theo Rolling Stone. Sáng tạo Claudia đến trong bối cảnh của một kỷ nguyên mới trong ngành giải trí người lớn, bao gồm cả những người ủng hộ và phản đối các mô hình được tạo bởi AI. Unstable Diffusion, một nhóm vận động để hợp pháp hóa phim khiêu dâm được tạo bởi AI, đã quyên góp được gần 60.000 đô la trên Kickstarter trước khi bị cấm trên trang web quyên góp. Khi các tiến bộ trong lĩnh vực AI tiếp tục, các nhiếp ảnh gia và nghệ sĩ đã đưa ra những lo ngại và kêu gọi có nhiều quy định hơn. Deepfake porn đã lâu đã gây ra sự phản đối khi sử dụng hình ảnh của một người để tạo nội dung người lớn mà không có sự đồng ý của họ. "Tôi không nghĩ rằng luật pháp đã bắt kịp được những gì mà AI có thể gây ra", nhiếp ảnh gia Presley Ann nói với Insider. "Khi các vấn đề tiến triển, nó có thể trở thành một vấn đề đối với sinh kế của mọi người."
ChatGPT is better at predicting how stocks will react to news headlines than traditional models, new study shows
Nghiên cứu mới cho thấy ChatGPT dự đoán xu hướng thị trường chứng khoán.
ChatGPT can't see the future, but it already has value for investors looking to predict future moves in the stock market. That's according to a new research paper published Monday in the Social Science Research Network by two University of Florida finance professors. The researchers fed the chatbot over 50,000 news headlines about companies that date back to October of 2021 and asked it to determine whether the headlines were good, bad, or irrelevant news for the companies' stock prices. They used this sentiment analysis to compute a numerical "ChatGPT score" and analyzed whether these scores were predictive of the company's stock market performance the next day. The researchers found a statistically significant positive correlation between these scores and the next-day stock performance for the companies they analyzed. Firms with higher scores tended to see better returns than those with lower scores. The study also found that ChatGPT outperformed other "traditional sentiment analysis methods" that also use data from headlines and social media to forecast stock movements — although the researchers admit they did not test every single one of these methods in this study. "In short, our study demonstrates the value of ChatGPT in predicting stock market returns," the researchers wrote. They added: "Our results suggest that incorporating advanced language models into the investment decision-making process can yield more accurate predictions and enhance the performance of quantitative trading strategies." When the researchers compared the performance of ChatGPT with traditional methods, they found that those other models didn't add any predictive power over their ChatGPT-derived sentiment scores. "Once you use ChatGPT, using the other sentiment measure is not helpful for predicting," Alejandro Lopez-Lira, a co-author of the paper, told Insider. —Alejandro Lopez Lira (@alejandroll10) April 10, 2023 Investors should still refrain from relying solely on ChatGPT Lopez-Lira said that in the future, AI tools like ChatGPT could be used to improve the stock market's efficiency by incorporating news faster into stock prices. He also said these tools could replace some investment analysts. Ever since ChatGPT was rolled out last November, users have tested its limits. They've asked it what stocks to invest in, used it to earn money through side hustles, and even asked it to help start a business. As much as the chatbot has amazed, many of its limitations have surfaced as well. Lopez-Lira said that investors should "exercise caution and not rely solely on ChatGPT or similar AI models," in part because there are several areas where the AI needs to improve when it comes to stock market prediction. First, ChatGPT isn't "connected to the internet" and therefore can't access the latest information available. "ChatGPT does not have access to any recent data beyond its training cutoff in September 2021," he said. "This limitation means that the AI model may not know more recent market trends, news, or developments that could significantly impact stock prices and investment decisions." ChatGPT also currently struggles at processing large texts and "number crunching." "It cannot process large amounts of numerical data, such as firms' accounting data," he said. Addressing these concerns, Lopez-Lira said, could "vastly increase the prediction capabilities" of the chatbot. "As the field of AI-driven finance continues to expand, the insights gleaned from this research can help guide the development of more accurate, efficient, and responsible models that enhance the performance of financial decision-making processes," the researchers wrote in the paper's concluding line.
ChatGPT không dự đoán được tương lai, nhưng nó có thể giúp các nhà đầu tư dự đoán xu hướng tương lai trên thị trường chứng khoán. Đó kết luận của bài nghiên cứu mới được đăng trên Mạng lưới Nghiên cứu Khoa học Xã hội của hai giáo sư tài chính đến từ Đại học Florida. Các nhà nghiên cứu đã cho chatbot đọc hơn 50.000 tiêu đề tin tức về các công ty từ tháng 10 năm 2021 và yêu cầu nó xác định xem các tiêu đề đó có phải là tin tức tốt, xấu hoặc không liên quan đến giá cổ phiếu của các công ty đó. Họ sử dụng phân tích tâm trạng này để tính "ChatGPT score" và phân tích xem các điểm số này có dự đoán được giá cổ phiếu của công ty vào ngày hôm sau hay không. Các nhà nghiên cứu đã tìm thấy một mối quan hệ cùng chiều có ý nghĩa thống kê giữa các điểm số này và mức giá cổ phiếu của các công ty được phân tích vào ngày hôm sau. Các công ty với chỉ số cao thường có kết quả cao hơn so với những công ty có điểm số thấp hơn. Nghiên cứu cũng cho thấy rằng ChatGPT vượt trội so với các "phương pháp phân tích tâm trạng truyền thống" khác cũng sử dụng dữ liệu từ các tiêu đề các bài báo và mạng xã hội để dự báo các xu hướng cổ phiếu - mặc dù các nhà nghiên cứu thừa nhận họ không thử nghiệm từng phương pháp trong nghiên cứu này. "Tóm lại, nghiên cứu của chúng tôi chứng minh giá trị của ChatGPT trong việc dự đoán lợi nhuận trên thị trường chứng khoán," các nhà nghiên cứu viết. Họ nó thêm: "Kết quả của chúng tôi cho thấy rằng việc kết hợp các mô hình ngôn ngữ tiên tiến vào quyết định đầu tư có thể mang lại dự đoán chính xác hơn và nâng cao hiệu suất của các chiến lược giao dịch định lượng." Khi các nhà nghiên cứu so sánh hiệu suất của ChatGPT với các phương pháp truyền thống, họ thấy các mô hình đó không dự đoán được như điểm số phân tích tâm trạng của ChatGPT. "Sau khi đã sử dụng ChatGPT, các biện pháp phân tích tâm trạng khác không dự đoán chuẩn." Alejandro Lopez-Lira, một tác giả của bài nghiên cứu, cho biết. Tuy nhiên, Lopez-Lira cho rằng các nhà đầu tư vẫn nên "thận trọng và không nên chỉ dựa vào ChatGPT hoặc các mô hình AI tương tự," một phần vì có một số vấn đề liên quan đến dự đoán thị trường chứng khoán mà AI cần cải thiện. Trước hết, ChatGPT không "kết nối với internet" và do đó không thể truy cập thông tin mới nhất. "Dữ liệu của ChatGPT chỉ cập nhật đến tháng 9 năm 2021," ông nói. "Giới hạn này có nghĩa là mô hình AI có thể không biết các yếu tố có thể ảnh hưởng đáng kể đến giá cổ phiếu và quyết định đầu tư, xu hướng thị trường, tin tức hoặc các diễn biến gần đây." ChatGPT cũng gặp khó khăn khi xử lý văn bản lớn và "nhá số liệu." "Nó không thể xử lý lượng lớn dữ liệu số, như dữ liệu kế toán của các công ty," ông cho biết. Các các vấn đề này được khắc phục, Lopez-Lira nói, có thể cải thiện đáng kể năng lực dự đoán của chatbot. "Khi lĩnh vực tài chính ngày càng sử dụng nhiều các AI, các kết quả từ nghiên cứu này có thể giúp định hướng phát triển các mô hình chính xác, hiệu quả và trách nhiệm hơn để nâng cao hiệu suất của quyết định đầu tư tài chính," các nhà nghiên cứu viết trong dòng kết luận của bài báo.
Amazon Joins Microsoft, Google in AI Race Spurred by ChatGPT; The world's largest cloud provider wants to become the Switzerland of generative AI and let companies pick their own software and models (WSJ)
Amazon.com Inc.'s cloud computing division announced new artificial intelligence offerings Thursday, becoming the latest tech giant to try to cash in on generative AI, the technology behind ChatGPT . Unlike Alphabet Inc.'s Google and Microsoft Corp., which have announced products for the general public , Amazon's Amazon Web Services is targeting corporate customers. In addition to new AI tools, the company is expanding access to custom-made chips that it says can run AI software more efficiently and cheaply than competitors. "This whole area is really, really new and it truly is day one in generative AI," said Adam Selipsky, chief executive of Amazon Web Services, in an interview. "There's going to be a lot of invention by a lot of different companies." AWS, which is the largest provider of cloud computing services in the world, is the latest tech company to lay out its generative AI strategy. The top cloud companies have been pushing the new tools they say will revolutionize work and creativity , in part in hopes of reinvigorating demand for cloud-computing services that has been cooling. The three largest cloud companies—AWS, Microsoft and Google— have put generative AI at the center of their sales pitches recently to try to capitalize on the explosion in interest in the technology, which has wowed users with its ability to perform functions like drafting memos and producing computer code at near-human levels of sophistication. "The entire world is scrambling right now," said Shishir Mehrotra, the CEO of AI document startup Coda and an early tester of AWS's new AI products. He said the current rush for companies to ready themselves for this new technology resembles the shift from computers to smartphones. Each of the cloud infrastructure leaders has begun marking out their own lanes. Microsoft has been in front thanks to its multibillion-dollar investment in the company behind ChatGPT, OpenAI. Google has invested hundreds of millions into another generative AI developer, Anthropic. Both Microsoft and Google, via its chatbot Bard, have also invested in AI tools that are aimed largely at consumers. AWS is forging a different path, so far avoiding a major investment in an outside AI company or consumer-facing tools. It says it wants to act as a neutral platform for businesses that want to incorporate generative AI features. By not being tied to any one AI startup, AWS is marketing itself as the Switzerland of the cloud giants. "We believe that customers are going to need a lot of different generative AI models for different purposes, and it is unlikely that any one model is going to serve all customers or even all the needs of one customer," said Mr. Selipsky. AWS is selling access to multiple large language models, allowing companies to build generative features off more than one. It is a strategy that some big tech companies diving into generative AI are already taking. For example, last month Salesforce Inc. announced a generative AI tool , Einstein GPT, that is built on OpenAI's tech. But the company also has a tool for Slack, which it owns, that is built on Anthropic's Claude model . "I don't think generative AI is a market where there's a huge winner-take-all dynamic," said Coda's Mr. Mehrotra. Among the models AWS is making available through its program are ones made by Anthropic, Stability AI and AI21 Labs. Also in the group is AWS's language model, called Titan, which can perform similar functions like taking natural language prompts and turning them into blogs and emails. AWS said its AI will be more suited for businesses because it can be trained only on a customer's data—say its internal cache of documents—rather than the broader set of webpages that other models use. That could make it a safer choice for businesses that are nervous their private data could end up shared and mixed up with other companies'. Another feature the company is pushing is CodeWhisperer, which generates and fixes computer code. It will compete directly with Microsoft's GitHub Copilot, which uses generative AI. Previously Amazon had made CodeWhisperer available only to a small number of users. Eric Bellman contributed to this article. Write to Tom Dotan at tom.dotan@wsj.com Credit: By Tom Dotan
Bộ phận điện toán đám mây của [Amazon.com](http://amazon.com/) đã thông báo về các sản phẩm trí tuệ nhân tạo mới vào Thứ Năm, trở thành một trong những công ty công nghệ lớn nhất cố gắng kiếm tiền từ trí tuệ nhân tạo sinh sản, công nghệ đằng sau ChatGPT. Khác với Google của Alphabet và Microsoft Corp. đã thông báo về các sản phẩm dành cho công chúng chung, Amazon Web Services của Amazon đang nhắm vào khách hàng doanh nghiệp. Ngoài các công cụ trí tuệ nhân tạo mới, công ty đang mở rộng quyền truy cập vào các chip được tùy chỉnh cho rằng chúng có thể chạy phần mềm trí tuệ nhân tạo hiệu quả và rẻ hơn so với các đối thủ khác. "Theo ông Adam Selipsky, giám đốc điều hành của Amazon Web Services, trong một cuộc phỏng vấn: "Toàn bộ lĩnh vực này thực sự là mới và đó thực sự là ngày đầu tiên trong trí tuệ nhân tạo sinh sản. Sẽ có rất nhiều sự phát minh của nhiều công ty khác nhau". AWS, là nhà cung cấp dịch vụ điện toán đám mây lớn nhất thế giới, là công ty công nghệ mới nhất đưa ra chiến lược trí tuệ nhân tạo sinh sản của mình. Các công ty điện toán đám mây hàng đầu đã đẩy mạnh các công cụ mới mà họ cho rằng sẽ cách mạng hóa công việc và sáng tạo, một phần hy vọng khơi lại nhu cầu cho các dịch vụ điện toán đám mây đã giảm nhiệt. Ba công ty điện toán đám mây lớn nhất - AWS, Microsoft và Google - đã đặt trí tuệ nhân tạo sinh sản ở trung tâm của chiến lược bán hàng của họ gần đây để cố gắng tận dụng sự bùng nổ quan tâm đến công nghệ này, mà đã khiến người dùng bị choáng ngợp bởi khả năng thực hiện các chức năng như viết bản nháp và sản xuất mã máy tính ở mức độ tinh vi gần như của con người. "Theo ông Shishir Mehrotra, CEO của công ty khởi nghiệp tài liệu AI Coda và một người thử nghiệm sớm các sản phẩm AI mới của AWS: "Toàn bộ thế giới đang vội vàng hiện tại". Ông nói rằng cuộc đua hiện tại của các công ty để chuẩn bị cho công nghệ mới này giống như sự chuyển đổi từ máy tính sang điện thoại thông minh. Mỗi nhà lãnh đạo cơ sở hạ tầng đám mây đã bắt đầu đánh dấu làn đường riêng của mình. Microsoft đã vượt lên phía trước nhờ vào khoản đầu tư hàng tỷ đô la vào công ty sau ChatGPT, OpenAI. Google đã đầu tư hàng trăm triệu đô la vào một nhà phát triển trí tuệ nhân tạo sinh sản khác, Anthropic. Cả Microsoft và Google, thông qua chatbot Bard của mình, cũng đã đầu tư vào các công cụ trí tuệ nhân tạo nhắm chủ yếu vào người tiêu dùng. AWS đang mở đường khác, cho đến nay vẫn tránh đầu tư lớn vào một công ty trí tuệ nhân tạo bên ngoài hoặc các công cụ dành cho người tiêu dùng. Công ty cho biết nó muốn hành động như một nền tảng trung lập cho các doanh nghiệp muốn tích hợp các tính năng trí tuệ nhân tạo sinh sản. Bằng cách không bị ràng buộc bởi bất kỳ một công ty khởi nghiệp trí tuệ nhân tạo nào, AWS đang tiếp thị cho mình là Thụy Sĩ của những kẻ khổng lồ đám mây. "Chúng tôi tin rằng khách hàng sẽ cần nhiều mô hình trí tuệ nhân tạo sinh sản khác nhau cho các mục đích khác nhau, và không có khả năng rằng bất kỳ một mô hình nào sẽ phục vụ tất cả khách hàng hoặc ngay cả tất cả nhu cầu của một khách hàng", ông Selipsky nói. AWS đang bán quyền truy cập vào nhiều mô hình ngôn ngữ lớn, cho phép các công ty xây dựng các tính năng sinh sản dựa trên nhiều mô hình hơn một. Đây là một chiến lược mà một số công ty công nghệ lớn đang tiếp cận với trí tuệ nhân tạo sinh sản. Ví dụ, vào tháng trước, Salesforce Inc. đã thông báo về một công cụ trí tuệ nhân tạo sinh sản, Einstein GPT, được xây dựng trên công nghệ OpenAI. Nhưng công ty cũng có một công cụ cho Slack, mà nó sở hữu, được xây dựng trên mô hình Claude của Anthropic. "Tôi không nghĩ trí tuệ nhân tạo sinh sản là một thị trường có động lực lớn để chiến thắng", ông Mehrotra của Coda nói. Trong số các mô hình mà AWS đang cung cấp thông qua chương trình của mình là những mô hình được tạo bởi Anthropic, Stability AI và AI21 Labs. Cũng trong nhóm đó là mô hình ngôn ngữ của AWS, được gọi là Titan, có thể thực hiện các chức năng tương tự như việc lấy các lời nhắc ngôn ngữ tự nhiên và biến chúng thành các bài đăng và email. AWS cho biết trí tuệ nhân tạo của nó sẽ phù hợp hơn cho doanh nghiệp vì nó chỉ có thể được đào tạo trên dữ liệu của khách hàng - ví dụ như bộ sưu tập tài liệu nội bộ của họ - thay vì tập hợp rộng lớn các trang web mà các mô hình khác sử dụng. Điều đó có thể khiến nó trở thành một lựa chọn an toàn hơn đối với các doanh nghiệp lo lắng rằng dữ liệu riêng tư của họ có thể được chia sẻ và pha trộn với các công ty khác. Một tính năng khác mà công ty đang đẩy mạnh là CodeWhisperer, tạo và sửa mã máy tính. Nó sẽ cạnh tranh trực tiếp với GitHub Copilot của Microsoft, sử dụng trí tuệ nhân tạo sinh sản. Trước đây, Amazon đã chỉ cung cấp CodeWhisperer cho một số người dùng.
ChatGPT Can Give Great Answers. But Only If You Know How to Ask the Right Question. That's why companies are hiring 'prompt engineers'—experts in talking to AI systems effectively (WSJ)
In general, the more detailed the request, the better the response. But the most effective prompt engineering goes beyond adding detail. PHOTO: Fran Pulido With the new generative AI tools, like ChatGPT , anyone can put in a prompt—type in a few words and get a result. But that doesn't mean that the results will be relevant or accurate. The key is putting in the right prompt. The fact that you can communicate with the latest AI systems in plain English "is very deceptive," says Peter Lin, a computer-science professor at the University of Waterloo. That's why some businesses are now hiring prompt engineers—people with the skills, background and practice to talk to so-called large-language AI systems effectively—and why many people expect prompt engineering to be a desirable skill for many kinds of workers to add to their resumes. LinkedIn says the use of the terms ChatGPT, prompt engineering, prompt crafting, generative AI and generative artificial intelligence in member profiles increased 55% globally in February from January and then 71% in March from February. "We have dog whisperers and horse whisperers," Prof. Lin says. "And now we're developing large-language-model whisperers." In general, the more detailed the request, the closer the response will come to what the user is looking for. But the most effective prompt engineering goes beyond adding detail. RELATED For one thing, adding the right detail to get the best response is crucial. Also, there are many ways to guide how an AI system presents the information it finds, depending on the goal—telling it to write in a certain style or for a certain audience, for instance. Each tool also has particular capabilities and limitations that users can learn to manipulate. And the best results often come from an extended conversation with the AI, reacting to what it produces and asking for refinements. Even for people applying to jobs that don't explicitly mention prompt engineering, having this skill could become essential for all sorts of roles, says Brianne Kimmel, the founder of Worklife, a venture fund that invests in companies that use generative AI. Art directors could use generative AI to sketch out ideas, and marketers could use it to develop new slogans. Software engineers could use it to find problems with their code. Lawyers could use it to research a piece of law. "This is going to be a foundational skill that all of us need to know," Ms. Kimmel says. "The through line is when you learn a new skill, you can take it in any direction you like." On the job Sophie Antebi graduated in May from the University of Southern California with a degree in marketing and entrepreneurship and an interest in working at a startup. In an effort to make her application stand out, she has learned to use some of the new generative AI tools. She figures they could be useful in creating marketing campaigns or creating images to go into presentations. While she hasn't landed a job yet, she says that since she added her familiarity with prompt engineering and other AI capabilities to her cover letters, the response to her applications has increased. She credits those skills with getting her to second and third rounds of interviews. "They ask a lot of questions, and they're interested in learning more about it," she says of her interviewers. One company looking to hire a prompt engineer is Boston Children's Hospital, which posted the job in February and is interviewing candidates. The prompt engineer will work out of the hospital's Innovation and Digital Health Accelerator, which has been making investments in AI for the past few years and sees this hire as a natural progression, says John Brownstein, the hospital's chief innovation officer. Large-language AI tools will have a role in many jobs at the hospital, Dr. Brownstein says, possibly including analyzing vast amounts of unstructured clinical notes and detecting broader patterns that may otherwise go unnoticed, creating educational information for patients and making patient admissions more efficient. "There is definitely a hype component to AI like ChatGPT," Dr. Brownstein says. "But this is not a technology looking for an application." Mishcon de Reya, a London law firm, is also planning to hire a prompt engineer. Summarizing legal documents, finding relevant case law and querying a database of information as the first step in litigation are some possible uses for large-language AI tools, says Nick West, Mishcon de Reya's chief strategy officer "I believe this is a transformational technology," Mr. West says. "So any help I can get to accelerate our understanding and knowledge of it means that we can be faster to take advantage of it." Even for places not hiring a full-time prompt engineer, it's becoming apparent that technology teams will need to be familiar with AI tools' possibilities, says Elvis Saravia, co-founder of Dair.ai , a group working to democratize AI with open-source research, educational material and training. Mr. Saravia has published a prompt engineering guide on how to build and interface with large-language models for engineers. The art of collaboration Some of the prompt methods that researchers and users have discovered and Mr. Saravia has documented include telling a large-language model "Let's think step by step," a method that gets the technology to break complicated requests into smaller steps that are easier to address. Another technique involves telling the AI that it is an expert in a field and its job is to give advice to a layperson. That can help simplify the response on complicated subjects. Several researchers and users are publishing guides and tips as they find them. Some users are selling their prompts on marketplaces , and others are building tools that they say can optimize a prompt. But many resources are being shared free of charge in Twitter threads and YouTube videos, including some posted by Nick St. Pierre, a designer creating content that focuses on explaining Midjourney and other art-creating AIs. For artwork, it takes a combination of experience with the tools and knowledge of art styles to refine prompts. Mr. Pierre suggests starting with a basic idea and adding to it as needed. For example, a prompt might start with a request for an image of a 40-year-old woman with dark hair sitting at a bar, Mr. St. Pierre says. If the resulting image isn't what the user had in mind, they can add terms to change the camera angle, clothing style and lighting, among other things, to get different results. Things listed earlier in a prompt typically get more prominence in the final image, Mr. St. Pierre has found, so he tends to list the most important terms for his vision first. "There is a lot of iterating, lots of testing and collaborating with the AI," he says. Some tips for better prompts on ChatGPT * Learn about the capabilities of the model. ChatGPT can do a lot, but not everything. It's a language model, for example, and isn't great at math. Also, ChatGPT currently is only trained through 2021, so any events after that are unknown. OpenAI doesn't reveal what data trains its models, but Andrew Mayne, a science communicator for OpenAI, suggests reading about what others are doing on ChatGPT and where they are having success, as well as just playing with it, figuring out how to get it to do what you want reliably. * Make sure your prompt is clear. Imprecise wording can confuse ChaptGPT just as it can confuse a human. Ambiguous wording, typos and missing words can all be problematic. Homonyms can be particularly troublesome: Without clear context, the AI could read "right," for instance, to mean the direction or "correct." * Tweak your prompt. ChatGPT will refine its responses with fresh input from the user—anything from requests for additional content to specific instructions on formatting or general guidelines on style. For instance, a user could ask it to present its response in bullet points, or to try to be more serious or write in the tone of a well-known author, like Mark Twain. * Ask for help. If at first you don't succeed, you can ask ChatGPT to help you craft a better prompt. You can say, for instance, "What do I need to tell ChatGPT to write me a good cover letter?" and the tool will tell you what it needs from you to write it up. Ms. Snow is a writer in Los Angeles. She can be reached at reports@wsj.com . Credit: By Jackie Snow
Thường thì yêu cầu càng chi tiết thì phản hồi càng tốt. Nhưng kỹ thuật tạo câu nhắc hiệu quả nhất không chỉ dừng lại ở việc thêm chi tiết. Với công cụ AI sinh sản mới như ChatGPT, bất cứ ai cũng có thể đưa ra một câu nhắc - nhập vào một vài từ và nhận được kết quả. Nhưng điều đó không có nghĩa là kết quả sẽ phù hợp hoặc chính xác. Chìa khóa là đưa ra câu nhắc đúng. Thực tế là, việc bạn có thể trò chuyện với các hệ thống AI mới nhất bằng tiếng Anh đơn giản “dễ gây hiểu nhầm", theo Peter Lin, một giáo sư khoa học máy tính tại Đại học Waterloo. Đó là lý do tại sao một số doanh nghiệp hiện đang thuê các kỹ sư câu nhắc - những người có kỹ năng, kiến thức và kinh nghiệm để nói chuyện với các hệ thống AI ngôn ngữ lớn hiệu quả - và tại sao nhiều người mong đợi kỹ thuật tạo câu nhắc sẽ là một kỹ năng đáng khao khát cho nhiều loại công việc khác nhau để thêm vào hồ sơ của họ. LinkedIn cho biết việc sử dụng các thuật ngữ ChatGPT, kỹ thuật tạo câu nhắc, kỹ thuật chuẩn bị câu hỏi, AI sinh sản và trí tuệ nhân tạo sinh sản trong các hồ sơ thành viên tăng 55% trên toàn cầu vào tháng 2 so với tháng 1 và sau đó tăng 71% vào tháng 3 so với tháng 2. "Chúng ta có những người nói chuyện với chó và ngựa," giáo sư Lin nói. "Và giờ đây chúng ta đang phát triển những người nói chuyện với các mô hình ngôn ngữ lớn." Nói chung, yêu cầu càng chi tiết, phản hồi càng gần với những gì người dùng đang tìm kiếm. Nhưng kỹ thuật tạo câu nhắc hiệu quả nhất không chỉ dừng lại ở việc thêm chi tiết. Thêm đúng chi tiết để có được phản hồi tốt nhất là rất quan trọng. Ngoài ra, có nhiều cách để hướng dẫn cách hệ thống AI trình bày thông tin nó tìm thấy, tùy thuộc vào mục tiêu - yêu cầu nó viết theo một phong cách hoặc cho một khán giả nhất định, ví dụ. Mỗi công cụ cũng có khả năng và giới hạn cụ thể mà người dùng có thể học cách điều khiển. Và kết quả tốt nhất thường đến từ một cuộc trò chuyện kéo dài với AI, phản ứng với những gì nó sản xuất và yêu cầu cải tiến. Ngay cả với những người ứng tuyển vào các công việc không đề cập rõ đến kỹ thuật tạo câu hỏi, việc có kỹ năng này có thể trở thành bắt buộc cho tất cả các loại vai trò, theo Brianne Kimmel, người sáng lập quỹ Worklife đầu tư vào các công ty sử dụng AI sinh sản. Giám đốc nghệ thuật có thể sử dụng AI sinh sản để phác thảo ý tưởng và nhà tiếp thị có thể sử dụng nó để phát triển khẩu hiệu mới. Kỹ sư phần mềm có thể sử dụng nó để tìm kiếm vấn đề với mã của họ. Luật sư có thể sử dụng nó để nghiên cứu một bộ phận của luật. "Đây sẽ là một kỹ năng cơ bản mà chúng ta tất cả cần phải biết," bà Kimmel nói. "Điểm chung là khi bạn học một kỹ năng mới, bạn có thể đưa nó vào bất kỳ hướng nào bạn muốn." Sophie Antebi tốt nghiệp vào tháng 5 từ Đại học Nam California với bằng cử nhân về tiếp thị và khởi nghiệp và một sự quan tâm đến làm việc tại một công ty khởi nghiệp. Trong nỗ lực để làm cho đơn xin việc của mình nổi bật, cô đã học cách sử dụng một số công cụ AI sinh sản mới. Cô nghĩ rằng chúng có thể hữu ích trong việc tạo ra các chiến dịch tiếp thị hoặc tạo ra hình ảnh để đưa vào các bài thuyết trình. Trong khi cô chưa có được công việc, cô cho biết từ khi cô thêm sự quen thuộc với kỹ thuật tạo câu hỏi và các khả năng AI khác vào các lá thư đề xuất của mình, phản hồi cho đơn xin việc của cô đã tăng. Cô cho rằng những kỹ năng này đã giúp cô đến vòng phỏng vấn thứ hai và thứ ba. "Họ hỏi rất nhiều câu hỏi và họ quan tâm đến việc tìm hiểu thêm về nó", cô nói về những người phỏng vấn của mình. Một trong những công ty muốn thuê một kỹ sư câu nhắc là Bệnh viện trẻ em Boston, đã đăng tuyển vào tháng 2 và đang phỏng vấn ứng viên. Kỹ sư câu hỏi sẽ làm việc tại Trung tâm Tăng trưởng Sáng tạo và Sức khỏe Kỹ thuật số của bệnh viện, đã đầu tư vào AI trong vài năm qua và xem việc thuê mướn này là một tiến triển tự nhiên, theo John Brownstein, giám đốc sáng tạo chính của bệnh viện. Công cụ AI ngôn ngữ lớn sẽ đóng vai trò trong nhiều công việc tại bệnh viện, ông Brownstein cho biết, có thể bao gồm phân tích lượng lớn các ghi chú lâm sàng không có cấu trúc và phát hiện các mô hình rộng hơn có thể bị bỏ qua, tạo thông tin giáo dục cho bệnh nhân và làm cho việc nhập viện của bệnh nhân hiệu quả hơn. "Chắc chắn có yếu tố thổi phồng trong AI như ChatGPT", ông Brownstein nói. "Nhưng đây không phải là một công nghệ đang tìm kiếm ứng dụng." Mishcon de Reya, một công ty luật ở Luân Đôn, cũng đang lên kế hoạch thuê một kỹ sư câu hỏi. Tóm tắt các tài liệu pháp lý, tìm kiếm pháp lý liên quan và truy vấn cơ sở dữ liệu thông tin như là bước đầu tiên trong tranh tụng là một số ứng dụng có thể của các công cụ AI ngôn ngữ lớn, theo Nick West, giám đốc chiến lược của Mishcon de Reya. "Tôi tin rằng đây là một công nghệ cách mạng," ông West nói. "Vì vậy, bất kỳ sự giúp đỡ nào tôi có thể nhận được để tăng tốc hiểu biết và kiến thức của chúng tôi về nó đều có nghĩa là chúng tôi có thể nhanh chóng tận dụng nó." Ngay cả đối với những nơi không tuyển dụng kỹ sư câu hỏi toàn thời gian, trở nên rõ ràng rằng các nhóm công nghệ sẽ cần quen thuộc với các khả năng của các công cụ AI, theo Elvis Saravia, đồng sáng lập của [Dair.ai](http://dair.ai/), một nhóm làm việc để dân chủ hóa AI với nghiên cứu mã nguồn mở, tài liệu giáo dục và đào tạo. Ông Saravia đã xuất bản một hướng dẫn tạo câu hỏi về cách xây dựng và giao diện với các mô hình ngôn ngữ lớn cho các kỹ sư. Một số phương pháp câu nhắc mà các nhà nghiên cứu và người dùng đã phát hiện và ông Saravia đã ghi lại bao gồm yêu cầu mô hình ngôn ngữ lớn "Hãy suy nghĩ từng bước", một phương pháp giúp công nghệ phân tách các yêu cầu phức tạp thành các bước nhỏ dễ giải quyết hơn. Một kỹ thuật khác liên quan đến việc cho AI biết rằng nó là chuyên gia trong một lĩnh vực và công việc của nó là cung cấp lời khuyên cho một người không chuyên. Điều đó có thể giúp đơn giản hóa phản hồi trên các chủ đề phức tạp. Một số nhà nghiên cứu và người dùng đang xuất bản các hướng dẫn và mẹo khi họ tìm thấy chúng. Một số người dùng đang bán các câu nhắc của họ trên các thị trường, và những người khác đang xây dựng các công cụ mà họ cho rằng có thể tối ưu hóa câu nhắc. Nhưng nhiều tài nguyên đang được chia sẻ miễn phí trên Twitter và YouTube, bao gồm cả một số bài đăng của Nick St. Pierre, một nhà thiết kế tạo nội dung tập trung vào giải thích Midjourney và các AI tạo nghệ thuật khác. Đối với nghệ thuật, nó cần sự kết hợp kinh nghiệm với các công cHi there! How can I assist you today?
 
Artificial Intelligence Is Teaching Us New, Surprising Things About the Human Mind; Thought is ever-changing electrical patterns unconnected to individual neurons. Meta is working on a system to read your mind. (WSJ)
 
 
 
The world has been learning an awful lot about artificial intelligence lately, thanks to the arrival of eerily human-like chatbots. Less noticed, but just as important: Researchers are learning a great deal about us – with the help of AI. AI is helping scientists decode how neurons in our brains communicate, and explore the nature of cognition. This new research could one day lead to humans connecting with computers merely by thinking–as opposed to typing or voice commands. But there is a long way to go before such visions become reality. I say tomato, you say pangolin Celeste Kidd, a psychology professor at the University of California, Berkeley, was surprised by what she discovered when she tried to examine the range of opinions people have about certain politicians, including Barack Obama and Donald Trump. Her research was intended to explore the widening divergence of how we conceive of subjects to which we attach moral judgements – such as politicians. Previous work has shown that morally-fraught concepts are the ones people perceive in the most polarized ways. To establish a baseline for her experiment, she began by asking thousands of study participants about their associations with common nouns, in this case animals. What she discovered was that even for common animals – including chickens, whales and salmon – people's notions of their characteristics are all over the map. Are whales majestic? You'd be surprised who disagrees. Are penguins heavy? Opinions vary. By quizzing people on many such associations, Dr. Kidd was able to amass a pool of data that clusters people according to which of these associations they agree on. Using this method, she found that people can be grouped into between 10 and 30 different clusters, depending on their perception of an animal. Dr. Kidd and her team concluded that people tend not to see eye to eye about even the most basic characteristics of common objects. We also overestimate how many people see things as we do. In a world in which it feels like people are increasingly talking past one another, the root of this phenomenon may be the fact that even for citizens of a single country speaking a common language, words simply don't mean the same thing to different people. That might not seem like a very profound observation, but what Dr. Kidd's research suggests is the degree to which that's true may be much greater than psychologists previously thought. Arriving at this insight required the application of a tool of mathematics that makes many kinds of AI possible – known as a "clustering model". The most important feature of AI which enables new kinds of research, says Dr. Kidd, is the same that makes possible AI chatbots like OpenAI's ChatGPT , Google's Bard , and Microsoft's Bing chat : It's the capacity of modern computer systems to process a lot more data than in the past. It "opens up a lot of possibilities for new insights, from biology to medicine to cognitive science," she adds. Cracking the brain's neural code In her research, Tatiana Engel, an assistant professor of neuroscience at Princeton University, uses the same kinds of networks of artificial neurons that are behind most of what we currently call artificial intelligence. But rather than using these to better-target ads, or to generate fake images, or compose text, she and her team use them to interpret the electrical signals of hundreds of neurons at once in the brains of animals. Dr. Engel and her team then go a step further: they train networks of artificial neurons to perform the same tasks as an animal – say, a swimming worm. They then find that those artificial networks organize themselves in ways that reasonably approximate the way they're organized in real animals. While neural networks in the brain are vastly more complicated, the result of this simulation is a model system that is both close enough to its biological equivalent, and simple enough, to teach us things about how the real brain works, Dr. Engel says. more keywords One key insight this yields is that the actual substance of thought – the patterns that constitute the mind you're using to read this sentence – is dynamic electrical activity in our brains rather than something physically anchored to particular neurons. In other words, in contrast to what neuroscientists once believed about how we make decisions, there are no "eat the chocolate" neurons and "don't eat the chocolate" neurons. Thinking, it turns out, is just electrical signals zooming about inside our heads, forming a complex code which is carried by our neurons. What's more, AI is letting scientists listen in on the things that happen in our brains when we're not doing anything in particular. "This allows us to discover the brain's internal life," says Dr. Engel. Do androids dream of electric sheep? We don't know yet, but we may soon be able to determine if humans are thinking about the real thing. Real-life mind reading If a research lab owned by Meta Platforms, Facebook's parent company, figuring out how to read your mind makes you at all uncomfortable, you're probably not going to be a fan of what the rest of the 21st century has in store. Historically, it's been very difficult to measure brain activity inside our heads, because the electrical signals generated by our brains, which are miniscule to begin with, must be measured from outside of our skulls. (Elon Musk's aspirations for his Neuralink startup notwithstanding, opening up our heads and putting in brain interfaces hasn't proved popular.) But progress in artificial intelligence techniques is yielding a more-powerful amplifier of those weak brain signals. Meta's AI lab published research on one such mind-reading technology last summer. Meta scientists didn't actually stick anyone in a brain scanner. Instead, they used data on brain signals gathered by researchers at universities. This data was captured from human subjects who were listening to words and phrases, while sitting in non-invasive brain scanners. These scanners came in two varieties: One was the sort of electrodes-embedded-in-a-swim-cap with which many people are familiar, called an EEG (short for "electroencephalogram"). The other looks like a supervillain's attempt to create a world-crushing megabrain, called a MEG (for "magnetoencephalogram"). To analyze this data, researchers used a type of AI called a "self-supervised learning model." Without this technique, the latest generation of AI chatbots would be impossible. Such models can extract meaning from giant pools of data without any instruction from humans, and have also been used to try and figure out what animals are communicating with each other . A little less than half of the time, Meta's AI algorithm was able to correctly guess what words a person had heard, based on the activity generated in their brains. That might not sound too impressive, but it's leaps and bounds better than what such systems have been able to achieve in the past. Alexandre Défossez, a scientist at Meta who was part of the team that conducted this research, says that the eventual goal of this work is to create a general-purpose "speech decoder" that can directly transform our brain activity–our thoughts–into words. Imagine texting a friend just by thinking about it – as long as you're wearing an EEG cap at the moment, at any rate. The technology could have a big impact on the lives of people who are unable to communicate in other ways, adds Dr. Défossez. It's just one more example of the way that AI might someday give us the tools for improving our individual and collective well-being – or at least an explanation for why, in the age of social media, both of those things frequently seem so deranged . Write to Christopher Mims at christopher.mims@wsj.com Credit: By Christopher Mims
Thế giới đã học được rất nhiều về trí tuệ nhân tạo gần đây, nhờ sự xuất hiện của các chatbot giống con người kỳ lạ. Ít chú ý hơn, nhưng cũng quan trọng ngang như vậy: Các nhà nghiên cứu đang học được rất nhiều về chúng ta - với sự giúp đỡ của trí tuệ nhân tạo. Trí tuệ nhân tạo đang giúp các nhà khoa học giải mã cách các tế bào thần kinh trong não của chúng ta giao tiếp và khám phá bản chất của tri giác. Nghiên cứu mới này có thể dẫn đến con người kết nối với máy tính chỉ bằng suy nghĩ - thay vì gõ hoặc lệnh giọng nói. Nhưng còn rất lâu trước khi những tầm nhìn như vậy trở thành hiện thực. Tôi nói cà chua, bạn nói pangolin Celeste Kidd, giáo sư tâm lý học tại Đại học California, Berkeley, đã bất ngờ với những gì cô phát hiện khi cố gắng khảo sát phạm vi ý kiến mà mọi người có về một số chính trị gia nhất định, bao gồm Barack Obama và Donald Trump. Nghiên cứu của cô được dự định để khám phá sự chênh lệch ngày càng rộng lớn về cách chúng ta hiểu về những đối tượng mà chúng ta gắn liền với các đánh giá đạo đức - như các chính trị gia. Công việc trước đó đã chỉ ra rằng các khái niệm đầy đạo đức là những khái niệm mà mọi người hiểu theo cách chia rẽ nhất. Để xác định một cơ sở cho thí nghiệm của mình, cô bắt đầu bằng cách hỏi hàng ngàn người tham gia nghiên cứu về các mối liên hệ của họ với danh từ chung, trong trường hợp này là động vật. Những gì cô phát hiện ra là ngay cả đối với những loài động vật thông thường - bao gồm gà, cá voi và cá hồi - các khái niệm của người ta về các đặc điểm của chúng rất phức tạp. Cá voi có trọng vẻ? Bạn sẽ bất ngờ khi biết ai không đồng ý. Có người cho rằng chim cánh cụt nặng? Ý kiến khác nhau. Bằng cách trắc nghiệm người ta về nhiều mối liên hệ như vậy, tiến sĩ Kidd đã có thể tích lũy một bể dữ liệu phân cụm người dựa trên những mối liên hệ này mà họ đồng ý. Sử dụng phương pháp này, cô phát hiện rằng mọi người có thể được phân nhóm vào giữa 10 đến 30 nhóm khác nhau, tùy thuộc vào cách nhìn nhận của họ về một con vật. Tiến sĩ Kidd và đội ngũ của cô kết luận rằng con người có xu hướng không nhìn thấy một cách chính xác về các đặc điểm cơ bản nhất của các đối tượng phổ biến. Chúng ta cũng đánh giá cao quá nhiều người nhìn nhận mọi thứ giống như chúng ta. Trong một thế giới mà cảm giác như con người đang ngày càng nói lên ngoài tai nhau, nguyên nhân của hiện tượng này có thể là sự thật rằng ngay cả đối với công dân của một quốc gia nói chung một ngôn ngữ chung, các từ đơn giản không có nghĩa giống nhau với những người khác nhau. Điều đó có vẻ không phải là một quan sát rất sâu sắc, nhưng những nghiên cứu của tiến sĩ Kidd cho thấy mức độ đó có thể lớn hơn nhiều so với những gì các nhà tâm lý học từng nghĩ. Để đạt được thông tin này, yêu cầu áp dụng một công cụ toán học làm cho nhiều loại trí tuệ nhân tạo trở nên khả thi - được gọi là "mô hình phân cụm". Đặc điểm quan trọng nhất của trí tuệ nhân tạo cho phép nghiên cứu mới, tiến sĩ Kidd cho biết, chính là điều làm cho các chatbot trí tuệ nhân tạo như ChatGPT của OpenAI, Bard của Google và Bing chat của Microsoft trở nên khả thi: đó là khả năng của các hệ thống máy tính hiện đại xử lý nhiều dữ liệu hơn so với trước đây. Nó "mở ra rất nhiều khả năng cho những hiểu biết mới, từ sinh học đến y học và khoa học nhận thức", cô nói. Mã hóa não của não bộ Trong nghiên cứu của mình, Tatiana Engel, giáo sư trợ lý về dịch vụ thần kinh tại Đại học Princeton, sử dụng cùng các mạng tế bào thần kinh nhân tạo mà hầu hết những gì chúng ta hiện nay gọi là trí tuệ nhân tạo. Nhưng thay vì sử dụng chúng để tăng cường mục tiêu quảng cáo hoặc tạo ra hình ảnh giả hoặc soạn thảo văn bản, cô và nhóm của cô sử dụng chúng để giải mã các tín hiệu điện của hàng trăm tế bào thần kinh cùng lúc trong não động vật. Sau đó, tiến sĩ Engel và nhóm của cô tiến thêm một bước: họ huấn luyện các mạng tế bào thần kinh nhân tạo để thực hiện cùng một nhiệm vụ như một con vật - ví dụ, một chú sâu bơi. Sau đó, họ phát hiện rằng những mạng nhân tạo này tổ chức chính mình theo cách tương đối gần như cách chúng được tổ chức trong các động vật thực. Trong khi các mạng tế bào thần kinh trong não phức tạp hơn rất nhiều, kết quả của mô phỏng này là một hệ thống mô hình gần đúng với tương đương sinh học của nó và đơn giản đủ để chỉ dạy cho chúng ta những điều về cách não thực sự hoạt động, tiến sĩ Engel cho biết. Những hiểu biết này cung cấp một điểm nhìn quan trọng rằng chất liệu thực sự của suy nghĩ - những mô hình tạo nên tâm trí của bạn đang sử dụng để đọc câu này - là hoạt động điện động động trong não của chúng ta thay vì điều gì đó được cố định vật lý trên tế bào thần kinh cụ thể. Nói cách khác, trái với những gì các nhà thần kinh học từng tin rằng về cách chúng ta đưa ra quyết định, không có tế bào thần kinh "ăn sô cô la" và "không ăn sô cô la". Suy nghĩ, như nó đã được biết đến, chỉ là các tín hiệu điện di chuyển trong đầu chúng ta, tạo thành một mã phức tạp được mang bởi các tế bào thần kinh của chúng ta. Hơn nữa, trí tuệ nhân tạo đang cho phép các nhà khoa học lắng nghe những điều xảy ra trong não của chúng ta khi chúng ta không làm bất cứ điều gì đặc biệt. "Điều này cho phép chúng ta khám phá cuộc sống nội tâm của não", tiến sĩ Engel cho biết. Các robot có mơ về những con cừu điện không? Chúng ta vẫn chưa biết, nhưng chúng ta có thể sớm xác định được liệu con người có nghĩ về thứ thật sự hay không. Đọc tâm thực Nếu phòng thí nghiệm nghiên cứu thuộc sở hữu của Meta Platforms, công ty mẹ của Facebook, tìm ra cách đọc suy nghĩ của bạn làm bạn mất thoải mái, bạn có thể sẽ không thích những gì còn lại của thế kỷ 21. Lịch sử cho thấy, việc đo hoạt động não bộ bên trong đầu của chúng ta rất khó khăn, vì các tín hiệu điện được tạo ra bởi não của chúng ta, ban đầu rất nhỏ, phải được đo từ bên ngoài của hộp sọ của chúng ta. (Bất chấp mong muốn khởi nghiệp của Elon Musk cho Neuralink của mình, việc mở đầu đầu của chúng ta và đặt các giao diện não vào đó không được yêu thích.) Nhưng tiến bộ trong các kỹ thuật trí tuệ nhân tạo đang đem lại một bộ khuếch đại tín hiệu não yếu mạnh hơn. Phòng thí nghiệm trí tuệ nhân tạo của Meta đã công bố nghiên cứu về một công nghệ đọc suy nghĩ như vậy vào mùa hè năm ngoái. Những nhà khoa học của Meta thực chất không thực hiện việc đặt ai vào máy quét não. Thay vào đó, họ sử dụng dữ liệu về tín hiệu não được thu thập bởi các nhà nghiên cứu tại các trường đại học. Dữ liệu này được thu thập từ các chủ thể con người đang nghe các từ và cụm từ, trong khi ngồi trong các máy quét não không xâm lấn. Các máy quét này có hai loại: Một loại là các điện cực được nhúng trong một chiếc mũ bơi mà nhiều người quen thuộc, gọi là EEG (viết tắt của "điện não đồ"). Loại khác giống như một nỗ lực của những kẻ phản diện để tạo ra một bộ não siêu việt thế giới, gọi là MEG (viết tắt của "từ từ từ đo động học"). Để phân tích dữ liệu này, các nhà nghiên cứu đã sử dụng một loại trí tuệ nhân tạo gọi là "mô hình học tự chủ động". Nếu không có kỹ thuật này, thế hệ chatbot AI mới nhất sẽ không thể có. Những mô hình như vậy có thể trích xuất ý nghĩa từ các bể dữ liệu khổng lồ mà không có bất kỳ hướng dẫn nào từ con người, và cũng đã được sử dụng để tìm hiểu những gì động vật đang giao tiếp với nhau. Chỉ hơi ít hơn một nửa thời gian, thuật toán trí tuệ nhân tạo của Meta đã đoán được chính xác những từ mà một người đã nghe, dựa trên hoạt động được tạo ra trong não của họ. Điều đó có thể không nghe có vẻ quá ấn tượng, nhưng nó đã tiến bộ rất nhiều so với những gì các hệ thống như vậy đã đạt được trong quá khứ. Alexandre Défossez, một nhà khoa học tại Meta và là thành viên của nhóm nghiên cứu này, cho biết mục tiêu cuối cùng của công việc này là tạo ra một "máy giải mã lời nói" đa dụng có thể chuyển đổi trực tiếp hoạt động não của chúng ta - suy nghĩ của chúng ta - thành từ ngữ. Hãy tưởng tượng bạn gửi tin nhắn cho một người bạn chỉ bằng cách nghĩ về nó - miễn là bạn đang đeo mũ EEG vào thời điểm đó. Công nghệ này có thể có tác động lớn đến cuộc sống của những người không thể giao tiếp bằng các phương tiện khác, thêm vào đó là tiến sĩ Défossez. Đó chỉ là một ví dụ khác về cách mà trí tuệ nhân tạo có thể trong tương lai cung cấp cho chúng ta các công cụ để cải thiện sức khỏe và tinh thần của chúng ta - hoặc ít nhất là một giải thích cho tại sao, trong thời đại của truyền thông xã hội, cả hai điều này thường có vẻ rối loạn. Viết cho Christopher Mims tại christopher.mims@wsj.com Tác giả: Christopher Mims
Generative AI Is Already Changing White-Collar Work as We Know It; Executives from Walmart, ZipRecruiter, Yelp and other companies share their thoughts on ChatGPT (WSJ 29-3)
As ChatGPT and other generative artificial-intelligence programs infiltrate workplaces , white-collar jobs are transforming the fastest. That professional and office work is changing so fast is according to a panel of executives who addressed thousands of professionals and job seekers at Tuesday's WSJ Jobs Summit. The biggest workplace challenge so far this year across industries is how to adapt to the rapidly evolving role of AI in office work, they say. "AI is the next revolution and there is no going back," Melissa Werneck, executive vice president and global chief people officer at Kraft Heinz Co. said. As long as artificial intelligence has existed, so have the predictions that it could disrupt—and someday replace—blue-collar work. Now, according to a new study by researchers at the University of Pennsylvania and OpenAI, most jobs will be changed in some form by generative pretrained transformers, or GPTs , which use machine learning based on internet data to generate any kind of text, from creative writing to code. Many executives and analysts said that transformation is already taking shape, and workers can find ways to use the ChatGPT and other new technology to free them from boring work. "Every month there are hundreds more job postings mentioning generative AI," said Julia Pollak, chief economist at ZipRecruiter Inc., an online marketplace for job seekers and employers. Coursera CEO Jeff Maggioncalda at the WSJ Jobs Summit. PHOTO: The Wall Street Journal Be willing to adapt and learn One thing leaders from sectors including retail, e-learning and consumer packaged goods agreed on is this moment's level of uncertainty. Several executives mentioned inflation, political tensions and fears of a potential recession that continue to mount. Jeff Maggioncalda, chief executive of Coursera Inc., said that amid all the chaos, there are opportunities to improve the workforce. "The way things have been done in the past aren't necessarily the way they need to be done today," he said, adding that workers and employers should invest in retraining and upskilling where possible. People who are willing to experiment should come out ahead, said Ms. Pollak. "There is an enormous demand for people who are tech-savvy and who will be the first adopters, who will be the first to figure out what opportunities these technologies open up," she said. Work with AI, not against it The jobs of the future will require a mind-set shift for employees, several executives said. Rather than viewing generative AI and other machine-learning software as a threat, workers should embrace new technology as a way to free them from less-rewarding work and augment their strengths. "The level by which we can all operate will be enhanced by virtue of technology," said Donna Morris, Walmart Inc.'s chief people officer. "This is a huge opportunity to advance a lot of professions—allow people to do work that's, frankly, more stimulating." Malaika Myers, Hyatt Hotels Corp.'s chief human-resources officer, said she doesn't see AI replacing workers soon, but expects it to better serve and engage consumers. For the hotel chain, that could look like using AI to determine which brand of wine a guest likes, and adjusting recommendations accordingly. United Airlines Holdings Inc., aims to use AI to do transactions that shouldn't require a human, such as placing someone in an aisle or window seat depending on their preference, or suggesting a different flight for someone trying to book a tight connection, said Kate Gebo, executive vice president of human resources and labor relations. That leaves employees free to have more complex interactions with customers, she added. Sima Sistani, CEO of WeightWatchers parent company WW International, at the WSJ Jobs Summit. PHOTO: The Wall Street Journal AI can't do everything Workers—and bosses—would be wise to remember that AI can't replace a human touch, several executives stressed. Sima Sistani, CEO of WeightWatchers parent company WW International Inc., said services intended to help customers solve emotional problems require solutions a machine can't provide. "AI is not sentient. It can't be emotional. And that is the kind of accountability and reciprocity that is needed…for people to have the outcomes that we're hoping to provide," she said of the weight-loss and lifestyle company. Ms. Werneck of Kraft Heinz said that what is keeping her up at night is figuring out how AI can be co-piloted by talented people, instead of becoming something that runs on autopilot, replacing people. "My advice is be curious, research it, try to understand how it can be used," she said. At Yelp Inc., employees are experimenting through internal pilot projects to see what ChatGPT could be used for, without eroding trust with consumers and employees. "Certain business processes could be enhanced," said Carmen Whitney Orr, Yelp's chief people officer, adding that there are plenty of concerns, too. "We don't want it for high human-touch things." Write to Gretchen Tarrant at gretchen.tarrant@wsj.com Credit: By Gretchen Tarrant
Trong khi ChatGPT và các chương trình trí tuệ nhân tạo khác tiến vào các nơi làm việc, các công việc văn phòng đang chuyển đổi nhanh nhất. Đó là nhận định của một nhóm các giám đốc điều hành đã phát biểu trước hàng nghìn chuyên gia và người tìm việc tại Hội nghị WSJ Jobs Summit vào thứ Ba. Công việc chuyển đổi nhanh chóng nhất trong các ngành nghề hiện nay chính là làm thế nào để thích ứng với vai trò của trí tuệ nhân tạo đang ngày càng phát triển trong công việc văn phòng, họ nói. "Trí tuệ nhân tạo là cuộc cách mạng tiếp theo và không có lựa chọn nào", Melissa Werneck, phó chủ tịch điều hành và giám đốc nhân sự toàn cầu của Kraft Heinz Co. nói. Trong thời gian trí tuệ nhân tạo tồn tại, luôn có những dự đoán rằng nó có thể làm gián đoạn - và một ngày nào đó thay thế - các công việc lao động chân tay. Nay, theo một nghiên cứu mới của các nhà nghiên cứu đến từ Đại học Pennsylvania và OpenAI, hầu hết các công việc sẽ được thay đổi bằng một cách nào đó bởi các bộ biến đổi được tiền huấn luyện sinh ra, hoặc GPTs, sử dụng học máy dựa trên dữ liệu internet để tạo bất kỳ loại văn bản nào, từ viết sáng tạo đến code. Nhiều giám đốc điều hành và chuyên gia cho biết sự chuyển đổi đó đã bắt đầu hình thành, và các nhân viên có thể tìm cách sử dụng ChatGPT và các công nghệ mới khác để giải phóng họ khỏi công việc nhàm chán. "Hàng tháng có hàng trăm bài đăng tuyển dụng đề cập đến trí tuệ nhân tạo sinh sáng", Julia Pollak, chuyên gia kinh tế trưởng tại ZipRecruiter Inc., một thị trường trực tuyến dành cho người tìm việc và nhà tuyển dụng, nói. Sẵn lòng thích nghi và học hỏi Một điều mà các nhà lãnh đạo đến từ các lĩnh vực bao gồm bán lẻ, học tập trực tuyến và hàng tiêu dùng được đồng ý là mức độ không chắc chắn của thời điểm này. Một số giám đốc điều hành đã đề cập đến lạm phát, căng thẳng chính trị và nỗi sợ hãi về khủng hoảng kinh tế tiềm năng vẫn đang gia tăng. Jeff Maggioncalda, giám đốc điều hành của Coursera Inc., nói rằng giữa tất cả những mối loạn lạc đó, có cơ hội để cải thiện lực lượng lao động. "Cách thức làm việc trong quá khứ không nhất thiết là cách thức làm việc cần thiết hôm nay", ông nói, thêm rằng người lao động và nhà tuyển dụng nên đầu tư vào đào tạo lại và nâng cao kỹ năng khi có thể. Những người sẵn lòng thử nghiệm sẽ có lợi thế, bà Pollak nói. "Có nhu cầu khổng lồ cho những người hiểu biết về công nghệ và những người sẽ là những người sử dụng đầu tiên, những người sẽ là những người đầu tiên tìm ra những cơ hội mà các công nghệ này mở ra," bà nói. Làm việc với trí tuệ nhân tạo, không phải chống lại nó Các công việc của tương lai sẽ yêu cầu một sự thay đổi tư duy đối với nhân viên, nhiều giám đốc điều hành nói. Thay vì xem trí tuệ nhân tạo sinh sáng và các phần mềm học máy khác như một mối đe dọa, người lao động nên chào đón công nghệ mới như một cách để giải phóng họ khỏi công việc ít bổ ích và tăng cường điểm mạnh của họ. "Trình độ mà chúng ta có thể hoạt động sẽ được nâng cao nhờ vào công nghệ", Donna Morris, giám đốc nhân sự của Walmart Inc. nói. "Đây là cơ hội lớn để nâng cao nhiều nghề nghiệp - cho phép mọi người làm việc mà thật sự thú vị." Malaika Myers, giám đốc nhân sự chính của Hyatt Hotels Corp., nói cô không thấy trí tuệ nhân tạo sẽ thay thế nhân viên sớm, nhưng hy vọng nó sẽ phục vụ và tương tác tốt hơn với người tiêu dùng. Đối với chuỗi khách sạn, điều đó có thể nhìn như sử dụng trí tuệ nhân tạo để xác định loại rượu mà một khách hàng thích, và điều chỉnh các gợi ý phù hợp. United Airlines Holdings Inc. muốn sử dụng trí tuệ nhân tạo để thực hiện các giao dịch không cần thiết phải có người, chẳng hạn như đặt một người vào ghế hành khách hoặc ghế cửa sổ tùy theo sở thích của họ, hoặc đề xuất một chuyến bay khác cho người cố gắng đặt chuyến bay kết nối chặt chẽ, Kate Gebo, phó chủ tịch điều hành của nguồn nhân lực và quan hệ lao động, nói thêm rằng điều đó để lại cho nhân viên tự do có các tương tác phức tạp hơn với khách hàng. Trí tuệ nhân tạo không thể làm được tất cả Các nhân viên - và cấp trên - nên nhớ rằng trí tuệ nhân tạo không thể thay thế được sự chạm tay của con người, nhiều giám đốc điều hành nhấn mạnh. Sima Sistani, CEO của công ty mẹ WeightWatchers WW International Inc., nói các dịch vụ nhằm giúp khách hàng giải quyết các vấn đề cảm xúc yêu cầu các giải pháp mà máy tính không thể cung cấp. "Trí tuệ nhân tạo không có cảm xúc. Nó không thể cảm thấy được. Và đó là loại trách nhiệm và sự tương quan cần thiết ... để mọi người có những kết quả mà chúng tôi hy vọng cung cấp," cô nói về công ty giảm cân và lối sống. Bà Werneck của Kraft Heinz nói rằng điều khiến cô không ngủ yên là tìm cách nào để trí tuệ nhân tạo có thể được điều khiển bởi những người tài năng, thay vì trở thành một thứ chạy trên chế độ tự động thay thế con người. "Lời khuyên của tôi là hãy tò mò, tìm hiểu, cố gắng hiểu được nó có thể được sử dụng như thế nào," bà nói. Tại Yelp Inc., nhân viên đang thử nghiệm qua các dự án thử nghiệm nội bộ để xem ChatGPT có thể được sử dụng cho mục đích gì, mà không làm giảm niềm tin của khách hàng và nhân viên. "Các quy trình kinh doanh cụ thể có thể được tăng cường," Carmen Whitney Orr, giám đốc nhân sự của Yelp, nói thêm rằng cũng có nhiều lo ngại. "Chúng tôi không muốn nó cho những điều kết nối cao với con người." Viết cho Gretchen Tarrant tại [gretchen.tarrant@wsj.com](mailto:gretchen.tarrant@wsj.com) Tín dụng: Bởi Gretchen Tarrant
Generative AI Tools Use Custom Data to Power More Business Functions; Tapping industry-specific data in areas such as financial management or marketing provides an edge in a crowded AI market, analysts say (29-3-23 WSJ)
Business software makers in financial management, design and other areas are rolling out generative artificial intelligence tools that pack troves of industry-specific data into customized applications, aiming for an edge in an already crowded market. By leveraging data gathered from specific business functions—in some cases stockpiled from decades of commercial use—software firms can offer AI tools fine-tuned for distinct applications, industry analysts said. They can also keep underlying algorithms free of extraneous data scraped online from unknown sources, which can produce unreliable results, they said. "One of the concerns for CIOs with regards to generative AI is understanding the lineage and provenance of the data sources that contribute to the output," said Tim Crawford, CIO strategic adviser at Los Angeles-based enterprise IT advisory firm AVOA. By focusing on human resources, customer experience or digital marketing and media, Mr. Crawford said, "software vendors can ensure that the source data is both relevant and optionally restricted to internally sourced data." Adobe Inc., whose flagship software is used in areas such as corporate presentations, sales and marketing, last week launched its own generative AI model. Named Firefly, the tool is designed to turn user prompts into images and text effects specifically for commercial use. Adobe says it plans to integrate the new tool into such familiar workplace apps as Photoshop and Adobe Illustrator. Firefly is one of several AI-driven products and services the company unveiled this month. Trained on the company's library of hundreds of millions of professional-grade, licensed stock images as well as lapsed-copyright material, Firefly is designed to guard against results that infringe on intellectual-property rights, among other features tailored for commercial users, said Amit Ahuja, Adobe's senior vice president of digital experience business. These and other features set the tool apart from general-use text-to-image platforms, such as OpenAI's Dall-E, which some analysts see as a direct threat to Adobe's core business . Through decades of enterprise-market experience, Mr. Ahuja said, "Adobe has been able to understand how AI fits into business workflows." He said generative AI is a natural extension of that work. Likewise, Ashok Srivastava, chief data officer at TurboTax owner Intuit Inc., said his team is building a generative AI language model for financial management trained on years of interactions with its business customers. "The ecosystem that we're in spans everything from consumers to small businesses," Mr. Srivastava said. That access, he said, gives the company's in-house model a "deep understanding of the financial domain." By pairing company data with generative AI and natural-language technology, the goal is to generate sound financial strategies from users' prompts, making the task of financial management feel more natural, Mr. Srivastava said. "Recent advancements in generative AI, and conversation around ChatGPT in particular, have made everyone take note, and I think everyone is thinking about the implications for their businesses," said Jim Stratton, chief technology officer at human-resources software company Workday Inc. Workday, an early adopter of AI and machine learning, is using generative AI tools "behind the scenes," Mr. Stratton said. That includes models designed to encode documents and other content for its workplace search and job skills assessment and categorization applications, among other areas. It is also exploring content-generation use cases in its talent management, recruiting, financial and other core software products and services, he said. "CIOs are at the forefront of those conversations, and in particular they're thinking about how this technology can—and will—disrupt their industries," Mr. Stratton said. The efforts come as enterprise-market leaders such as Microsoft Corp., Alphabet Inc.'s Google and Salesforce Inc. are investing heavily in generative AI capabilities . Spending in the global generative AI market is expected to reach $42.6 billion by the end of the year, growing at a compound annual rate of 32% to $98.1 billion by 2026, according to market analytics firm PitchBook Data Inc. Both Salesforce and Microsoft, which plans to invest billions of dollars in ChatGPT maker OpenAI, are already working to integrate ChatGPT and its underlying language model, GPT-4, into a range of core enterprise software products and services, said Arun Chandrasekaran, distinguished vice president and analyst at IT research and consulting firm Gartner Inc. Google also has an aggressive road map for bringing its own generative AI models to enterprise customers via Google Cloud and Google Workspace, he said. This week, several AI researchers and tech leaders, including Tesla Inc. CEO Elon Musk—an early investor in OpenAI— called for a pause in the rapid development of AI tools to give the industry time to set safety standards and guard against its misuse. Rowan Curran, an analyst at IT research firm Forrester Research Inc. covering data science, machine learning, artificial intelligence and computer vision, said the generative AI ecosystem is "going to be too large and varied for any one vendor, even a 'hyperscaler', to dominate the space long term." Mr. Curran said he expects to see entry barriers to the generative AI market—such as prohibitively high costs to develop and train models—to loosen over time. That will enable more vendors to offer unique capabilities and fine-tune models that produce better results for the specific context in which they operate, he said. "The explosion of attention around generative AI is driving the developers and providers of these tools to now launch them at a much faster rate than they may have done otherwise," Mr. Curran said. Write to Angus Loten at Angus.Loten@wsj.com Credit: By Angus Loten
Các công ty phát triển phần mềm kinh doanh trong quản lý tài chính, thiết kế và các lĩnh vực khác đang triển khai các công cụ trí tuệ nhân tạo sinh sản chứa các dữ liệu chuyên ngành để phát triển các ứng dụng tùy chỉnh, nhằm tìm kiếm lợi thế trong một thị trường đã rất cạnh trang. Theo các nhà phân tích lĩnh vực, bằng cách tận dụng dữ liệu được thu thập từ các ngành nghề kinh doanh cụ thể - trong một số trường hợp được lưu trữ từ hàng thập kỷ kinh doanh - các công ty phần mềm có thể cung cấp các công cụ trí tuệ nhân tạo được điều chỉnh tốt cho các ứng dụng riêng biệt. Họ cũng có thể cô lập các mô hình AI khỏi các nguồn dữ liệu chất lượng không được kiểm chứng do được thu thập trực tuyến từ các nguồn không rõ ràng có thể dẫn đến kết quả không đáng tin cậy. "Một trong những lo ngại của CIO đối với AI tạo sinh là nắm được nguồn gốc của các nguồn dữ liệu đầu vào," Tim Crawford, cố vấn chiến lược CIO tại công ty tư vấn IT doanh nghiệp AVOA đó là ý kiến của ông. Khi tập trung vào nguồn nhân lực, trải nghiệm khách hàng hoặc tiếp thị kỹ thuật số và truyền thông, ông Crawford nói, "nhà cung cấp phần mềm có thể đảm bảo rằng nguồn dữ liệu phù hợp và có thể giới hạn ở các dữ liệu nội bộ". Công ty Adobe Inc., công ty có các phần mềm nổi tiếng về thuyết trình, bán hàng và tiếp thị, đã tung ra một mô hình AI tạo sinh của riêng mình vào tuần trước. Công cụ được đặt tên là Firefly, được thiết kế để chuyển đổi các lời nhắc của người dùng thành hình ảnh và hiệu ứng văn bản đặc biệt cho mục đích thương mại. Adobe cho biết họ có kế hoạch tích hợp công cụ mới này vào các ứng dụng quen thuộc như Photoshop và Adobe Illustrator. Firefly là một trong số các sản phẩm và dịch vụ được điều hành bởi trí tuệ nhân tạo mà công ty giới thiệu trong tháng này. Được đào tạo trên thư viện hàng trăm triệu hình ảnh chuyên nghiệp được cấp phép cũng như tài liệu không hết hạn bản quyền, Firefly được thiết kế để bảo vệ tránh vi phạm quyền sở hữu trí tuệ và các tính năng khác được điều chỉnh cho người dùng thương mại, Amit Ahuja, phó chủ tịch cấp cao kinh nghiệm số hóa của Adobe cho biết. Những tính năng này và các tính năng khác đặt công cụ này khác biệt so với các nền tảng văn bản-hình ảnh sử dụng chung, chẳng hạn như Dall-E của OpenAI, mà một số nhà phân tích xem là mối đe dọa trực tiếp đối với lĩnh vực kinh doanh chính của Adobe. Có nhiều thập kỷ kinh nghiệm trong thị trường doanh nghiệp, ông Ahuja nói, "Adobe đã hiểu cách thích nghi trí tuệ nhân tạo cho phù hợp với các luồng công việc kinh doanh". Ông nói rằng AI tạo sinh là một sự mở rộng tự nhiên của công việc đó. Tương tự, Ashok Srivastava, giám đốc dữ liệu tại Intuit Inc. - chủ sở hữu TurboTax, nói rằng nhóm của ông đang xây dựng một mô hình ngôn ngữ AI tạo sinh cho quản lý tài chính, mô hình này được đào tạo trong nhiều năm qua thông qua các tương tác với các khách hàng công ty. "Hệ sinh thái của chúng tôi trải dài từ người tiêu dùng đến các doanh nghiệp nhỏ", ông Srivastava nói. Nhờ đó, ông nói, mô hình AI nội bộ của công ty có "hiểu biết sâu sắc về lĩnh vực tài chính". Khi kết hợp dữ liệu của công ty với AI tạo sinh và công nghệ ngôn ngữ tự nhiên, mục tiêu nhắm đến là tạo ra các chiến lược tài chính hợp lý từ các lời nhắc của người dùng, giúp công tác quản lý tài chính trở nên gần gũi hơn, ông Srivastava cho biết. "Các tiến bộ gần đây của AI tạo sinh, và đặc biệt là các thảo luận về ChatGPT đã khiến mọi người chú ý, và tôi nghĩ mọi người đang suy nghĩ về các tác động đối với doanh nghiệp của họ", Jim Stratton, giám đốc công nghệ tại công ty phần mềm nguồn nhân lực Workday Inc. đã nói. Workday, một công ty sớm sử dụng trí tuệ nhân tạo và học máy, đang sử dụng các công cụ AI tạo sinh ở "sau hậu trường", ông Stratton nói. Quy trình gồm các mô hình được thiết kế để mã hóa tài liệu và các nội dung khác cho các ứng dụng tìm kiếm và đánh giá và phân loại kỹ năng công việc. Công ty cũng đang tìm hiểu các khả năng ứng dụng tạo nội dung trong các sản phẩm và dịch vụ phần mềm cốt lõi khác nhau như quản lý tài năng, tuyển dụng, tài chính, ông cho biết. "Các CIO đang tham gia tích cực vào cuộc thảo luận đó, và đặc biệt là họ đang suy nghĩ về tác động của công nghệ này đối với các ngành của họ", ông Stratton cho biết. Trong khi đó các các công ty dẫn đầu thị trường doanh nghiệp như Microsoft Corp., Google của Alphabet Inc. và Salesforce Inc. đang đầu tư mạnh để tăng sức mạnh cho các AI tạo sinh. Chi tiêu trong thị trường AI tạo sinh toàn cầu dự kiến sẽ đạt 42,6 tỷ đô la vào cuối năm nay, tăng trưởng với tỷ lệ hàng năm 32% đến 98,1 tỷ đô la vào năm 2026, theo công ty phân tích thị trường PitchBook Data Inc. Cả Salesforce và Microsoft, có kế hoạch đầu tư hàng tỉ đô la vào OpenAI, để tích hợp ChatGPT và mô hình ngôn ngữ cơ bản như GPT-4, vào một loạt các sản phẩm và dịch vụ phần mềm cốt lõi doanh nghiệp, theo Arun Chandrasekaran, phó chủ tịch và nhà phân tích tại công ty nghiên cứu và tư vấn IT Gartner Inc. Google cũng có một lộ trình xây dựng mô hình AI tạo sinh riêng của mình cho khách hàng doanh nghiệp thông qua Google Cloud và Google Workspace, ông nói. Tuần này, một số nhà nghiên cứu trí tuệ nhân tạo và các nhà lãnh đạo công nghệ, bao gồm CEO của Tesla Inc. Elon Musk - một nhà đầu tư sớm của OpenAI - đã kêu gọi tạm dừng sự phát triển nhanh chóng của các công cụ trí tuệ nhân tạo để cho ngành có thời gian thiết lập các tiêu chuẩn an toàn và ngăn chặn việc lạm dụng công nghệ này. Rowan Curran, một nhà phân tích tại công ty nghiên cứu IT Forrester Research Inc. phụ trách khoa học dữ liệu, học máy, trí tuệ nhân tạo và thị giác máy tính, nói rằng hệ sinh thái AI tạo sinh sẽ "quá lớn và đa dạng để bất kỳ nhà cung cấp nào, ngay cả một nhà cung cấp 'tăng tốc', có thể chiếm ưu thế trong không gian dài hạn". Ông Curran cho biết ông hy vọng sẽ thấy các rào cản đối với thị trường trí tuệ nhân tạo sinh sản - chẳng hạn như chi phí phát triển và đào tạo các mô hình rất cao - được nới lỏng theo thời gian. Điều đó sẽ cho phép nhiều nhà cung cấp cung cấp các khả năng độc đáo và điều chỉnh các mô hình để tạo ra kết quả tốt hơn cho ngữ cảnh cụ thể mà chúng hoạt động, ông nói. "Việc dư luận quan tâm đến AI tạo sinh đang thúc đẩy các nhà phát triển và nhà cung cấp các công cụ này ra mắt chúng ở tốc độ nhanh hơn”.
The Contradictions of Sam Altman, AI Crusader; The CEO behind ChatGPT navigates the line between developing artificial intelligence on the cutting edge and pushing technology to dystopia (31-3-23 WSJ)
Sam Altman, the 37-year-old startup-minting guru at the forefront of the artificial intelligence boom , has long dreamed of a future in which computers could converse and learn like humans. One of his clearest childhood memories is sitting up late in his bedroom in suburban St. Louis, playing with the Macintosh LC II he had gotten for his eighth birthday when he had the sudden realization: "Someday, the computer was going to learn to think," he said. In recent months, Mr. Altman has done more than anyone else to usher in this future—and commercialize it. OpenAI, the company he leads, in November released ChatGPT , the chatbot with an uncanny ability to produce humanlike writing that has become one of the most viral products in the history of technology. In the process, OpenAI went from a small nonprofit into a multibillion-dollar company , at near record speed, thanks in part to the launch of a for-profit arm that enabled it to raise $13 billion from Microsoft Corp., according to investor documents. This success has come as part of a delicate balancing act. Mr. Altman said he fears what could happen if AI is rolled out into society recklessly. He co-founded OpenAI eight years ago as a research nonprofit, arguing that it's uniquely dangerous to have profits be the main driver of developing powerful AI models. He is so wary of profit as an incentive in AI development that he has taken no direct financial stake in the business he built, he said—an anomaly in Silicon Valley, where founders of successful startups typically get rich off their equity. "Like most other people, I like watching scores go up," when it comes to financial gains, he said. "And I just like not having that be any factor at all." (The company said he earns a "modest" salary, but declined to disclose how much.) Mr. Altman said he has a small stake in a venture fund that invested in OpenAI, but that it is "immaterial." Mr. Altman said he made "more money than I could ever need" early in his career, when he made a fortune investing in young startups. He owns three homes, including a mansion in San Francisco's Russian Hill neighborhood and a weekend home in Napa Valley, and employs a couple dozen to manage them and his family office of investments and nonprofits. During one of his last visits to his grandmother, who died last year, he bought her groceries and then admitted to his mother that he hadn't been to a grocery store in four or five years, she said. His goal, he said, is to forge a new world order in which machines free people to pursue more creative work. In his vision, universal basic income—the concept of a cash stipend for everyone, no strings attached—helps compensate for jobs replaced by AI. Mr. Altman even thinks that humanity will love AI so much that an advanced chatbot could represent "an extension of your will." In the long run, he said, he wants to set up a global governance structure that would oversee decisions about the future of AI and gradually reduce the power OpenAI's executive team has over its technology. Backers say his brand of social-minded capitalism makes him the ideal person to lead OpenAI. Others, including some who've worked for him, say he's too commercially minded and immersed in Silicon Valley thinking to lead a technological revolution that is already reshaping business and social life. The company signed a $10 billion deal with Microsoft in January that would allow the tech behemoth to own 49% of the company's for-profit entity, investor documents show. The corporate partnership, along with Mr. Altman's push to more aggressively commercialize its technology, have disillusioned key early leaders at OpenAI who felt the decisions violated an initial commitment to develop AI outside the influence of shareholders. One of OpenAI's critics has been Elon Musk, who co-founded the nonprofit in 2015 but parted ways in 2018 after a dispute over its control and direction. The Tesla Inc. CEO tweeted in February that OpenAI had been founded as an open-source nonprofit "to serve as a counterweight to Google, but now it has become a closed source, maximum-profit company effectively controlled by Microsoft. Not what I intended at all." Mr. Altman paused when asked about his co-founder's critique. "I like Elon," he finally responded. "I pay attention to what he has to say." In an open letter made public this week, Mr. Musk and other Silicon Valley luminaries, including Apple Inc. co-founder Steve Wozniak, called for a six-month pause for developing AI more advanced than GPT-4, the latest technology released by OpenAI in March, to stem a technological race that could spiral out of control. Mr. Altman said he doesn't necessarily need to be first to develop artificial general intelligence, a world long imagined by researchers and science-fiction writers where software isn't just good at one specific task like generating text or images but can understand and learn as well or better than a human can. He instead said OpenAI's ultimate mission is to build AGI, as it's called, safely. OpenAI has set profit caps for investors, with any returns beyond certain levels—from seven to 100 times what they put in, depending on how early they invested—flowing to the nonprofit parent, according to investor documents. OpenAI and Microsoft also created a joint safety board, which includes Mr. Altman and Microsoft Chief Technology Officer Kevin Scott, that has the power to roll back Microsoft and OpenAI product releases if they are deemed too dangerous. The possibilities of AGI have led Mr. Altman to entertain the idea that some similar technology created our universe, according to billionaire venture capitalist Peter Thiel, a close friend of Mr. Altman's and an early donor to the nonprofit. He has long been a proponent of the idea that humans and machines will one day merge. ChatGPT's release triggered a stream of competing AI announcements. "They've raced to release press releases," Mr. Altman said of his competitors. "Obviously, they're behind now." Google announced it was testing its own chatbot, Bard, in February and opened access to the public in March. In its founding charter, OpenAI pledged to abandon its research efforts if another project came close to building AGI before it did. The goal, the company said, was to avoid a race toward building dangerous AI systems fueled by competition and instead prioritize the safety of humanity. OpenAI's headquarters, in San Francisco's Mission District, evoke an affluent New Age utopia more than a nonprofit trying to save the world. Stone fountains are nestled amid succulents and ferns in nearly all of the sun-soaked rooms. Mr. Altman gushes about the winding, central staircase he conceived so that all 400 of the company's employees would have a chance to pass each other daily—or at least on the Mondays through Wednesdays they are required to work in-person. The office includes a college-style cafeteria, a self-serve bar and a library modeled after a combination of his favorite bookstore in Paris and the Bender Room, a quiet study space on the top floor of Stanford University's largest library. Dressed in the typical tech CEO uniform of a gray hoodie, jeans and blindingly white sneakers, Mr. Altman described a much more modest upbringing. Mr. Altman grew up in a suburb of St. Louis, the eldest of four children born to Connie Gibstine, a dermatologist, and Jerry Altman, who worked various jobs, including as a lawyer, and died five years ago. The senior Mr. Altman's true vocation was running affordable housing nonprofits, his family said, and he spent years trying to revitalize St. Louis's downtown. Among the lessons his father taught him, Mr. Altman said, was that "you always help people—even if you don't think you have time, you figure it out." Dr. Gibstine said her son was working the family's VCR at age 2 and rebooking his own plane ticket home from camp at 13. By the time he was in third grade, he was helping teachers at his local public school troubleshoot computer problems, she said. In middle school, he transferred to the private John Burroughs School. "Teachers liked him because he was really, really bright and a hard worker, but he was also super social," said Andy Abbott, the head of school, who was a principal at the time. "He was funny and had a big personality." Mr. Altman went on to Stanford, where he did research at an AI lab. By sophomore year he had co-founded Loopt, a location-based social networking service. It became part of the first class of Y Combinator, a startup accelerator that went on to hatch companies like Airbnb Inc., Stripe Inc. and Dropbox Inc., and Mr. Altman left school. Loopt never got traction, selling in 2012 for $43.4 million, or close to the amount investors including Sequoia Capital put in. Mr. Altman then started a venture fund and made powerful allies, including Mr. Thiel and Paul Graham, who co-founded Y Combinator and eventually brought on Mr. Altman. There he helped build the company into a Silicon Valley power broker. He invested his own money in dozens of successful companies early on, including cloud software company Asana Inc. and message-board site Reddit Inc. While running Y Combinator, Mr. Altman began to nurse a growing fear that large research labs like DeepMind, purchased by Google in 2014, were creating potentially dangerous AI technologies outside the public eye. Mr. Musk has voiced similar concerns of a dystopian world controlled by powerful AI machines. Messrs. Altman and Musk decided it was time to start their own lab. Both were part of a group that pledged $1 billion to the nonprofit, OpenAI Inc. Mr. Musk didn't respond to requests for comment. The nonprofit meandered in its early years, experimenting with projects like teaching robots how to perform tasks like solving Rubik's Cubes. OpenAI laid off a chunk of its small staff in 2017. OpenAI researchers soon concluded that the most promising path to achieve artificial general intelligence rested in large language models, or computer programs that mimic the way humans read and write. Such models were trained on large volumes of text and required a massive amount of computing power that OpenAI wasn't equipped to fund as a nonprofit, according to Mr. Altman. "We didn't have a visceral sense of just how expensive this project was going to be," he said. "We still don't." That year, Mr. Altman said he looked into options to raise more money for OpenAI, such as securing federal funding and launching a new cryptocurrency. "No one wanted to fund this in any way," he said. "It was a really hard time." Tensions also grew with Mr. Musk, who became frustrated with the slow progress and pushed for more control over the organization, people familiar with the matter said. OpenAI executives ended up reviving an unusual idea that had been floated earlier in the company's history: creating a for-profit arm, OpenAI LP, that would report to the nonprofit parent. Reid Hoffman, a LinkedIn co-founder who advised OpenAI at the time and later served on the board, said the idea was to attract investors eager to make money from the commercial release of some OpenAI technology, accelerating OpenAI's progress. "You want to be there first and you want to be setting the norms," he said. "That's part of the reason why speed is a moral and ethical thing here." The decision further alienated Mr. Musk, the people familiar with the matter said. He parted ways with OpenAI in February 2018. Mr. Musk announced his departure in a company all-hands, former employees who attended the meeting said. Mr. Musk explained that he thought he had a better chance at creating artificial general intelligence through Tesla, where he had access to greater resources, they said. A young researcher questioned whether Mr. Musk had thought through the safety implications, the former employees said. Mr. Musk grew visibly frustrated and called the intern a "jackass," leaving employees stunned, they said. It was the last time many of them would see Mr. Musk in person. Soon after, an OpenAI executive commissioned a "jackass" trophy for the young researcher, which was later presented to him on a pillow. "You've got to have a little fun," Mr. Altman said. "This is the stuff that culture gets made out of." Mr. Musk's departure marked a turning point. Later that year, OpenAI leaders told employees that Mr. Altman was set to lead the company. He formally became CEO and helped complete the creation of the for-profit subsidiary in early 2019. OpenAI said that it received about $130 million in contributions from the initial $1 billion pledge, but that further donations were no longer needed after the for-profit's creation. Mr. Musk has tweeted that he donated around $100 million to OpenAI. In the meantime, Mr. Altman began hunting for investors. His break came at Allen & Co.'s annual conference in Sun Valley, Idaho in the summer of 2018, where he bumped into Satya Nadella, the Microsoft CEO, on a stairwell and pitched him on OpenAI. Mr. Nadella said he was intrigued. The conversations picked up that winter. "I remember coming back to the team after and I was like, this is the only partner," Mr. Altman said. "They get the safety stuff, they get artificial general intelligence. They have the capital, they have the ability to run the compute." Mr. Altman shared the contract with employees as it was being negotiated, hosting all-hands and office hours to allay concerns that the partnership contradicted OpenAI's initial pledge to develop artificial intelligence outside the corporate world, the former employees said. Some employees still saw the deal as a Faustian bargain. OpenAI's lead safety researcher, Dario Amodei, and his lieutenants feared the deal would allow Microsoft to sell products using powerful OpenAI technology before it was put through enough safety testing, former employees said. They felt that OpenAI's technology was far from ready for a large release—let alone with one of the world's largest software companies—worrying it could malfunction or be misused for harm in ways they couldn't predict. Mr. Amodei also worried the deal would tether OpenAI's ship to just one company—Microsoft—making it more difficult for OpenAI to stay true to its founding charter's commitment to assist another project if it got to AGI first, the former employees said. Microsoft initially invested $1 billion in OpenAI. While the deal gave OpenAI its needed money, it came with a hitch: exclusivity. OpenAI agreed to only use Microsoft's giant computer servers, via its Azure cloud service, to train its AI models, and to give the tech giant the sole right to license OpenAI's technology for future products. "You kind of have to jump off the cliff and hope you land," Mr. Nadella said in a recent interview. "That's kind of how platform shifts happen." "The deal completely undermines those tenets to which they secured nonprofit status," said Gary Marcus, an emeritus professor of psychology and neural science at New York University who co-founded a machine-learning company. Mr. Altman "has presided over a 180-degree pivot that seems to me to be only giving lip service to concern for humanity," he said. Mr. Altman disagreed. "The unusual thing about Microsoft as a partner is that it let us keep all the tenets that we think are important to our mission," he said, including profit caps and the commitment to assist another project if it got to AGI first. The cash turbocharged OpenAI's progress, giving researchers access to the computing power needed to improve large language models, which were trained on billions of pages of publicly available text. OpenAI soon developed a more powerful language model called GPT-3 and then sold developers access to the technology in June 2020 through packaged lines of code known as application program interfaces, or APIs. Mr. Altman and Mr. Amodei clashed again over the release of the API, former employees said. Mr. Amodei wanted a more limited and staged release of the product to help reduce publicity and allow the safety team to conduct more testing on a smaller group of users, former employees said. Mr. Amodei left the company a few months later along with several others to found a rival AI lab called Anthropic. "They had a different opinion about how to best get to safe AGI than we did," Mr. Altman said. Anthropic has since received more than $300 million from Google this year and released its own AI chatbot called Claude in March, which is also available to developers through an API. In a recent investment deck, Anthropic said it was "committed to large-scale commercialization" to achieve the creation of safe AGI, and that it "fully committed" to a commercial approach in September. The company was founded as an AI safety and research company and said at the time that it might look to create commercial value from its products. In the three years after the initial deal, Microsoft invested a total of $3 billion in OpenAI, according to investor documents. More than one million users signed up for ChatGPT within five days of its November release, a speed that surprised even Mr. Altman. It followed the company's introduction of DALL-E 2 , which can generate sophisticated images from text prompts. The internet blew up with anecdotes about people using ChatGPT to create sonnets or plan toddler birthday parties. By February, it had reached 100 million users, according to analysts at UBS, the fastest pace by a consumer app in history to reach that mark. Mr. Altman's close associates praise his ability to balance OpenAI's priorities. No one better navigates between the "Scylla of misplaced idealism" and the "Charybdis of myopic ambition," Mr. Thiel said. Mr. Altman said he delayed the release of the latest version of its model, GPT-4, from last year to March to run additional safety tests. Users had reported some disturbing experiences with the model, integrated into Bing, where the software hallucinated—meaning it made up answers to questions it didn't know. It issued ominous warnings and made threats. "The way to get it right is to have people engage with it, explore these systems, study them, to learn how to make them safe," Mr. Altman said. After Microsoft's initial investment is paid back, it would capture 49% of OpenAI's profits until the profit cap, up from 21% under prior arrangements, the documents show. OpenAI Inc., the nonprofit parent, would get the rest. Mr. Altman's other projects include Worldcoin, a company he co-founded that seeks to give cryptocurrency to every person on earth. He has put almost all his liquid wealth in recent years in two companies. He has put $375 million into Helion Energy, which is seeking to create carbon-free energy from nuclear fusion and is close to creating "legitimate net-gain energy in a real demo," Mr. Altman said. He has also put $180 million into Retro, which aims to add 10 years to the human lifespan through "cellular reprogramming, plasma-inspired therapeutics and autophagy," or the reuse of old and damaged cell parts, according to the company. He noted how much easier these problems are, morally, than AI. "If you're making nuclear fusion, it's all upside. It's just good," he said. "If you're making AI, it is potentially very good, potentially very terrible." Deepa Seetharaman and Miles Kruppa contributed to this article. Write to Berber Jin at berber.jin@wsj.com and Keach Hagey at Keach.Hagey@wsj.com Credit: By Berber Jin and Keach Hagey | Photographs by Clara Mokri for The Wall Street Journal
Sam Altman, nhà sáng lập khởi nghiệp 37 tuổi cùng với sự phát triển của trí tuệ nhân tạo, luôn mơ ước về một tương lai khi máy tính có thể giao tiếp và học tập giống như con người. Một trong những ký ức rõ nét nhất của anh ta trong tuổi thơ là ngồi thức khuya trong phòng ngủ ở ngoại ô St. Louis, chơi với Macintosh LC II mà anh ta đã nhận vào ngày sinh nhật thứ tám của mình khi anh ta bỗng nhận ra: "Một ngày nào đó, máy tính sẽ học được suy nghĩ", anh nói. Trong những tháng gần đây, ông Altman đã làm nhiều hơn bất kỳ ai khác để đưa tương lai này vào cuộc sống và thương mại hóa nó. OpenAI, công ty mà ông ta dẫn đầu, đã phát hành ChatGPT vào tháng 11, trò chuyện với khả năng tạo ra bài viết giống như con người, đã trở thành một trong những sản phẩm lan truyền nhất trong lịch sử công nghệ. Trong quá trình đó, OpenAI đã từ một tổ chức phi lợi nhuận nhỏ thành một công ty đa tỷ USD, gần như tốc độ kỷ lục, nhờ phát triển một cánh tay kinh doanh có lợi nhuận cho phép nó gọi vốn 13 tỷ USD từ Microsoft Corp., theo tài liệu của nhà đầu tư. Thành công này đã đến như một phần trong một sự cân bằng tinh tế. Ông Altman nói rằng anh ta sợ điều gì có thể xảy ra nếu trí tuệ nhân tạo được triển khai một cách vô trách nhiệm trong xã hội. Anh ta đã đồng sáng lập OpenAI tám năm trước như một tổ chức nghiên cứu phi lợi nhuận, luận điểm rằng việc lợi nhuận là động lực chính để phát triển các mô hình trí tuệ nhân tạo mạnh mẽ là một mối đe dọa đặc biệt. Anh ta rất cẩn trọng với lợi nhuận như một động lực trong phát triển trí tuệ nhân tạo đến mức anh ta không có bất kỳ cổ phần tài chính trực tiếp nào trong công ty mà anh ta đã xây dựng, anh nói - một ngoại lệ trong Thung lũng Silicon, nơi những người sáng lập của các khởi nghiệp thành công thường trở nên giàu có từ cổ phần của họ. "Giống như hầu hết những người khác, tôi thích xem điểm số tăng lên," khi nói đến lợi nhuận tài chính, ông nói. "Và tôi chỉ thích không có bất kỳ yếu tố nào ảnh hưởng đến điều đó." (Công ty nói rằng anh ấy nhận một lương "khiêm tốn", nhưng từ chối tiết lộ số tiền đó.) Ông Altman nói rằng anh ta có một số cổ phần nhỏ trong quỹ liên doanh đã đầu tư vào OpenAI, nhưng nó "không đáng kể". Ông Altman nói rằng anh ta đã kiếm được "nhiều tiền hơn anh ta cần bao giờ" vào đầu sự nghiệp của mình, khi anh ta đã đầu tư vào các khởi nghiệp trẻ. Anh ta sở hữu ba ngôi nhà, bao gồm một biệt thự ở khu Russian Hill của San Francisco và một ngôi nhà cuối tuần ở thung lũng Napa, và thuê một vài chục người để quản lý chúng và văn phòng đầu tư và phi lợi nhuận của gia đình. Trong một lần thăm bà nội cuối cùng của mình, người đã qua đời vào năm ngoái, ông ta đã mua thực phẩm cho bà và sau đó thừa nhận với mẹ của mình rằng anh ta chưa từng đi đến cửa hàng tạp hóa trong bốn hoặc năm năm, bà nói. Mục tiêu của anh ta, anh ta nói, là tạo ra một trật tự thế giới mới, trong đó máy móc giải phóng con người để theo đuổi công việc sáng tạo hơn. Theo tầm nhìn của anh ta, thu nhập cơ bản phổ quát - khái niệm về một trợ cấp tiền mặt cho tất cả mọi người, không có bất kỳ ràng buộc nào - giúp bù đắp cho các công việc bị thay thế bởi trí tuệ nhân tạo. Ông Altman thậm chí nghĩ rằng loài người sẽ yêu trí tuệ nhân tạo đến mức một trò chuyện bot tiên tiến có thể đại diện cho "một phần của ý chí của bạn". Trong tương lai dài, ông ta nói rằng ông muốn thiết lập một cơ cấu quản trị toàn cầu để giám sát các quyết định về tương lai của trí thông minh nhân tạo và dần giảm quyền lực của ban điều hành của OpenAI đối với công nghệ của mình. Những người ủng hộ cho rằng hình thức vốn xã hội hướng xã hội của ông là người lý tưởng để dẫn dắt OpenAI. Tuy nhiên, những người khác, bao gồm cả những người đã làm việc cho ông ta, cho rằng ông ta quá tập trung vào mục tiêu kinh doanh và đắm mình trong suy nghĩ của Silicon Valley để dẫn dắt một cuộc cách mạng công nghệ đang thay đổi kinh doanh và đời sống xã hội. Theo tài liệu đầu tư, trong tháng 1 công ty đã ký kết một thỏa thuận trị giá 10 tỷ đô la với Microsoft, cho phép tập đoàn công nghệ này sở hữu 49% của thực thể có mục đích lợi nhuận của công ty. Sự đối tác doanh nghiệp này, cùng với sự thúc đẩy của ông Altman để nâng cao tính thương mại của công nghệ của OpenAI, đã làm mất niềm tin của những nhà lãnh đạo đầu tiên của OpenAI, người cảm thấy các quyết định vi phạm cam kết ban đầu để phát triển trí thông minh nhân tạo bên ngoài tầm ảnh hưởng của cổ đông. Một trong những nhà phê bình của OpenAI là Elon Musk, người đồng sáng lập tổ chức phi lợi nhuận này vào năm 2015 nhưng đã rời khỏi vào năm 2018 sau một tranh chấp về kiểm soát và hướng đi của OpenAI. CEO của Tesla Inc. đã tweet vào tháng 2 rằng OpenAI được thành lập như là một tổ chức phi lợi nhuận mã nguồn mở "để phục vụ như một trọng lực đối kháng với Google, nhưng bây giờ nó đã trở thành một công ty đóng, tối đa hóa lợi nhuận được kiểm soát hiệu quả bởi Microsoft. Không phải là ý định của tôi chút nào." Ông Altman đã dừng lại khi được hỏi về lời phê bình của người đồng sáng lập của mình. "Tôi thích Elon", ông ta cuối cùng trả lời. "Tôi chú ý đến những gì ông ấy nói." Trong một lá thư mở được công khai tuần này, ông Musk và những người nổi tiếng của Silicon Valley khác, bao gồm cựu đồng sáng lập Apple Inc. Steve Wozniak, kêu gọi tạm ngừng sáu tháng để phát triển trí thông minh nhân tạo cao cấp hơn GPT-4, công nghệ mới nhất được phát hành bởi OpenAI vào tháng 3, để ngăn chặn một cuộc đua công nghệ có thể trôi dạt ra ngoài tầm kiểm soát. Ông Altman nói rằng ông không nhất thiết phải là người đầu tiên phát triển trí thông minh nhân tạo tổng quát, một thế giới đã được nhiều nhà nghiên cứu và nhà văn khoa học viễn tưởng mơ ước, nơi phần mềm không chỉ tốt trong một nhiệm vụ cụ thể như tạo văn bản hoặc hình ảnh mà còn có thể hiểu và học tập cũng như hay hơn con người. Thay vào đó, ông nói rằng sứ mệnh cuối cùng của OpenAI là xây dựng AGI, như được gọi là, an toàn. OpenAI đã đặt mức giới hạn lợi nhuận cho các nhà đầu tư, với bất kỳ lợi nhuận vượt qua một số mức nhất định - từ bảy đến 100 lần số tiền họ đầu tư, tùy thuộc vào thời điểm đầu tư của họ - sẽ chảy vào phần mẹ phi lợi nhuận, theo tài liệu đầu tư. OpenAI và Microsoft cũng đã tạo ra một ủy ban an toàn chung, bao gồm cả ông Altman và Giám đốc Công nghệ của Microsoft Kevin Scott, có quyền quay trở lại sản phẩm của Microsoft và OpenAI nếu được coi là quá nguy hiểm. Các khả năng của AGI đã dẫn ông Altman suy nghĩ về ý tưởng rằng một công nghệ tương tự đã tạo ra vũ trụ của chúng ta, theo nhà đầu tư mạo hiểm tỉ phú Peter Thiel, người bạn thân của ông Altman và một nhà tài trợ đầu tiên của tổ chức phi lợi nhuận này. Ông đã lâu đã là người ủng hộ ý tưởng rằng con người và máy móc sẽ hòa nhập vào một ngày nào đó. Việc ra mắt của ChatGPT đã kích hoạt một loạt các thông báo cạnh tranh về trí tuệ nhân tạo. "Đối thủ của tôi đã đua nhau tung ra thông cáo báo chí," ông Altman nói về các đối thủ của mình. "Rõ ràng, họ đang đứng sau bây giờ." Google đã thông báo đang thử nghiệm chatbot của riêng mình, Bard, vào tháng 2 và mở truy cập cho công chúng vào tháng 3. Trong hiến chương thành lập, OpenAI cam kết bỏ dở nỗ lực nghiên cứu nếu dự án khác tiến gần tới việc xây dựng AGI trước khi nó làm được. Mục tiêu, theo công ty, là tránh cuộc đua xây dựng các hệ thống AI nguy hiểm được kích thích bởi sự cạnh tranh và thay vào đó ưu tiên sự an toàn của nhân loại. Trụ sở chính của OpenAI, ở khu Mission của San Francisco, gợi nhớ đến một khu uto-pia New Age giàu có hơn là một tổ chức phi lợi nhuận cố gắng cứu thế giới. Các đài phun nước đá được chôn giấu giữa các loài cây giống và các loài dương xỉ trong hầu hết các phòng ngập nắng. Ông Altman tán thưởng về cái cầu thang trung tâm uốn cong mà ông sáng lập để tất cả 400 nhân viên của công ty có cơ hội gặp nhau hàng ngày - hoặc ít nhất là vào các ngày thứ Hai đến thứ Tư khi họ phải làm việc tại chỗ. Văn phòng bao gồm một căn tin giống như của đại học, một quầy bar tự phục vụ và một thư viện được mô hình theo sự kết hợp của cửa hàng sách yêu thích của ông ở Paris và Bender Room, một không gian học tập yên tĩnh ở tầng trên cùng của thư viện lớn nhất của Đại học Stanford. Trong bộ quần áo thông thường của CEO công nghệ, gồm áo hoodie màu xám, quần jean và giày thể thao trắng chói lóa, ông Altman miêu tả về cuộc sống của mình khi còn nhỏ hơn nhiều. Ông Altman lớn lên ở một khu vực ngoại ô của St. Louis, là con cả trong bốn anh chị em sinh ra cho bác sĩ da liễu Connie Gibstine và Jerry Altman, người đã làm nhiều công việc khác nhau, bao gồm làm luật sư và đã qua đời cách đây năm năm. Gia đình ông Altman nói rằng, công việc thật sự của ông Altman là điều hành các tổ chức phi lợi nhuận về nhà ở giá rẻ và ông đã dành nhiều năm để phục hồi trung tâm thành phố St. Louis. Trong số những bài học mà cha ông dạy cho mình, ông Altman nói rằng: "Bạn luôn giúp đỡ người khác - ngay cả khi bạn không nghĩ rằng bạn có thời gian, bạn sẽ tìm cách giải quyết." Bà Gibstine cho biết con trai của bà đã làm việc với máy VCR của gia đình khi mới 2 tuổi và tự đặt lại vé máy bay của mình trở về từ trại hè khi mới 13 tuổi. Đến thời điểm ông ấy học lớp ba, ông ấy đã giúp giáo viên tại trường công lập địa phương của mình khắc phục sự cố về máy tính, bà nói. Ở trung học cơ sở, ông ấy chuyển sang học tại Trường tư thục John Burroughs. "Giáo viên thích ông ấy vì ông ấy rất, rất thông minh và chăm chỉ, nhưng ông ấy cũng rất xã giao," Andy Abbott, hiệu trưởng trường, người đã từng là một hiệu trưởng trong thời gian đó, nói. "Ông ấy hài hước và có một cái tôi lớn." Ông Altman tiếp tục học tại Đại học Stanford, nơi ông đã tham gia một phòng thí nghiệm AI. Đến năm thứ hai, ông đã đồng sáng lập Loopt, một dịch vụ mạng xã hội dựa trên vị trí. Nó trở thành một phần của lớp đầu tiên của Y Combinator, một trung tâm tăng tốc khởi nghiệp đã tạo ra các công ty như Airbnb Inc., Stripe Inc. và Dropbox Inc., và ông Altman rời khỏi trường học. Loopt không bao giờ được phát triển, bán vào năm 2012 với giá 43,4 triệu đô la, hoặc gần bằng số lượng vốn đầu tư mà Sequoia Capital đầu tư. Ông Altman sau đó bắt đầu một quỹ đầu tư và có được các đồng minh quyền lực, bao gồm ông Thiel và Paul Graham, người đồng sáng lập Y Combinator và cuối cùng đã mời ông Altman. Tại đó, ông đã giúp xây dựng công ty trở thành một nhà môi giới quyền lực tại Silicon Valley. Ông đã đầu tư tiền của mình vào hàng chục công ty thành công từ đầu, bao gồm công ty phần mềm đám mây Asana Inc. và trang web diễn đàn Reddit Inc. Trong khi điều hành Y Combinator, ông Altman bắt đầu nuôi dưỡng nỗi sợ tăng lên rằng các phòng thí nghiệm nghiên cứu lớn như DeepMind, được Google mua vào năm 2014, đang tạo ra các công nghệ AI có tiềm năng nguy hiểm ngoài tầm kiểm soát của công chúng. Ông Musk đã bày tỏ những lo ngại tương tự về một thế giới bị kiểm soát bởi các máy AI mạnh. Ông Altman và Musk quyết định là đến lúc bắt đầu phòng thí nghiệm của chính họ. Cả hai đều là thành viên của một nhóm cam kết 1 tỷ đô la cho tổ chức phi lợi nhuận OpenAI Inc. Ông Musk không đáp lại các yêu cầu để bình luận. Giám đốc điều hành của OpenAI đã đưa ra một ý tưởng lạ lùng đã được đề xuất trước đó trong lịch sử của công ty: tạo ra một chi nhánh có lợi nhuận, OpenAI LP, sẽ báo cáo cho công ty mẹ phi lợi nhuận. Reid Hoffman, người sáng lập LinkedIn đã từng tư vấn OpenAI và sau đó trở thành thành viên hội đồng, cho biết ý tưởng là thu hút các nhà đầu tư mong muốn kiếm tiền từ việc phát hành thương mại của một số công nghệ OpenAI, giúp cho tiến trình của OpenAI được tăng tốc. "Bạn muốn có mặt trước và bạn muốn thiết lập các chuẩn mực," ông nói. "Đó là lý do tại sao tốc độ là một điều đạo đức và đạo đức ở đây." Quyết định này càng làm xa cách thêm Mr. Musk, những người quen với vấn đề nói. Ông đã rời khỏi OpenAI vào tháng 2 năm 2018. Ông Musk thông báo việc rời bỏ trong một cuộc họp toàn bộ công ty, những người cũ đã tham dự cuộc họp nói. Ông Musk giải thích rằng ông nghĩ mình có cơ hội tốt hơn để tạo ra trí tuệ nhân tạo tổng quát thông qua Tesla, nơi ông có quyền truy cập vào các nguồn lực lớn hơn, họ nói. Một nhà nghiên cứu trẻ hỏi ông Musk xem liệu ông ấy đã suy nghĩ về các ảnh hưởng về an toàn, những nhân viên cũ nói. Ông Musk trở nên bực bội và gọi nhân viên thực tập là "kẻ ngu ngốc," để lại nhân viên bàng hoàng, họ nói. Đó là lần cuối cùng nhiều người trong số họ được gặp ông Musk trực tiếp. Ngay sau đó, một giám đốc điều hành của OpenAI đã đặt một chiếc cúp "kẻ ngu ngốc" cho nhà nghiên cứu trẻ, và sau đó trao nó cho anh ta trên một chiếc gối. "Bạn phải có một chút vui vẻ," ông Altman nói. "Đó là những gì mà văn hóa được tạo ra." Việc Musk rời khỏi đánh dấu một điểm quyết định. Vào cuối năm đó, các nhà lãnh đạo OpenAI cho biết Mr. Altman sẽ dẫn dắt công ty. Ông chính thức trở thành CEO và giúp hoàn thành việc tạo ra chi nhánh có lợi nhuận vào đầu năm 2019. OpenAI cho biết công ty đã nhận được khoảng 130 triệu đô la Mỹ từ cam kết ban đầu 1 tỷ đô la Mỹ, nhưng các đóng góp tiếp theo không còn cần thiết sau khi chi nhánh có lợi nhuận được tạo ra. Ông Musk đã tweet rằng ông ấy quyên góp khoảng 100 triệu đô la Mỹ cho OpenAI. Trong khi đó, ông Altman bắt đầu tìm kiếm nhà đầu tư. Cơ hội đến với ông tại hội nghị hàng năm của Allen & Co. ở Sun Valley, Idaho vào mùa hè năm 2018, nơi ông chạm mặt Satya Nadella, CEO của Microsoft, trên cầu thang và giới thiệu về OpenAI. Ông Nadella cho biết ông ấy thấy thú vị. Các cuộc đàm phán được tiếp tục vào mùa đông. "Tôi nhớ khi quay lại đội sau đó và tôi nói, đây là đối tác duy nhất," ông Altman nói. "Họ hiểu về an toàn, họ hiểu về trí tuệ nhân tạo tổng quát. Họ có vốn, họ có khả năng chạy tính toán." Ông Altman đã chia sẻ hợp đồng với nhân viên khi đang đàm phán, tổ chức các cuộc họp toàn thể và giờ làm việc để giảm bớt những lo lắng rằng sự đối tác trái ngược với cam kết ban đầu của OpenAI để phát triển trí tuệ nhân tạo bên ngoài thế giới doanh nghiệp, những nhân viên cũ nói. Một số nhân viên vẫn xem thỏa thuận như một thỏa hiệp với quỷ. Nhà nghiên cứu an toàn hàng đầu của OpenAI, Dario Amodei và các phó cấp của ông ta lo ngại rằng thỏa thuận sẽ cho phép Microsoft bán sản phẩm sử dụng công nghệ OpenAI mạnh mẽ trước khi nó được đưa qua đủ kiểm tra an toàn, những nhân viên cũ nói. Họ cảm thấy rằng công nghệ OpenAI của họ còn rất xa từ sẵn sàng cho một sản phẩm phát hành lớn - chưa kể với một trong những công ty phần mềm lớn nhất thế giới - lo ngại nó có thể hoạt động sai hoặc bị lạm dụng gây hại một cách không thể dự đoán được. Ông Amodei cũng lo ngại rằng thỏa thuận sẽ buộc tàu OpenAI của ông ta chỉ neo với một công ty - Microsoft - làm cho việc giữ trọn vẹn cam kết ban đầu của OpenAI để hỗ trợ một dự án khác nếu nó đạt được AGI trước, những nhân viên cũ nói. Ban đầu, Microsoft đã đầu tư 1 tỷ đô la Mỹ vào OpenAI. Trong khi thỏa thuận đã cung cấp cho OpenAI tiền cần thiết của mình, nó đến với một rào cản: độc quyền. OpenAI đã đồng ý chỉ sử dụng các máy chủ máy tính khổng lồ của Microsoft, thông qua dịch vụ đám mây Azure của nó, để đào tạo các mô hình trí tuệ nhân tạo của mình và để cho công ty công nghệ có quyền độc quyền duy nhất để cấp phép công nghệ OpenAI cho các sản phẩm tương lai. "Bạn phải nhảy khỏi vách núi và hy vọng bạn đáp xuống," ông Nadella nói trong một cuộc phỏng vấn gần đây. "Đó là cách mà các nền tảng chuyển đổi xảy ra." "Thỏa thuận hoàn toàn làm suy yếu những nguyên tắc mà họ đã đảm bảo tình trạng phi lợi nhuận," Gary Marcus, giáo sư giải nghệ về tâm lý học và khoa học thần kinh tại Đại học New York và là người sáng lập một công ty học máy. Ông Altman "đã lãnh đạo một sự thay đổi 180 độ mà theo tôi chỉ là sự dè dặt đối với sự quan tâm đến con người", ông ta nói. Ông Altman không đồng ý. "Điều không thường thấy về Microsoft như một đối tác là rằng nó cho phép chúng tôi giữ tất cả các nguyên tắc mà chúng tôi cho là quan trọng đối với sứ mệnh của chúng tôi", ông ta nói, bao gồm giới hạn lợi nhuận và cam kết hỗ trợ một dự án khác nếu nó đạt được AGI trước. Tiền mặt đã tăng tốc cho tiến trình OpenAI, cho phép các nhà nghiên cứu tiếp cận công nghệ tính toán cần thiết để cải thiện các mô hình ngôn ngữ lớn, được đào tạo trên hàng tỷ trang văn bản công khai. OpenAI sớm phát triển một mô hình ngôn ngữ mạnh hơn có tên GPT-3 và sau đó bán quyền truy cập vào công nghệ này cho các nhà phát triển thông qua các dòng mã đóng gói được biết đến là các giao diện chương trình ứng dụng hoặc API vào tháng 6 năm 2020. Các cựu nhân viên cho biết ông Altman và ông Amodei lại xung đột về việc phát hành API. Ông Amodei muốn giới hạn và phát hành sản phẩm theo từng giai đoạn để giúp giảm sự quan tâm của công chúng và cho phép nhóm an toàn thực hiện thêm nhiều kiểm tra trên một nhóm người dùng nhỏ hơn. Ông Amodei rời công ty vài tháng sau đó cùng với một số người khác để thành lập một phòng thí nghiệm AI đối thủ có tên là Anthropic. "Họ có ý kiến khác về cách tiếp cận an toàn AGI tốt nhất so với chúng tôi," ông Altman nói. Anthropic đã nhận được hơn 300 triệu đô la từ Google trong năm nay và phát hành chatbot AI riêng của mình có tên là Claude vào tháng Ba, cũng có sẵn cho các nhà phát triển thông qua API. Trong một gói đầu tư gần đây, Anthropic nói rằng nó "cam kết với quy mô lớn hóa thương mại" để đạt được sự tạo ra AGI an toàn và rằng nó "hoàn toàn cam kết" với một phương tiện tiếp cận thương mại vào tháng 9. Công ty được thành lập như một công ty nghiên cứu và an toàn AI và nói vào thời điểm đó nó có thể xem xét tạo ra giá trị thương mại từ các sản phẩm của mình. Trong ba năm sau thỏa thuận ban đầu, Microsoft đã đầu tư tổng cộng 3 tỷ đô la vào OpenAI, theo tài liệu của nhà đầu tư. Hơn một triệu người dùng đã đăng ký ChatGPT trong vòng năm ngày kể từ khi phát hành vào tháng 11, tốc độ này thậm chí cả ông Altman cũng bị ngạc nhiên. Điều đó đến sau khi công ty giới thiệu DALL-E 2, có thể tạo ra các hình ảnh phức tạp từ lời nhắn văn bản. Internet phản ứng với các câu chuyện về việc sử dụng ChatGPT để tạo ra thơ hoặc kế hoạch sinh nhật trẻ em. Đến tháng Hai, nó đã đạt 100 triệu người dùng, theo các nhà phân tích tại UBS, là tốc độ nhanh nhất của một ứng dụng tiêu dùng trong lịch sử để đạt được điểm đó. Các đồng nghiệp thân cận của ông Altman ca ngợi khả năng cân bằng các ưu tiên của OpenAI. Không ai điều hành tốt hơn giữa "Scylla của lý tưởng sai lạc" và "Charybdis của hoài nghi hẹp hòi", ông Thiel nói. Ông Altman nói rằng ông ta đã hoãn việc phát hành phiên bản mới nhất của mô hình của mình, GPT-4, từ năm ngoái đến tháng Ba để chạy các kiểm tra an toàn bổ sung. Người dùng đã báo cáo một số trải nghiệm đáng lo ngại với mô hình được tích hợp vào Bing, nơi phần mềm gây ảo giác, có nghĩa là nó tạo ra các câu trả lời cho các câu hỏi mà nó không biết. Nó phát ra các cảnh báo đáng sợ và đe dọa. "Cách để làm đúng là có người tham gia, khám phá các hệ thống này, nghiên cứu chúng, để tìm hiểu cách làm cho chúng an toàn," ông Altman nói. Sau khi đầu tư ban đầu của Microsoft được thanh toán, nó sẽ thu về 49% lợi nhuận của OpenAI cho đến khi giới hạn lợi nhuận, tăng từ 21% trong thỏa thuận trước đây, theo tài liệu của nhà đầu tư. Công ty mẹ phi lợi nhuận OpenAI Inc. sẽ nhận được phần còn lại. Các dự án khác của ông Altman bao gồm Worldcoin, một công ty ông ta đồng sáng lập nhằm cung cấp tiền điện tử cho mỗi người trên trái đất. Trong những năm gần đây, ông đã đầu tư hầu hết tài sản lưu động của mình vào hai công ty. Ông đã đầu tư 375 triệu đô la vào Helion Energy, đang tìm cách tạo ra năng lượng không khí từ hợp nhất hạt nhân và sắp tạo ra "năng lượng thực sự thuận lợi ròng trong một bản demo thực tế", ông Altman nói. Ông cũng đã đầu tư 180 triệu đô la vào Retro, một công ty nhằm mục đích thêm 10 năm vào tuổi thọ của con người thông qua "lập trình lại tế bào, các liệu pháp được lấy cảm hứng từ huyết tương và tự phân hủy", hoặc tái sử dụng các bộ phận tế bào cũ và hư hỏng, theo công ty. Ông lưu ý rằng các vấn đề này đều dễ dàng hơn, đạo đức, so với AI. "Nếu bạn tạo ra hợp nhất hạt nhân, tất cả đều tích cực. Nó chỉ là tốt", ông nói. "Nếu bạn tạo ra AI, nó có thể rất tốt, có thể rất khủng khiếp". Deepa Seetharaman và Miles Kruppa đã đóng góp cho bài viết này. Viết cho Berber Jin tại berber.jin@wsj.com và Keach Hagey tại Keach.Hagey@wsj.com Tín dụng: Bởi Berber Jin và Keach Hagey | Ảnh của Clara Mokri cho The Wall Street Journal
The Fortune Cookie Industry Is in Upheaval. 'Expect Big Changes Ahead.'; Factories split over whether to use software, instead of humans, to write the random bits of wisdom inside the wafers. 'Society is moving too fast.' (7-4-23 WSJ)
 
Over the past two decades, Charles Li, the owner and chief executive of Chicago-based fortune-cookie factory Winfar Foods Inc., has drawn on Chinese proverbs and popular sayings to write thousands of messages that go into the wafers. Mr. Li says he and his 80-year-old father-in-law spend long hours coming up with lines that are clever but still brief enough to fit on a ribbon of paper. Winfar now supplies fortune cookies to more than 11,000 restaurants nationwide, and Mr. Li says he has had to bring in outside copywriters. "Writing fortunes is both fun and hard work," he says, which itself sounds like something out of a fortune cookie. The fortune-writing industrial complex, however, is on the brink of a major upheaval. Or, as a cookie might put it: Beware—the machines are coming for your job. OpenFortune Inc., a New York-based company that supplies printed messages to well over a dozen fortune-cookie factories around the world, says it has started using ChatGPT technology to potentially generate a near-limitless inventory of new messages. Making up the sayings in the cookies is a vigorous line of work. By some estimates, three billion fortune cookies are made by factories around the world every year. Nearly all are written by a handful of fortune-cookie factory owners, their families or small teams of copywriters. Big Fortune Cookie is divided over whether to embrace the new technology. Some, such as Mr. Li at Winfar, say artificial intelligence will be a big time saver and are adopting it. Others, including Kevin Chan, say they will not be turning their prose over to software, and aren't convinced smart technology will make a smart cookie. Mr. Chan, the 53-year-old co-owner of the Golden Gate Fortune Cookie Factory in San Francisco, says computers writing cookie fortunes "is a sign that society is moving too fast." He began composing fortunes as a teenager to help his mother, Nancy Tom Chan, and often cribbed aphorisms from Confucius, he says. Today, the 60-year-old family business cranks out roughly 10,000 handmade fortune cookies every day, Mr. Chan says, and by his count, they have written more than 5,000 fortunes. His favorites are the romantic ones, such as: "The love of your life is right around the corner." The shop has even slipped marriage proposals into customized cookies by coordinating with the hopeful groom. "Fortune cookies are a form of meditation," Mr. Chan says, "and people today need to meditate. We are humans. Computers are just computers." Shawn Porat, the "chief fortune officer" of six-year-old OpenFortune, says the viral chatbot's underlying software, designed to provide human-ish responses to simple prompts, can in seconds spit out messages that are indistinguishable from those of veteran fortune-cookie writers. For those who might bash artificial intelligence as not yet perfected , Mr. Porat says ChatGPT's oddball tendency to occasionally deliver cryptic responses makes the technology a perfect fit: Part of the charm of fortune cookies is the occasional message that reads like it was written by, well, a robot pretending to be a person. "As long as it's not offensive, we keep it," Mr. Porat says. After several months of fine-tuning the algorithm with hundreds of trial prompts, the messages have become more or less intelligible, OpenFortune says. Among the algorithm's nuggets: "You will soon have a delightful encounter with a stranger who will add a pinch of spice to your life"; and, "A harmonious melody will soon drift into your world, guiding you to dance with destiny." The AI software also produced a few head-scratchers, such as, "Your fate is written in the stars and encrypted in the clouds…" Fortune cookies, long a staple of Chinese restaurants in the U.S. but largely unheard of in China, likely originated in Japan centuries ago as "fortune crackers" containing tiny slips with holiday messages, according to the Museum of Food and Drink in New York. Japanese immigrants in the 1800s are believed to have brought them to California, where years later they were picked up by Chinese restaurant owners in San Francisco looking to adapt traditional Chinese food for the American palate. "There's something so playful about them. It lightens your load," says Grace Young, a Julia Child Award-winning Chinese cookbook author and culinary historian. "It's like we need something from the universe, a little piece of good news or wisdom." After a recent meal in New York's Chinatown, Ms. Young says, her fortune read: "Courage is the hallmark of the warrior," while her dinner companion's noted: "Don't worry about the world coming to end, it's already tomorrow in Australia." Wonton Food Inc., one of the world's largest fortune-cookie manufacturer, based in New York with a distribution network that supplies more than 40,000 restaurants nationwide, has written its own fortune-cookie messages since the 1970s, says Derrick Wong, Wonton Food's vice president of sales. The company currently has a database of some 15,000 messages, swapping in and out roughly 5,000 every year to lower the odds of a diner getting the same fortune twice, Mr. Wong says. Most of the company's stockpile of fortunes were penned by Donald Lau, a banker who joined the company in the 1980s and eventually became chief financial officer. In his prime, Mr. Lau, now retired, wrote more than 100 messages every year, the company says. "He really loved to write the fortunes," Mr. Wong recalls about Mr. Lau, who was known to carry around history books, collections of poetry and a notebook. "When he left it was very hard to keep up," he adds. Yet despite the hassles, Mr. Wong still worries ChatGPT and other software tools require a long list of restrictions to avoid offensive or unhinged output. "But if we set that many boundaries, the messages would be boring," he says. Instead of software, Wonton Food is currently recruiting fortune-cookie writers and aims to add another 5,000 or so to its inventory of messages. Recent applicants include English literature grads and journalists. "We ask them to send in samples and we go from there," Mr. Wong says. Mr. Porat and his co-founder, OpenFortune Chief Executive Matt Williams say the company doesn't want to mess with tradition. Rather they want to improve a painstaking process that has changed little in more than a century. In addition to writing fortune-cookie messages, OpenFortune places ads on the backside of fortune slips promoting its clients' products and services. Mr. Li, of Winfar Foods, which supplies fortune cookies to thousands of restaurants, concedes that imagination and attention to detail goes into writing messages, but he believes software is up to the task and calls it a "great idea." Winfar already has started using OpenFortune's cookie-writing software at its factory to produce messages. Mr. Li still has a fondness for the many fortunes he's written with his father-in-law, and says they still get a laugh over them, including one of his all-time favorites: "Yesterday was bad, but don't let it ruin tomorrow…Or do, we're not your therapists!" Write to Angus Loten at Angus.Loten@wsj.com Credit: By Angus Loten
Trong hai thập kỷ qua, Charles Li, chủ sở hữu và giám đốc điều hành của nhà máy bánh quy tài lộc Winfar Foods Inc. ở Chicago, đã sử dụng các tục ngữ và câu nói phổ biến của Trung Quốc để viết hàng nghìn thông điệp vào những miếng bánh quy. Ông Li cho biết, ông và bố vợ 80 tuổi của ông đã dành nhiều giờ để tìm ra những dòng chữ hài hước nhưng vẫn ngắn gọn đủ để in trên dải giấy. Hiện nay, Winfar cung cấp bánh quy tài lộc cho hơn 11.000 nhà hàng trên toàn quốc và ông Li cho biết ông đã phải thuê nhà văn bản ngoài để viết. "Viết tài lộc là vừa vui vừa làm việc khó", ông nói, điều đó nghe giống như một thông điệp trong bánh quy. Tuy nhiên, ngành công nghiệp viết tài lộc đang đứng trước một cuộc cách mạng lớn. Hoặc như một chiếc bánh quy có thể nói: Cẩn thận - máy móc sẽ lấy đi công việc của bạn. Công ty OpenFortune Inc., có trụ sở tại New York và cung cấp thông điệp in cho hơn một chục nhà máy bánh quy tài lộc trên thế giới, cho biết họ đã bắt đầu sử dụng công nghệ ChatGPT để có thể tạo ra một kho hàng hóa mới gần như vô hạn. Viết những câu tục ngữ trong những chiếc bánh quy là một ngành nghề sôi nổi. Theo một số ước tính, mỗi năm có khoảng 3 tỷ chiếc bánh quy tài lộc được sản xuất bởi các nhà máy trên toàn thế giới. Gần như tất cả đều được viết bởi một số chủ nhà máy bánh quy tài lộc, gia đình của họ hoặc các nhóm nhỏ những nhà văn bản. Công ty Big Fortune Cookie đang bị chia rẽ về việc nên đón nhận công nghệ mới hay không. Một số người, như ông Li tại Winfar, cho rằng trí tuệ nhân tạo sẽ tiết kiệm thời gian lớn và đang áp dụng nó. Những người khác, như Kevin Chan, nói rằng họ sẽ không bàn giao văn bản của mình cho phần mềm và không hoàn toàn tin rằng công nghệ thông minh sẽ tạo ra một chiếc bánh quy thông minh. Ông Chan, đồng chủ sở hữu 53 tuổi của nhà máy bánh quy tài lộc Golden Gate ở San Francisco, cho biết việc máy tính viết những câu tục ngữ của bánh quy "là một dấu hiệu cho thấy xã hội đang phát triển quá nhanh." Ông bắt đầu viết những câu tục ngữ từ khi còn là một thiếu niên để giúp mẹ ông, Nancy Tom Chan, và thường xuyên lấy cảm hứng từ những câu châm ngôn của Khổng Tử, ông nói. Ngày nay, công ty gia đình 60 tuổi sản xuất khoảng 10.000 chiếc bánh quy tài lộc thủ công mỗi ngày, ông Chan cho biết, và theo đếm của ông, họ đã viết hơn 5.000 câu tục ngữ. Những câu tục ngữ yêu thích của ông là những câu tục ngữ lãng mạn, chẳng hạn như: "Người yêu của bạn đang ở ngay góc đường." Thậm chí cửa hàng còn đưa lời cầu hôn vào bánh quy tùy chỉnh bằng cách phối hợp với chú rể đầy hy vọng. "Bánh quy tài lộc là một hình thức thiền định", ông Chan nói, "và ngày nay, mọi người cần thiền định. Chúng ta là con người. Máy tính chỉ là máy tính." Shawn Porat, "tổng giám đốc tài lộc" của OpenFortune sáu năm tuổi, cho biết phần mềm chatbot lan truyền của công ty, được thiết kế để cung cấp các phản hồi giống như con người cho các yêu cầu đơn giản, có thể trong vài giây đưa ra những thông điệp khó phân biệt so với những người viết câu tục ngữ có kinh nghiệm. Để tránh chỉ trích trí tuệ nhân tạo vì chưa hoàn thiện, ông Porat nói rằng xu hướng kỳ quặc của ChatGPT đôi khi đưa ra những phản hồi khó hiểu làm cho công nghệ này hoàn hảo: Một phần của sức hấp dẫn của bánh quy tài lộc là thông điệp đôi khi đọc như được viết bởi... một con robot giả vờ là người. "Miễn là nó không gây phản cảm, chúng tôi vẫn giữ nó", ông Porat nói. Sau vài tháng điều chỉnh thuật toán với hàng trăm yêu cầu thử nghiệm, các thông điệp đã trở nên khá dễ hiểu, OpenFortune cho biết. Trong số các thông điệp của thuật toán: "Bạn sớm sẽ có một cuộc gặp gỡ đáng yêu với một người lạ sẽ thêm gia vị vào cuộc đời của bạn"; và, "Một giai điệu hài hòa sẽ sớm trôi vào thế giới của bạn, dẫn dắt bạn nhảy múa với số phận." Phần mềm trí tuệ nhân tạo cũng tạo ra một số thông điệp khó hiểu, chẳng hạn như: "Số phận của bạn được viết trong những vì sao và được mã hóa trong những đám mây..." Theo Viện Ẩm thực và Đồ uống ở New York, bánh quy tài lộc, lâu đời là một món ăn phổ biến của các nhà hàng Trung Quốc ở Mỹ nhưng ít người biết ở Trung Quốc, có lẽ đã xuất hiện ở Nhật Bản cách đây hàng thế kỷ với tên gọi "bánh quy tài lộc" chứa những mẩu thông điệp lễ hội nhỏ bé, theo viện này. Người nhập cư Nhật Bản vào thế kỷ 19 được cho là đã đưa chúng đến California, nơi sau này chúng được các chủ nhà hàng Trung Quốc ở San Francisco nhận ra, và bắt đầu sử dụng chúng để thích nghi với khẩu vị của người Mỹ. "Chúng rất vui nhộn. Nó giúp bạn nhẹ nhõm", Grace Young, tác giả sách nấu ăn Trung Quốc đoạt giải thưởng Julia Child và nhà sử học ẩm thực nói. "Nó giống như chúng ta cần một cái gì đó từ vũ trụ, một chút tin tức tốt hoặc trí tuệ." Sau bữa ăn gần đây tại khu phố Trung Hoa của New York, bà Young nói rằng thông điệp của bà là: "Can đảm là đặc trưng của chiến binh", trong khi người bạn ăn tối của bà ghi chú: "Đừng lo lắng về thế giới sắp kết thúc, bởi ở Úc, ngày mai đã đến." Wonton Food Inc., một trong những nhà sản xuất bánh quy tài lộc lớn nhất thế giới, có trụ sở tại New York và mạng lưới phân phối cung cấp cho hơn 40.000 nhà hàng trên toàn quốc, đã viết những thông điệp tự tạo của mình từ những năm 1970, Derrick Wong, phó chủ tịch kinh doanh của Wonton Food nói. Công ty hiện có một cơ sở dữ liệu chứa khoảng 15.000 thông điệp, thay thế khoảng 5.000 thông điệp hàng năm để giảm khả năng khách hàng nhận lại thông điệp tương tự, ông Wong cho biết. Hầu hết số lượng thông điệp của công ty đều được viết bởi Donald Lau, một ngân hàng viên đã tham gia công ty vào những năm 1980 và cuối cùng trở thành giám đốc tài chính. Trong đỉnh cao của mình, ông Lau, hiện đã nghỉ hưu, đã viết hơn 100 thông điệp mỗi năm, công ty cho biết. "Ông thực sự rất thích viết những điều may mắn", ông Wong nhớ lại về ông Lau, người được biết đến với việc mang theo các cuốn sách lịch sử, tuyển tập thơ và một quyển sổ tay. "Khi ông rời đi thì rất khó để tiếp tục", ông nói. Tuy nhiên, bất chấp những rắc rối đó, ông Wong vẫn lo lắng rằng ChatGPT và các công cụ phần mềm khác yêu cầu một danh sách dài các hạn chế để tránh thông điệp phản cảm hoặc điên rồ. "Nhưng nếu chúng ta đặt quá nhiều giới hạn, thông điệp sẽ trở nên buồn tẻ", ông nói. Thay vì phần mềm, Wonton Food đang tuyển dụng nhà văn bản của bánh quy tài lộc và nhằm mục tiêu thêm khoảng 5.000 thông điệp vào kho hàng của mình. Ứng viên gần đây bao gồm các tân cử nhân văn học Anh và nhà báo. "Chúng tôi yêu cầu họ gửi mẫu và từ đó chúng tôi tiến hành," ông Wong nói. Ông Porat và đồng sáng lập của ông, Giám đốc điều hành của OpenFortune Matt Williams cho biết công ty không muốn can thiệp vào truyền thống. Thay vào đó, họ muốn cải thiện quá trình vất vả đã không thay đổi nhiều trong hơn một thế kỷ. Ngoài việc viết thông điệp bánh quy may mắn, OpenFortune đặt quảng cáo trên mặt sau của những chiếc giấy may mắn quảng bá sản phẩm và dịch vụ của khách hàng. Ông Li của Winfar Foods, nhà cung cấp bánh quy may mắn cho hàng nghìn nhà hàng, thừa nhận rằng trí tưởng tượng và sự chú ý đến chi tiết được đưa vào việc viết thông điệp, nhưng ông tin rằng phần mềm có thể làm được công việc đó và gọi nó là một "ý tưởng tuyệt vời". Winfar đã bắt đầu sử dụng phần mềm viết bánh quy của OpenFortune tại nhà máy của mình để sản xuất thông điệp. Ông Li vẫn có tình cảm với rất nhiều lời tiên tri mà ông đã viết với bố vợ của mình, và nói rằng họ vẫn cười với chúng, bao gồm một trong số những thông điệp ưa thích nhất của ông: "Hôm qua là xấu, nhưng đừng để nó phá hủy ngày mai ... Hoặc làm như vậy, chúng tôi không phải là nhà trị liệu của bạn!" Viết thư đến Angus Loten tại Angus.Loten@wsj.com Tác giả: Angus Loten
Generative AI Helping Boost Productivity of Some Software Developers (WSJ )
Enterprise technology chiefs still have questions about the security and governance of the code-writing programs
A new kind of artificial intelligence that can create a range of humanlike content, from writing to illustrations, is beginning to gain traction in the world of software development. The technology, known as generative AI, has been pioneered by OpenAI, the lab behind the ChatGPT writing system and the Dall-E visual illustration generator. Those tools, with broad implications for search and other core tasks, have captured growing interest since late last fall. The technology’s potential to upend software development is particularly acute. Microsoft Corp., which invested $1 billion in OpenAI in 2019 and pledged as much as $10 billion more in January, is incorporating ChatGPT into its Bing search engine, and earlier incorporated OpenAI’s technology into Copilot, its AI system for writing code. Copilot, as well as other tools from Amazon.com Inc., International Business Machines Corp., and startups like Tabnine Inc. and Magic AI Inc., have quickly found a receptive audience among developers seeking a productivity boost. In contrast to ChatGPT, whose usefulness in the enterprise some technology leaders have questioned, AI coding tools like Copilot, which was first launched for public use last summer by Microsoft-owned coding-collaboration platform GitHub Inc., seem to be capable of solving some real-world business problems right away. The AI model behind Copilot is trained on data from GitHub, which houses a popular open-source community where developers contribute and share code. NEWSLETTER SIGN-UP WSJ | CIO Journal The Morning Download delivers daily insights and news on business technology from the CIO Journal team. Preview Subscribe The goal of these tools isn’t to replace developers, executives at GitHub and other companies say, but to help them improve their productivity—much in the way that tools like spell check and auto-completion of phrases help people write documents. They work by suggesting new code snippets and tests, and providing technical recommendations inside of the code-writing programs developers already use. Sam Babic, the chief innovation officer of Westlake, Ohio-based software maker Hyland Software Inc. said he doesn’t anticipate Copilot and similar tools will actually build enterprise software or applications on their own. “They serve as a second set of eyes,” he said. Jonathan Burket, a senior engineering manager at language-learning app maker Duolingo Inc., estimated he is 25% more efficient with his time since using Copilot, because he no longer needs to write code documentation and test cases, or look up certain information. “It actually can understand what algorithms need to do, what checks you’re missing, what things you want to test,” Mr. Burket said. Part of the appeal is the promise of a faster, less manual software development process, which can, in turn, help companies relieve the pressure wrought by a shortage of engineering talent, some industry analysts and technologists say. “We’ve been really begging for talent,” said Chris Taylor, an enterprise architect at transportation and shipping provider Coyote Logistics LLC, which is owned by United Parcel Service Inc. Without extra developers on hand, Copilot has enabled the company’s engineers to focus on higher-level questions like “thinking about a system and how that applies at a bigger scale,” Mr. Taylor said. The company purchased Copilot licenses for all of its nearly 350 engineers, he said. Still, some technology leaders are approaching broader adoption with an eye toward possible cybersecurity and intellectual property risks. While they are intrigued by the business benefits, some say they’ll need to address a range of potential problems, from data sharing compliances to the ability to write code that is fine-tuned for certain industries. Aiming to address some of those concerns, GitHub last week released a new version of Copilot for Business which includes the ability to manage users and run on virtual private networks, said Chief Executive Thomas Dohmke. Another feature prevents the tool from suggesting code to engineers that might be under license by another company—helping to mitigate the legal risks, Mr. Dohmke said. GitHub is the subject of a proposed class-action suit, filed in November, which argues that Copilot doesn’t give attribution to the original authors whose code is used to generate its results. The business version of Copilot also includes stricter blocking of code suggestions that might include known cybersecurity vulnerabilities, Mr. Dohmke said, something CIOs have become more concerned about as awareness of integrating security into enterprise application development has grown. Amazon, too, is planning a version of its CodeWhisperer AI coding tool focused on enterprises, with specific security and access controls, said Swami Sivasubramanian, vice president of database, analytics and machine learning at Amazon Web Services. AWS also unveiled Tuesday an expanded partnership with machine-learning tool maker Hugging Face, which the companies say will make it easier for developers to build their own generative AI applications like Copilot or ChatGPT. Tiago Cardoso, a group product manager at Hyland Software, said leaders at the company are wary of deploying Copilot to its engineers without more customization in place. And, with a tightening economy in mind, Hyland Software is holding back on spending for any new tools or technologies. Copilot and other AI coding tools are still too new, Mr. Cardoso said, “so we are reviewing every tool, subscription and going for the essentials.”
Chỉ huy công nghệ doanh nghiệp vẫn còn câu hỏi về bảo mật và quản trị các chương trình viết mã Một loại trí tuệ nhân tạo mới có thể tạo ra nhiều nội dung giống như con người, từ viết đến minh họa, đang bắt đầu thu hút sự quan tâm trong thế giới phát triển phần mềm. Công nghệ được biết đến là generative AI đã được tiên phong bởi OpenAI, phòng thí nghiệm đứng sau hệ thống viết ChatGPT và trình tạo minh họa hình ảnh Dall-E. Những công cụ đó, có ảnh hưởng rộng lớn đến tìm kiếm và các nhiệm vụ cốt lõi khác, đã thu hút sự quan tâm ngày càng tăng kể từ cuối mùa thu năm ngoái. Tiềm năng của công nghệ này để làm đảo lộn phát triển phần mềm đặc biệt nghiêm trọng. Microsoft Corp., đã đầu tư 1 tỷ đô la vào OpenAI vào năm 2019 và cam kết tối đa 10 tỷ đô la hơn vào tháng 1, đang tích hợp ChatGPT vào công cụ tìm kiếm Bing của mình, và trước đó tích hợp công nghệ của OpenAI vào Copilot, hệ thống trí tuệ nhân tạo của nó cho việc viết mã. Copilot cùng với các công cụ khác từ Amazon.com Inc., International Business Machines Corp., và các startup như Tabnine Inc. và Magic AI Inc. nhanh chóng tìm được một khán giả tiếp thu đang tìm kiếm cải tiến năng suất. Không giống như ChatGPT, mà một số nhà lãnh đạo công nghệ ở doanh nghiệp đã đặt câu hỏi về tính hữu ích, các công cụ viết mã AI như Copilot, được ra mắt lần đầu cho sử dụng công cộng vào mùa hè năm ngoái bởi nền tảng hợp tác viết mã của Microsoft là GitHub Inc., có vẻ có khả năng giải quyết một số vấn đề kinh doanh thực tế ngay lập tức. Mô hình trí tuệ nhân tạo đằng sau Copilot được đào tạo trên dữ liệu từ GitHub, nơi chứa một cộng đồng mã nguồn mở phổ biến, nơi các nhà phát triển đóng góp và chia sẻ mã. Mục tiêu của các công cụ này không phải là thay thế các nhà phát triển, các nhà điều hành của GitHub và các công ty khác cho biết, mà là giúp họ cải thiện năng suất của mình - giống như các công cụ kiểm tra chính tả và tự động hoàn thành các cụm từ giúp người viết tài liệu. Chúng hoạt động bằng cách đề xuất các đoạn mã và kiểm tra mới, và cung cấp các khuyến nghị kỹ thuật bên trong các chương trình viết mã mà các nhà phát triển đã sử dụng. Sam Babic, giám đốc sáng tạo của công ty sản xuất phần mềm Hyland Software Inc. đóng trụ sở tại Westlake, Ohio, cho biết ông không dự đoán Copilot và các công cụ tương tự sẽ thực sự xây dựng phần mềm doanh nghiệp hoặc ứng dụng một mình. “Chúng là một cặp mắt thứ hai,” ông nói. Jonathan Burket, một quản lý kỹ thuật cấp cao tại nhà sản xuất ứng dụng học ngôn ngữ Duolingo Inc., ước tính ông hiệu quả hơn 25% thời gian của mình kể từ khi sử dụng Copilot, bởi vì ông không còn cần viết tài liệu mã và trường hợp kiểm tra, hoặc tìm kiếm một số thông tin. “Nó thực sự có thể hiểu được các thuật toán cần làm gì, các kiểm tra bạn đang thiếu, những thứ bạn muốn kiểm tra,” ông Burket nói. Phần của sức hấp dẫn là hứa hẹn của một quá trình phát triển phần mềm nhanh hơn, ít thủ công hơn, điều đó có thể giúp các công ty giảm áp lực do thiếu tài năng kỹ thuật, một số nhà phân tích ngành và kỹ sư công nghệ nói. “Chúng tôi đã thực sự đang mong muốn có nhân tài,” Chris Taylor, một kiến trúc sư doanh nghiệp tại nhà cung cấp vận tải và vận chuyển Coyote Logistics LLC, thuộc sở hữu của United Parcel Service Inc. Mà không có thêm các nhà phát triển, Copilot đã giúp các kỹ sư của công ty tập trung vào các câu hỏi cấp cao hơn như “suy nghĩ về một hệ thống và cách áp dụng nó ở một quy mô lớn hơn”, ông Taylor nói. Công ty đã mua các giấy phép Copilot cho tất cả gần 350 kỹ sư của mình, ông nói. Tuy nhiên, một số nhà lãnh đạo công nghệ đang tiếp cận sự thông qua sự nhìn chung với một con mắt hướng tới nguy cơ an ninh mạng và sở hữu trí tuệ. Mặc dù họ rất quan tâm đến lợi ích kinh doanh, một số người nói họ sẽ cần giải quyết một loạt các vấn đề tiềm ẩn, từ tuân thủ quy định chia sẻ dữ liệu đến khả năng viết mã được tinh chỉnh cho một số ngành công nghiệp cụ thể. Nhằm giải quyết một số lo ngại đó, GitHub đã phát hành phiên bản mới của Copilot for Business vào tuần trước, bao gồm khả năng quản lý người dùng và chạy trong mạng riêng ảo, Giám đốc điều hành Thomas Dohmke cho biết. Một tính năng khác ngăn công cụ đề xuất mã cho các kỹ sư có thể được cấp phép bởi một công ty khác - giúp giảm thiểu các rủi ro pháp lý, ông Dohmke nói. GitHub là đối tượng của một đơn kiện tập thể được đề xuất, được nộp vào tháng 11, tuyên bố rằng Copilot không đưa ra những bản quyền của các tác giả ban đầu mà mã của họ được sử dụng để tạo ra kết quả. Phiên bản doanh nghiệp của Copilot cũng bao gồm chặn nghiêm ngặt hơn của các gợi ý mã có thể bao gồm những lỗ hổng an ninh mạng đã biết, ông Dohmke nói, điều mà các CIO đã trở nên quan tâm hơn khi nhận thức về tích hợp bảo mật vào phát triển ứng dụng doanh nghiệp đã tăng lên. Amazon cũng đang lên kế hoạch cho một phiên bản của công cụ mã hóa trí tuệ nhân tạo CodeWhisperer của mình tập trung vào doanh nghiệp, với các điều khiển bảo mật và truy cập cụ thể, Swami Sivasubramanian, phó chủ tịch cơ sở dữ liệu, phân tích và học máy tại Amazon Web Services cho biết. AWS cũng giới thiệu vào thứ Ba một sự mở rộng đối tác với nhà sản xuất công cụ học máy Hugging Face, mà các công ty cho rằng sẽ làm cho việc xây dựng các ứng dụng AI tạo mã tự động của riêng bạn như Copilot hoặc ChatGPT dễ dàng hơn. Tiago Cardoso, một nhà quản lý sản phẩm tại Hyland Software, cho biết các nhà lãnh đạo của công ty đang cảnh giác với việc triển khai Copilot cho các kỹ sư của mình mà không có nhiều tùy chỉnh. Và, với tâm trạng kinh tế đang chặt chẽ trong tâm trí, Hyland Software đang kiềm chế việc tiêu dùng cho bất kỳ công cụ hoặc công nghệ mới nào. Copilot và các công cụ mã hóa AI khác vẫn còn quá mới, ông Cardoso nói, "vì vậy chúng tôi đang xem xét mọi công cụ, đăng ký và chỉ đi đến những điều cần thiết."
Google Cloud Introduces Shelf Inventory AI Tool for Retailers (13-1-23 WSJ)
An image database of more than a billion products helps power the tool
Google Cloud said it has developed a new artificial intelligence tool designed to help big-box retailers better track the inventory on their shelves, aiming to improve a technology that has struggled to work well in the past. Google Cloud said Friday its algorithm can recognize and analyze the availability of consumer packaged goods products on shelves from videos and images provided by the retailer's own ceiling-mounted cameras, camera-equipped self-driving robots or store associates. The tool, which is now in preview, will become broadly available in the coming months, it said. Alphabet Inc.'s cloud business unveiled the technology, along with a series of artificial intelligence tools aimed at e-commerce, ahead of the National Retail Federation conference in New York City. Lack of timely, accurate information about shelf inventory is a major problem for retailers and so difficult to manage that it is industry standard to just make guesses, said Robert Hetu, VP analyst for retail at IT research and consulting firm Gartner Inc. Having that information would help retailers pad their lines in a variety of ways, including giving them the chance to replenish out-of-stock items faster, and lose fewer sales opportunities, according to Carrie Tharp, Google Cloud's vice president of retail and consumer. "If every retailer just knew what they had in their stores and how much was left on the shelves, their lives would be so much simpler," she said. The idea of computer vision-enabled shelf-checking technology has been around for several years, but has not taken off in that time. In part, retailers have been deterred by the cost and complexity of large-scale camera deployment, said Mr. Hetu. Data has also been a problem, said Ms. Tharp. Retailers have not historically had access to thorough, organized and labeled data on all their product offerings, she said. Another challenge has been building the AI model itself, which needs to understand how to recognize a product in imperfect, real-life conditions, including from different angles, in different lighting and when seasonal packaging changes, Google Cloud said. Google Cloud said its product is trained on a database of over a billion products, including images that are publicly available, licensed and provided directly by manufacturers. Its algorithm is also designed to recognize those products, whether the image is coming from a ceiling-mounted camera or mobile-phone video—the same way the human eye understands it is seeing a cereal box regardless of whether it is looking at the box from above or from head on, Google Cloud said. But there are still challenges. "It's probably not entirely solved yet," said Graham Watkins, executive vice president of supply-chain transformation and retail innovation at supermarket chain Giant Eagle Inc. He said the Google Cloud product has shown above 90% accuracy during early tests in a Giant Eagle innovation lab, which is designed to replicate store conditions. That is high enough to generate continued interest from the supermarket chain, but not high enough for the company to consider deploying it at scale yet. For now Giant Eagle provides continuous feedback to Google Cloud about where the tool isn't working so that it can fine-tune, he said. For example, if the camera is too high or too low and the algorithm can't identify the product, Giant Eagle would provide that image to Google Cloud so it can train the algorithm to recognize that angle the next time, said Mr. Watkins. The supermarket chain said it plans to begin piloting the technology in an actual store in the next several months, but a deployment across the full chain would take several years to come to fruition, if in fact the company decides to pursue a broad rollout, Mr. Watkins said. In part that is because of the high degree of expense involved, he said. Camera visibility into every shelf on every aisle—whether it is coming from ceiling cameras or inventory robots that stroll around stores—is a complicated and expensive proposition, said Gartner's Mr. Hetu. Walmart Inc. notably ended its effort to use roving robots in store aisles to keep track of its inventory in 2020 because it found different, sometimes simpler solutions that proved just as useful, said people familiar with the situation. Mr. Hetu said he expects investment in shelf-checking technology to continue, despite cost barriers, because of the growing need to digitize the in-store experience But it won't happen overnight. It could take three to six years for computer-vision shelf checking to become more mainstream, he said. Giant Eagle's Mr. Watkins said the algorithm may never be perfect and there will always be some unique conditions that it won't work in. "There's going to be a give and take between technology and operational business processes. Anytime you're in a new space, you're always going to be balancing. How close is good enough?" he said. "It is just a bit of an iterative process." Write to Isabelle Bousquette at isabelle.bousquette@wsj.com Credit: By Isabelle Bousquette
Google Cloud đã phát triển một công cụ trí tuệ nhân tạo mới nhằm giúp các nhà bán lẻ lớn theo dõi tốt hơn hàng hóa trên các kệ của họ, nhằm cải thiện một công nghệ đã gặp nhiều khó khăn trong quá khứ. Google Cloud cho biết vào thứ Sáu rằng thuật toán của họ có thể nhận ra và phân tích sự có sẵn của sản phẩm tiêu dùng đó trên các kệ từ video và hình ảnh được cung cấp bởi các máy ảnh gắn trần của nhà bán lẻ, các robot tự lái được trang bị máy ảnh hoặc các nhân viên của cửa hàng. Công cụ này hiện đang trong giai đoạn xem trước và sẽ trở nên phổ biến trong những tháng tới, theo Google Cloud. Việc nắm bắt thông tin về số lượng và vị trí hàng hóa trên kệ một cách chính xác và kịp thời là một vấn đề lớn đối với các nhà bán lẻ và quản lý nó khó khăn đến mức mà việc đoán định thường là tiêu chuẩn của ngành, theo Robert Hetu, phân tích viên cấp cao về bán lẻ tại Gartner Inc. Việc này sẽ giúp các nhà bán lẻ mở rộng các sản phẩm của họ bằng nhiều cách khác nhau, bao gồm cơ hội để bổ sung nhanh các mặt hàng hết hàng, và tránh mất các cơ hội bán hàng, theo Carrie Tharp, phó chủ tịch phụ trách bán lẻ và người tiêu dùng của Google Cloud. " Nếu tất cả các nhà bán lẻ chỉ biết được những gì họ có trong cửa hàng của họ và còn lại bao nhiêu sản phẩm trên kệ, cuộc sống của họ sẽ đơn giản hơn rất nhiều", bà nói. Ý tưởng về công nghệ kiểm tra kệ được kích hoạt bởi công nghệ máy tính thị giác đã được sử dụng trong vài năm qua, nhưng cho đến nay vẫn chưa phát triển. Một phần vì các nhà bán lẻ đã bị ngăn cản bởi chi phí và độ phức tạp của việc triển khai camera quy mô lớn, theo ông Hetu. Dữ liệu cũng là một vấn đề, theo bà Tharp. Các nhà bán lẻ chưa có lịch sử truy cập vào dữ liệu được tổ chức và gắn nhãn trên tất cả các sản phẩm của mình, bà nói. Một thách thức khác là xây dựng chính mô hình trí tuệ nhân tạo, cần phải hiểu cách nhận diện một sản phẩm trong điều kiện thực tế không hoàn hảo, bao gồm từ các góc độ khác nhau, đèn chiếu sáng khác nhau và thay đổi bao bì theo mùa, Google Cloud cho biết. Sản phẩm của Google Cloud được đào tạo trên cơ sở dữ liệu hơn một tỷ sản phẩm, bao gồm các hình ảnh được công khai, được cấp phép và được cung cấp trực tiếp bởi các nhà sản xuất. Thuật toán của họ cũng được thiết kế để nhận ra các sản phẩm đó, dù hình ảnh đến từ một máy ảnh gắn trần hoặc video điện thoại di động - giống như cách mắt người hiểu rằng nó đang nhìn vào một hộp ngũ cốc bất kể nó đang nhìn vào hộp từ phía trên hoặc từ đầu, Google Cloud cho biết. Tuy nhiên, vẫn còn những thách thức. "Theo tôi, nó chưa được giải quyết hoàn toàn", ông Graham Watkins, phó chủ tịch phụ trách biến đổi chuỗi cung ứng và đổi mới bán lẻ tại chuỗi siêu thị Giant Eagle Inc. Ông nói rằng sản phẩm của Google Cloud đã cho thấy độ chính xác trên 90% trong các thử nghiệm đầu tiên tại phòng thí nghiệm đổi mới của Giant Eagle, được thiết kế để mô phỏng điều kiện của cửa hàng. Điều đó đủ cao để tạo ra sự quan tâm tiếp tục từ chuỗi siêu thị, nhưng chưa đủ để công ty xem xét triển khai nó trên quy mô lớn. Hiện tại, Giant Eagle cung cấp phản hồi liên tục cho Google Cloud về những nơi công cụ không hoạt động để nó có thể điều chỉnh, ông nói. Ví dụ, nếu camera đặt quá cao hoặc quá thấp và thuật toán không thể nhận diện sản phẩm, Giant Eagle sẽ cung cấp hình ảnh đó cho Google Cloud để nó có thể đào tạo thuật toán nhận diện góc nhìn đó lần sau, theo ông Watkins. Chuỗi siêu thị nói rằng họ dự định bắt đầu thử nghiệm công nghệ trong một cửa hàng thực tế trong vài tháng tới, nhưng triển khai trên toàn bộ chuỗi sẽ mất vài năm để đạt được, nếu thực sự quyết định triển khai rộng rãi, ông Watkins nói. Một phần vì chi phí cao, ông nói. Việc nhìn thấy camera vào mọi kệ trên mọi lối đi - dù đó là từ các camera gắn trần hoặc các robot kiểm kho hàng hóa - là một đề xuất phức tạp và tốn kém, theo ông Hetu của Gartner. Walmart Inc. đã kết thúc nỗ lực sử dụng robot di động trong các lối đi của cửa hàng để theo dõi hàng tồn kho vào năm 2020 vì nó đã tìm ra các giải pháp khác, đôi khi đơn giản hơn, được chứng minh là hữu ích, theo những người quen thuộc với tình hình đó. Ông Hetu cho rằng việc đầu tư vào công nghệ kiểm tra kệ sẽ tiếp tục, mặc dù rào cản về chi phí, bởi nhu cầu ngày càng tăng về kinh nghiệm trong cửa hàng. Nhưng điều đó sẽ không xảy ra ngay. Ông cho biết có thể mất ba đến sáu năm để kiểm tra kệ bằng trí tuệ nhân tạo trở nên phổ biến hơn. Ông Watkins của Giant Eagle cho biết thuật toán có thể không hoàn hảo và luôn có một số điều kiện đặc biệt mà nó không hoạt động. "Sẽ có sự đưa và nhận giữa công nghệ và quy trình kinh doanh hoạt động. Bất cứ khi nào bạn ở trong một không gian mới, bạn luôn phải cân bằng. Khoảng cách gần đến đâu là đủ tốt?" ông nói. "Đó chỉ là một quá trình lặp lại một chút." Viết thư đến Isabelle Bousquette tại isabelle.bousquette@wsj.com Tác giả: Isabelle Bousquette
The Metaverse Is Quickly Turning Into the Meh-taverse; Disney and Microsoft both closed projects tied to the digital realm this month (29-3-23 WSJ)
The metaverse, the virtual world that was the hot thing in tech less than two years ago, is facing a harsher reality . Walt Disney Co. has shut down the division that was developing its metaverse strategies, The Wall Street Journal reported this week. Microsoft Corp. recently shut down a social virtual-reality platform it acquired in 2017. And Mark Zuckerberg, who renamed Facebook as Meta Platforms Inc. to signal his seriousness about the metaverse, focused more on artificial intelligence on an earnings call last month. Meanwhile, the price for virtual real estate in some online worlds, where users can hang out as avatars, has cratered. The median sale price for land in Decentraland has declined almost 90% from a year ago, according to WeMeta, a site that tracks land sales in the metaverse. Meta's name change in October 2021 spurred excitement about metaverse experiences, products and platforms. But slow user adoption, driven in part by expensive hardware requirements and glitchy tech, and deteriorating economic conditions have put a damper on expectations the metaverse will drive meaningful revenue soon. "What many people are coming to realize is that this transformation is farther away," said Matthew Ball, a venture capitalist and author of a book about the metaverse. Tech companies have been slashing jobs and abandoning projects deemed nonessential . Mr. Zuckerberg, who championed the metaverse as the next iteration of the mobile internet a mere 18 months ago, dubbed 2023 "the year of efficiency." His company laid off 11,000 employees in the fall and said this month that it would cut a further 10,000 positions and various projects, including some that are based in its metaverse division , the Journal previously reported. "A lot of companies and businesses understandably feel like if they need to reduce head count or spending overall, this kind of category would seem to be a pretty easy target," said Scott Kessler, a tech-sector analyst at research firm Third Bridge Group. Investments in artificial intelligence promise returns in the nearer term, he added. "All these things that are going on, related to AI, seem to be able to be used and leveraged now," he said. With the metaverse, "no one knows when you're going to reach critical mass." Even at the height of the metaverse craze, some tech executives were less enamored with online realms. "I want to try and work on technologies that bring people's heads up—get them to enjoy the real world," David Limp, senior vice president of devices and services at Amazon.com Inc., said at The Wall Street Journal's Future of Everything Festival last year. Meta has spent billions of dollars trying to build out the metaverse since changing its name. But its flagship app, Horizon Worlds, struggled to gain and retain users within the first year after the renaming, according to internal documents viewed by the Journal. Sales of its Quest 2 virtual-reality headsets, which are used to access Horizon Worlds and other virtual-reality apps, were also down in the most recent quarter, the company said. Mr. Zuckerberg isn't walking away from the metaverse, signaling that it remains a long-term focus for the company after AI. "The two major technological waves driving our road map are AI today and, over the longer term, the metaverse," he said last month. On that call, "AI" was mentioned 28 times. The word "metaverse" was mentioned on seven occasions. Meta didn't respond to a request for comment. The pivot at Disney comes amid its recent leadership change and restructuring. Chief Executive Robert Iger returned to the company in November and has started slashing costs. The company last month said it plans to cut 7,000 jobs and reduce costs by $5.5 billion. Mr. Iger succeeded Bob Chapek as CEO, who in early 2022 appointed the leader of the division that explored metaverse strategies. At the time, Mr. Chapek told employees that the goal was to "create an entirely new paradigm for how audiences experience and engage with our stories." Disney didn't respond to a request for comment. Microsoft also bet big on the idea of online digital realms, though struggled with implementing that vision. In addition to shutting down AltSpaceVR, the company's work on augmented-reality headsets was plagued by problems , the Journal reported last year. The company has since restructured the HoloLens team and trimmed its budget, the Journal has reported. Microsoft said it "remains committed to the metaverse" with both hardware and software tools. Smaller companies such as Decentraland and the Sandbox where users have been able to buy virtual land and build their own worlds have seen some of the most success so far. But even so, land sales are down. The median price per square meter in Decentraland has dropped from about $45 a year ago to $5, according to data from WeMeta, the firm that tracks the sales. A spokesperson for the Decentraland Foundation, which oversees the platform, said land sales aren't indicative of user growth. A spokesperson for the Sandbox said all of the new land they have put up for sale over the past six months has sold out. Despite a broad reduction in metaverse engagement, the online realms can still draw eyeballs. Decentraland, which saw a 25% decline in active users from November to January, is seeing an uptick this week from Metaverse Fashion Week, an event where brands such as Dolce & Gabbana and Tommy Hilfiger are participating, according to DCL Metrics, a site that tracks users in the digital realm. "It is obvious that hype around the metaverse has receded. But we should not mistake this for a lack of progress," said Mr. Ball, the venture capitalist who is bullish on the metaverse. "Change isn't that fast." —For more WSJ Technology analysis, advice, and headlines, sign up for our weekly newsletter . Write to Meghan Bobrowsky at meghan.bobrowsky@wsj.com Credit: By Meghan Bobrowsky
Thế giới ảo Metaverse, một thứ hot trong ngành công nghệ chưa đầy hai năm trước, đang đối mặt với một thực tế khắc nghiệt. Theo báo cáo của The Wall Street Journal tuần này, Walt Disney Co. đã đóng bộ phận phát triển chiến lược Metaverse của mình. Microsoft Corp. cũng vừa đóng một nền tảng thực tế ảo xã hội mà họ mua lại năm 2017. Trong khi đó, Mark Zuckerberg, người đã đổi tên Facebook thành Meta Platforms Inc. để tín hiệu sự nghiêm túc về Metaverse, đã tập trung hơn vào trí tuệ nhân tạo trong cuộc họp báo thông báo kết quả kinh doanh của ông vào tháng trước. Trong khi đó, giá đất ảo trong một số thế giới trực tuyến, nơi người dùng có thể trò chuyện với nhau dưới hình ảnh avatar, đã giảm đi đáng kể. Giá bán trung bình cho đất ở Decentraland đã giảm gần 90% so với cách đây một năm, theo WeMeta, một trang web theo dõi các giao dịch bán đất trong Metaverse. Việc đổi tên Meta vào tháng 10 năm 2021 đã kích thích sự hào hứng về trải nghiệm, sản phẩm và nền tảng Metaverse. Nhưng việc người dùng chưa chấp nhận nhanh chóng, một phần do yêu cầu phần cứng đắt tiền và các lỗi kĩ thuật, cùng với tình hình kinh tế đang giảm sút đã khiến kỳ vọng về Metaverse sẽ tạo ra doanh thu đáng kể sớm bị giảm nhiều. "Theo như nhiều người đang nhận ra, sự chuyển đổi này còn xa hơn," Matthew Ball, một nhà đầu tư mạo hiểm và tác giả cuốn sách về Metaverse, cho biết. Các công ty công nghệ đã cắt giảm việc làm và từ bỏ các dự án không cần thiết. Ông Zuckerberg, người đã đứng ra ủng hộ Metaverse như sự tiếp nối của internet di động cách đây chỉ 18 tháng, gọi năm 2023 là "năm hiệu quả". Công ty của ông đã sa thải 11.000 nhân viên vào mùa thu và thông báo rằng tháng này nó sẽ cắt giảm thêm 10.000 vị trí và các dự án khác, bao gồm một số dự án thuộc bộ phận Metaverse của nó, theo báo cáo của The Wall Street Journal trước đó. "Rất nhiều công ty và doanh nghiệp hiểu được rằng nếu họ cần giảm số lượng nhân viên hoặc chi tiêu tổng thể, loại hình này có vẻ là một mục tiêu khá dễ dàng", Scott Kessler, một nhà phân tích ngành công nghệ tại công ty nghiên cứu Third Bridge Group, cho biết. Đầu tư vào trí tuệ nhân tạo hứa hẹn mang lại lợi nhuận trong tương lai gần, ông thêm vào. "Tất cả những điều đang diễn ra liên quan đến trí tuệ nhân tạo có vẻ có thể được sử dụng và tận dụng ngay bây giờ", ông nói. Với Metaverse, "không ai biết khi nào bạn sẽ đạt được số lượng tối thiểu". Ngay cả khi sự điên rồ của Metaverse đang ở đỉnh điểm, một số giám đốc công nghệ đã không bị quyến rũ bởi các lĩnh vực trực tuyến. "Tôi muốn thử và làm việc trên các công nghệ đưa những người dùng ra khỏi thế giới ảo - giúp họ tận hưởng thế giới thực", David Limp, phó chủ tịch điều hành các thiết bị và dịch vụ tại [Amazon.com](http://amazon.com/) Inc., nói tại Hội nghị Tương lai của The Wall Street Journal vào năm ngoái. Meta đã chi hàng tỷ đô la để xây dựng Metaverse kể từ khi đổi tên. Nhưng ứng dụng cờ đầu của họ, Horizon Worlds, đã gặp khó khăn trong việc thu hút và giữ chân người dùng trong năm đầu tiên sau khi đổi tên, theo các tài liệu nội bộ được xem bởi The Wall Street Journal. Công ty cũng thông báo doanh số bán hàng của các kính thực tế ảo Quest 2 của họ, được sử dụng để truy cập Horizon Worlds và các ứng dụng thực tế ảo khác, cũng giảm trong quý gần đây. Ông Zuckerberg không rời xa Metaverse, cho thấy rằng nó vẫn là một mục tiêu dài hạn của công ty sau trí tuệ nhân tạo. "Hai làn sóng công nghệ chính định hướng đến lộ trình của chúng tôi là AI ngày hôm nay và, trong dài hạn, Metaverse", ông nói tháng trước. Trong cuộc họp báo đó, từ "AI" được nhắc đến 28 lần. Từ "Metaverse" được nhắc đến trong bảy lần. Meta không trả lời yêu cầu bình luận. Việc chuyển đổi tại Disney đến trong bối cảnh thay đổi lãnh đạo gần đây của công ty. Giám đốc điều hành Robert Iger trở lại công ty vào tháng 11 và đã bắt đầu cắt giảm chi phí. Công ty cho biết vào tháng trước rằng nó dự định cắt giảm 7.000 việc làm và giảm chi phí 5,5 tỷ đô la. Ông Iger kế vị Bob Chapek làm CEO, người đã bổ nhiệm người đứng đầu bộ phận khai thác các chiến lược Metaverse vào đầu năm 2022. Lúc đó, ông Chapek nói với nhân viên rằng mục tiêu là "tạo ra một mô hình hoàn toàn mới cho cách khán giả trải nghiệm và tương tác với câu chuyện của chúng tôi". Disney không trả lời yêu cầu bình luận. Microsoft cũng đặt cược lớn vào ý tưởng về các lĩnh vực kỹ thuật số trực tuyến, nhưng gặp khó khăn trong việc thực hiện tầm nhìn đó. Ngoài việc đóng AltSpaceVR, công ty đã gặp sự cố với các kính thực tế tăng cường, theo báo cáo của The Wall Street Journal năm ngoái. Công ty đã tái cơ cấu đội ngũ HoloLens và cắt giảm ngân sách của mình, theo The Wall Street Journal. Microsoft cho biết nó "vẫn cam kết với Metaverse" với cả các công cụ phần cứng và phần mềm. Các công ty nhỏ hơn như Decentraland và The Sandbox, nơi người dùng đã có thể mua đất ảo và xây dựng thế giới của riêng mình, đã đạt được một số thành công đáng kể cho đến nay. Tuy nhiên, các giao dịch bán đất cũng giảm sút. Giá bán trung bình cho mỗi mét vuông của Decentraland đã giảm từ khoảng 45 đô la vào cách đây một năm xuống còn 5 đô la, theo dữ liệu từ WeMeta, công ty theo dõi các giao dịch. Một người phát ngôn cho Tổ chức Decentraland, người giám sát nền tảng đó, cho biết giao dịch bán đất không phản ánh sự tăng trưởng người dùng. Một người phát ngôn cho The Sandbox cho biết tất cả đất mới mà họ đã bán trong sáu tháng qua đã được bán hết. Mặc dù đã giảm đáng kể sự tham gia của Metaverse, các lĩnh vực trực tuyến vẫn có thể thu hút được những ánh mắt. Decentraland, mà đã giảm 25% người dùng hoạt động từ tháng 11 đến tháng 1, đang chứng kiến sự phục hồi trong tuần này từ Tuần lễ Thời trang Metaverse, một sự kiện mà các thương hiệu như Dolce & Gabbana và Tommy Hilfiger tham gia, theo DCL Metrics, một trang web theo dõi người dùng trong thế giới ảo. "Rõ ràng là sự hào hứng về Metaverse đã giảm. Nhưng chúng ta không nên nhầm lẫn điều này với sự thiếu tiến bộ", ông Ball, nhà đầu tư mạo hiểm và đầy khí thế về Metaverse, cho biết. "Sự thay đổi không nhanh như vậy". —Để biết thêm thông tin về phân tích công nghệ WSJ, lời khuyên và tiêu đề, hãy đăng ký nhận bản tin hàng tuần của chúng tôi. Viết cho Meghan Bobrowsky tại [meghan.bobrowsky@wsj.com](mailto:meghan.bobrowsky@wsj.com) Tín dụng: Bởi Meghan Bobrowsky
The Jobs Most Exposed to ChatGPT (28-3-23 WSJ)
Accountants are among the professionals whose careers are most exposed to the capabilities of generative artificial intelligence , according to a new study. The researchers found that at least half of accounting tasks could be completed much faster with the technology. The same was true for mathematicians, interpreters, writers and nearly 20% of the U.S. workforce, according to the study by researchers at the University of Pennsylvania and OpenAI, the company that makes the popular AI tool ChatGPT . The tool has provoked excitement and anxiety in companies, schools, governments and the general public for its ability to process massive amounts of information and generate sophisticated—though not necessarily accurate or unbiased—content in response to prompts from users. The researchers, who published their working paper online this month, examined occupations' exposure to the new technology , which is powered by software called large language models that can analyze and generate text. They analyzed the share of a job's tasks where GPTs—generative pre-trained transformers—and software that incorporates them can reduce the time it takes to complete a task by at least 50%. Research has found that state-of-the-art GPTs excel in tasks such as translation, classification, creative writing and generating computer code. They found that most jobs will be changed in some form by GPTs, with 80% of workers in occupations where at least one job task can be performed more quickly by generative AI. Information-processing roles—including public relations specialists, court reporters and blockchain engineers—are highly exposed, they found. The jobs that will be least affected by the technology include short-order cooks, motorcycle mechanics and oil-and-gas roustabouts. To reach their conclusions, the authors used a government database of occupations and their associated activities and tasks, and had both people and artificial-intelligence models assign exposure levels to the activities and tasks. The researchers didn't predict whether jobs will be lost or whose jobs will be lost, said Matt Beane, an assistant professor at the University of California, Santa Barbara, who studies the impact of technology on the labor market and wasn't involved in the study. "Exposure predicts nothing in terms of what will change and how fast it will change," he said. "Human beings reject change that compromises their interests" and the process of implementing new technologies is often fraught with negotiation, resistance, "terror and hope," he said. The real challenge, Mr. Beane said, is for companies, schools and policy makers to help people adapt. "That's a multi-trillion dollar problem," he said, and can include, among other things, training workers to collaborate effectively with the technology and redesigning jobs to enhance the autonomy, wages and career prospects of many roles.
Điều tra mới đây cho thấy nghề kế toán dễ bị trí tuệ nhân tạo tạo sinh thay thế nhất. It nhất khoảng một nửa công việc của kế toán có thể được hoàn thành nhanh hơn nhiều nếu áp dụng công nghệ này. Tiêp đến là các nghề nghiên cứu như nhà toán học, thông dịch viên, nhà văn và các nghề nghiệp khác với gần 20% lực lượng lao động ở Mỹ. Đó là kết quả nghiên cứu của các nhà khoa học thuộc ĐH Pennsylvania và OpenAI, công ty đã tạo ra cơn sốt ChatGPT . Công cụ AI phổ biến ChatGPT của OpenAI đã gây ra sự phấn khích và lo lắng tại các công ty, trường học, chính phủ và công chúng vì khả năng xử lý lượng thông tin khổng lồ và tạo ra nội dung đáng kinh ngạc - dù vẫn còn thiếu chính xác và thiên kiến. Các nhà nghiên cứu đã phân tích tác động tiêu cực về việc làm của công nghệ mới này đối với các nghề nghiệp. Họ phân tích tỷ lệ các tác vụ có thể giảm thời gian hoàn thành ít nhất 50% nhờ áp dụng GPTs và các phần mềm sử dụng GPTs. Nghiên cứu đã thấy rằng GPTs hoạt động tốt trong các tác vụ như dịch thuật, phân loại, viết sáng tạo và tạo mã máy tính. Họ đã phát hiện ra rằng hầu hết các công việc sẽ thay đổi do tác động của GPTs, với 80% công nhân trong các nghề nghiệp có ít nhất một tác vụ có thể được thực hiện nhanh hơn bởi AT tạo sinh. Các nghề xử lý thông tin như các chuyên gia quan hệ công chúng, nhà báo, thư ký tòa án và các kỹ sư blockchain đều sẽ bị ảnh hưởng. Các công việc ít bị ảnh hưởng nhất bởi công nghệ này bao gồm các đầu bếp nấu món ăn nhanh, chuyên viên kỹ thuật xe máy và công nhân khoan dầu khí. Để đưa ra kết luận của họ, các tác giả đã sử dụng cơ sở dữ liệu chính phủ về các nghề nghiệp và các hoạt động liên quan, và đã yêu cầu cả người và mô hình trí tuệ nhân tạo gán mức độ tác động cho các hoạt động và nhiệm vụ. Các nhà nghiên cứu không dự đoán liệu các công việc có bị mất hay không và công việc của ai sẽ bị mất. "Nghiên cứu tác động này không dự đoán về những thay đổi và tốc độ thay đổi," - Matt Beane, giáo sư trợ giảng tại Đại học California, Santa Barbara, người nghiên cứu tác động của công nghệ đến thị trường lao động và không liên quan đến nghiên cứu cho biết. "Con người từ chối sự thay đổi khi nó đe dọa lợi ích của họ" và quá trình triển khai công nghệ mới thường trải qua sự đôi co và chống đối, "sợ hãi và hy vọng", ông nói. Thách thức thực sự, ông Beane nói, là ở các công ty, trường học và nhà hoạch định chính sách để làm sao giúp con người thích nghi. "Đó là một vấn đề nhiều ngàn tỉ đô la", ông nói, và có thể bao gồm các khóa đào tạo để hợp tác hiệu quả với công nghệ và thiết kế lại việc làm để tăng tính độc lập, tiền lương và triển vọng nghề nghiệp trong nhiều ngành nghề.
How Offshoring And Artificial Intelligence Threaten U.S. White-Collar Workers(12-4-23 Forbes)
 
Companies are accelerating their efforts to send jobs to lower-cost countries in response to the challenge of finding workers and inflation driving up wages. A recent Federal Reserve Bank of Atlanta survey found that 7.3% of leadership in the United States plans to move more jobs offshore as the next step from remote work within America. Richard Baldwin, an economics professor at the Graduate Institute in Geneva who studied the “offshoreability” of teleworking jobs, gave a warning at the European-based Center for Economic Policy Research last year, “If you can do your job from home, be scared.” Baldwin added, “Be very scared because somebody in India or wherever is willing to do it for much less.” Nicholas Bloom, an economist at Stanford University and an expert in workplace matters, told the Wall Street Journal, “About 10% to 20% of U.S. service support jobs, like software developers, human-resources professionals and payroll administrators, could move overseas in the next decade.” Cutting Costs And Jobs Outsourcing has become a popular business tool for companies across the U.S. looking for ways to increase profit margins and cut costs. According to Zippia, about 300,000 U.S. jobs are outsourced yearly, and 66% of businesses in America outsource at least one department. Moreover, roughly 30 million jobs are vulnerable to outsourcing. MORE FOR YOU Why The Rock's Social Media Muscle Made Him Hollywood's Highest-Paid Actor NFL Superstars And World-Class Salt Water Fishermen Are About To Take Competitive Offshore Sport Fishing To The Next Level IRS Has More Than $1.5 Billion In Unclaimed Tax Refunds And A Potentially Surprising Deadline Highly industrialized countries, like the U.S., offshore to developing countries to curtail operational costs, receive tax benefits and access cheap raw materials. Information technology is the most outsourced industry and business division. The average IT department allocates 13.6% of its budget to offshored roles, and roughly 37% of IT tasks are outsourced. The top five jobs most vulnerable to offshoring include computer programmers, data entry keyers and other computer and information personnel. This Has Been Going On For A Long Time The trend began in the late 1970s at large manufacturers, including General Electric. Jack Welch, GE’s chief executive at the time, argued that public corporations owe their primary allegiance to stockholders, not employees. Welch said that companies should seek to lower costs and maximize profits by moving operations wherever is cheapest. In 2011, Forbes reported that U.S. companies, like GE, Caterpillar, Microsoft and Wal-Mart, employed 20% of all U.S. workers. In the 2000s, these corporations reduced their workforces in America by 2.9 million, while increasing their outsourced roles by 2.4 million. In 2009, large corporations employed 21.1 million American workers and 10.3 million employees outside the U.S. Startups Are Focused On Offshoring White-Collar Professionals The offshoring movement is gaining even more momentum in well-funded startups focused on making it easier for jobs to move around the world. Startups, like Remote.com and Deel, make it easy for companies to hire personnel worldwide. These organizations have established the mechanisms and systems for global corporations to hire, onboard and manage the taxes and compliance for remote workers in countries throughout the world. AngelList Talent scours the globe to find job hunters who want to get hired remotely. Job seekers can share what kind of remote work culture they want, time-zone preferences and other important factors. They then take assessments to demonstrate their skills. For example, engineering candidates can take assessments for frontend, backend, iOS, Android and more and display their scores for recruiters to see. In Addition To Offshoring Jobs, Workers Need To Worry About AI If generative AI lives up to its hype, the workforce in the U.S. and Europe will be upended, Goldman Sachs recently reported. The investment bank estimates 300 million jobs could be lost or diminished by this fast-growing technology. Office administrative support, legal, architecture and engineering, business and financial operations, management, sales, healthcare and art and design are some sectors that automation will impact.
Các công ty đang tăng tốc nỗ lực tuyển nhân sự từ các quốc gia có chi phí thấp hơn để đáp ứng thách thức tìm kiếm nhân công và lạm phát làm tăng chí phí lương. Báo cáo mới đây của Ngân hàng Dự trữ Liên bang Atlanta cho thấy 7,3% lãnh đạo công ty tại Hoa Kỳ dự định sẽ tăng tuyển dụng nhân sự ở nước ngoài, đây là bước tiếp theo sau hiện tượng làm việc từ xa tại Mỹ. Richard Baldwin, giáo sư kinh tế tại Viện Đại học tại Geneva nghiên cứu về khả năng "thuê ngoài" của các công việc làm việc từ xa, cảnh báo tại Trung tâm Nghiên cứu Chính sách Kinh tế ở châu Âu năm ngoái rằng "Nếu bạn có thể làm công việc của mình từ nhà, hãy bên nên lo lắng đi". Baldwin nói thêm, "Hãy nên lo vì ai đó ở Ấn Độ hoặc bất cứ nơi nào khác sẵn sàng làm việc đó với chi phí thấp hơn rất nhiều". Nicholas Bloom, một nhà kinh tế tại Đại học Stanford và chuyên gia về các vấn đề về nơi làm việc, nói với Wall Street Journal: "Khoảng 10% đến 20% các công việc hỗ trợ dịch vụ của Hoa Kỳ, chẳng hạn như các nhà phát triển phần mềm, chuyên gia tài nguyên nhân sự và các nhân viên quản lý lương có thể chuyển sang nước ngoài trong thập kỷ tới". # **Cắt giảm Chi phí và Việc làm** Outsourcing đã trở thành một công cụ kinh doanh phổ biến cho các công ty trên toàn Hoa Kỳ tìm cách tăng lợi nhuận và cắt giảm chi phí. Theo Zippia, khoảng 300.000 việc làm tại Hoa Kỳ được outsourced hàng năm, và 66% doanh nghiệp ở Hoa Kỳ outsourced ít nhất một bộ phận. Hơn nữa, khoảng 30 triệu việc làm có khả năng bị outsourced. Các nước công nghiệp cao như Mỹ sẽ chuyển sang các nước đang phát triển để kiềm chế chi phí vận hành, nhận lợi ích thuế và tiếp cận nguyên liệu thô rẻ. Công nghệ thông tin là ngành công nghiệp được outsourced nhiều nhất. Phòng ban IT trung bình dành 13,6% ngân sách của mình cho các vai trò đã được outsourced và khoảng 37% các nhiệm vụ IT được outsourced. Năm công việc có nguy cơ bị outsourced nhiều nhất bao gồm các lập trình viên máy tính, các nhân viên nhập dữ và nhân viên máy tính và thông tin khác. # **Điều này đã xảy ra từ lâu** Xu hướng bắt đầu từ những năm 1970 tại các nhà sản xuất lớn, bao gồm General Electric. Jack Welch, giám đốc điều hành của GE vào thời điểm đó, cho rằng các công ty niêm yết nợ nghiệp của họ phải có "trách nhiệm chính đối với cổ đông, không phải nhân viên". Welch nói rằng các công ty nên tìm cách giảm chi phí và tối đa hóa lợi nhuận bằng cách chuyển hoạt động đến bất cứ nơi nào rẻ nhất. # **Các startup tập trung vào việc offshoring các chuyên** Phong trào offshoring đang được tăng tốc hơn nữa trong các startup được tài trợ tốt tập trung vào việc làm cho việc chuyển việc trên toàn thế giới dễ dàng hơn. Các startup, như [Remote.com](http://remote.com/) và Deel, làm cho việc thuê nhân viên trên toàn cầu dễ dàng hơn. Các tổ chức này đã thiết lập cơ chế và hệ thống để các tập đoàn toàn cầu thuê, tuyển dụng và quản lý thuế và tuân thủ cho nhân viên từ xa tại các quốc gia trên toàn thế giới. AngelList Talent tìm kiếm trên toàn thế giới để tìm kiếm những người tìm việc muốn được thuê từ xa. Người tìm việc có thể chia sẻ loại văn hóa làm việc từ xa mà họ muốn, sở thích múi giờ và các yếu tố quan trọng khác. Sau đó, họ thực hiện đánh giá để chứng minh kỹ năng của mình. Ví dụ, ứng viên kỹ thuật có thể thực hiện đánh giá cho frontend, backend, iOS, Android và nhiều hơn nữa và hiển thị điểm số của họ để nhà tuyển dụng xem. # **Ngoài chuyển việc sang nước ngoài, người lao động cần lo lắng về trí tuệ nhân tạo** Nếu trí tuệ nhân tạo sinh thần kỳ như lời quảng cáo, lực lượng lao động ở Mỹ và châu Âu sẽ bị đảo lộn, Goldman Sachs mới đây báo cáo. Ngân hàng đầu tư ước tính có khoảng 300 triệu việc làm có thể mất hoặc giảm bớt do công nghệ này phát triển nhanh chóng. Các lĩnh vực hỗ trợ hành chính văn phòng, pháp lý, kiến trúc và kỹ thuật, hoạt động kinh doanh và tài chính, quản lý, bán hàng, chăm sóc sức khỏe và nghệ thuật và thiết kế là một số lĩnh vực mà tự động hóa sẽ ảnh hưởng.
AI Agriculture Startups Take In Record Amount of VC Funding (7-12-21 WSJ)
Venture-capital firms are pouring money into artificial-intelligence agricultural-software startups as farmers turn to the technology to control pests, eradicate weeds and increase crop yields. Investors have put a record $1.54 billion into AI agriculture software companies so far this year, according to data released last week by PitchBook Data Inc. That surpasses the $1.42 billion firms invested in the sector in 2020. In the prior two years, funding totaled $1.03 billion combined, according to the data and research firm. Farmers are under immense pressure to produce more crops with fewer pesticides, fertilizers and other resources, including water, said Michael Gilbert, chief executive of Vancouver startup SemiosBio Technologies Inc., explaining rising interest in AI technology. But to do so farmers need to monitor a constant stream of data on plants, soil and atmospheric conditions, he said. "Given the number of variables, only AI can drive true granular predictive insights," he said. Below, a handful of AI agriculture startups that took in funding this year. Pest control. SemiosBio, which offers an AI-based service to help farmers manage crops and control pests, in September raised $80 million in a Series C funding round led by Morningside Group. The company has raised a total of about $200 million and is valued at more than $1 billion, according to Mr. Gilbert. Semios uses machine learning to analyze millions of data points captured daily by climate sensors, insect traps and cameras installed throughout a customer's farm to understand and predict the conditions that drive insect behavior. That information could help farmers schedule optimal times and locations to use insecticide. NWFM LLC, a farm-management company in Yakima, Wash., early last year started using Semios' Precision Agriculture as a Service to help manage its 2,000 acres of fruit-tree orchards in the Pacific Northwest. Keith Veselka, NWFM's owner and orchard-operations manager, said Semios is helping reduce insecticide and other pest-control costs by about 50% to 60%, although he was unable to put a dollar amount on the savings. Gauging crop and soil performance. IntelinAir Inc. developed an AI-based crop-performance service called AgMRI that pulls in data from a variety of sources, including high resolution aerial imagery, current weather data and information supplied by its farming customers on current field conditions. Computer vision and neural-network technology allow IntelinAir to spot weed infestations, drying patterns, nutrient deficiencies and other potential crop problems. Farmers can access the information from their mobile phone, tablet or desktop. IntelinAir in September raised $20 million in a Series B funding round led by the Regulator Group LLC, Scientia Ventures and others. The company has raised a total of about $30 million, according to Al Eisaian, a company co-founder and its chief executive, who declined to disclose the company's valuation. McKinney & McKinney Inc., a family farm in Kempton, Ind., has been using IntelinAir on about 1,800 acres of corn and soybeans, according to Tom McKinney, the company's president. On some of those acres he said he's seeing an 8% to 15% increase in yields. Search and destroy weeds. Carbon Autonomous Robotics Systems Inc. has developed an autonomous robot equipped with lasers designed to kill weeds. In September it raised $27 million in a Series B funding round from, among others, Anthos Capital, Ignition Partners and Voyager Capital. It has raised a total of $36 million, according to Paul Mikesell, the company's founder and CEO. Autonomous LaserWeeder, the Seattle-based company's four-wheeled, tractor-sized device, is equipped with forward-facing cameras and advanced forms of AI, including technology that allow it to navigate fields. Additional cameras capture ground images, which are also analyzed by neural-network technology, allowing the robot to distinguish between plants and weeds. If a weed is identified, the robot's lasers zap and kill it. Carzalia Valley Produce in Columbus, N.M., has tested the Autonomous LaserWeeder, has one model on order and is considering purchasing more. James Johnson, Carzalia's vice president, estimates the robot could save the 3,100-acre farm between $800 and $1,500 an acre in labor costs. Mr. Johnson said there are fewer people today who want to work in the fields. "Our costs of labor, and availability of labor, has gotten more difficult. We're going to have to switch to more automation," Mr. Johnson said.
Các công ty đầu tư mạo hiểm đang đổ tiền vào các công ty khởi nghiệp phần mềm trí tuệ nhân tạo trong nông nghiệp khi nông dân chuyển sang sử dụng công nghệ để kiểm soát sâu bệnh, diệt cỏ dại và tăng năng suất vụ mùa. Theo dữ liệu được công bố vào tuần trước bởi PitchBook Data Inc, các nhà đầu tư đã đầu tư tổng cộng 1,54 tỷ USD vào các công ty phần mềm trí tuệ nhân tạo nông nghiệp trong năm 2021, vượt qua số tiền 1,42 tỷ USD các công ty đầu tư vào lĩnh vực này trong năm 2020. Trong hai năm trước đó, tổng số tiền đầu tư là 1,03 tỷ USD, theo công ty nghiên cứu và dữ liệu. Theo Michael Gilbert, CEO của công ty khởi nghiệp SemiosBio Technologies Inc. ở Vancouver, nhu cầu sử dụng công nghệ trí tuệ nhân tạo đang tăng cao, bởi nông dân đang phải đối mặt với áp lực lớn để sản xuất nhiều mùa vụ hơn nhưng lại giảm sử dụng thuốc trừ sâu, phân bón và các nguồn tài nguyên khác như nước. Nhưng để làm được điều đó, nông dân cần phải giám sát một luồng dữ liệu liên tục về cây trồng, đất đai và điều kiện khí hậu. "Với số lượng biến số lớn như vậy, chỉ có trí tuệ nhân tạo mới có thể đưa ra những thông tin dự đoán chính xác," ông nói. Dưới đây là một số công ty khởi nghiệp nông nghiệp trí tuệ nhân tạo đã được đầu tư trong năm nay. Kiểm soát sâu bệnh. SemiosBio, cung cấp dịch vụ dựa trên trí tuệ nhân tạo để giúp nông dân quản lý mùa vụ và kiểm soát sâu bệnh, đã gọi vốn thành công 80 triệu USD trong một vòng gọi vốn loạt C vào tháng 9 vừa qua, do Morningside Group dẫn đầu. Công ty đã gọi vốn tổng cộng khoảng 200 triệu USD và được định giá hơn 1 tỷ USD, theo ông Gilbert. Semios sử dụng học máy để phân tích hàng triệu điểm dữ liệu được thu thập hàng ngày bởi các cảm biến khí hậu, bẫy côn trùng và máy ảnh được lắp đặt trên toàn bộ trang trại của khách hàng để nắm được và dự đoán các yếu tố gây ra hành vi của côn trùng. Thông tin này có thể giúp nông dân lên lịch và địa điểm tối ưu để sử dụng thuốc trừ sâu. NWFM LLC, một công ty quản lý nông trại ở Yakima, Washington, đã bắt đầu sử dụng Precision Agriculture as a Service của Semios vào đầu năm ngoái để quản lý 2.000 acre vườn cây trái ở Tây Bắc Thái Bình Dương. Keith Veselka, chủ sở hữu của NWFM và quản lý hoa màu, cho biết Semios đang giúp giảm chi phí thuốc trừ sâu và kiểm soát sâu bệnh khác khoảng 50% đến 60%, mặc dù ông không đưa ra cụ thể số tiền đã tiết kiệm được. Đánh giá hiệu suất cây trồng và đất đai. IntelinAir Inc. đã phát triển dịch vụ hiệu suất cây trồng dựa trên trí tuệ nhân tạo mang tên AgMRI, lấy dữ liệu từ nhiều nguồn khác nhau, bao gồm hình ảnh không gian phân giải cao, dữ liệu thời tiết hiện tại và thông tin được cung cấp bởi khách hàng nông nghiệp về điều kiện hiện tại của hiện trường. Công nghệ thị giác máy tính và mạng thần kinh cho phép IntelinAir phát hiện sự lây lan của cỏ dại, diễn biến khô hạn, thiếu dinh dưỡng và các vấn đề tiềm tàng khác trong nông nghiệp. Nông dân có thể truy cập thông tin từ điện thoại di động, máy tính bảng hoặc máy tính để bàn của họ. IntelinAir đã gọi vốn thành công được 20 triệu đô la Mỹ vào tháng 9 trong vòng gọi vốn loại B với sự dẫn dắt của Regulator Group LLC, Scientia Ventures và các nhà đầu tư khác. Theo Al Eisaian, một trong những người sáng lập công ty và giám đốc điều hành, công ty đã gọi vốn tổng cộng khoảng 30 triệu đô la Mỹ, nhưng ông từ chối tiết lộ giá trị của công ty. McKinney & McKinney Inc., một trang trại gia đình tại Kempton, Indiana, đã sử dụng IntelinAir trên khoảng 1.800 mẫu đất trồng ngô và đậu nành, theo Tom McKinney, chủ tịch của công ty. Ông cho biết trên một số mẫu đất đó, ông đã nhận thấy tăng sản lượng từ 8% đến 15%. Tìm kiếm và tiêu diệt cỏ dại. Carbon Autonomous Robotics Systems Inc. đã phát triển một robot tự động được trang bị laser được thiết kế để tiêu diệt cỏ dại. Vào tháng 9, công ty đã gọi vốn thành công 27 triệu đô la Mỹ trong vòng gọi vốn loại B từ, trong số đó có Anthos Capital, Ignition Partners và Voyager Capital. Tính đến nay, họ đã gọi vốn tổng cộng 36 triệu đô la Mỹ, theo Paul Mikesell, người sáng lập và giám đốc điều hành của công ty. Autonomous LaserWeeder, thiết bị có kích thước bằng một chiếc máy kéo, được đặt trước camera và các dạng nâng cao của trí tuệ nhân tạo, bao gồm công nghệ cho phép nó di chuyển trên các cánh đồng. Các camera bổ sung lấy hình ảnh của mặt đất, được phân tích bởi công nghệ mạng thần kinh, cho phép robot phân biệt giữa cây trồng và cỏ dại. Nếu phát hiện cỏ dại, robot sẽ bắn tia laser để tiêu diệt chúng. Carzalia Valley Produce ở Columbus, New Mexico, đã thử nghiệm Autonomous LaserWeeder, đặt hàng một mô hình và đang xem xét mua thêm. James Johnson, phó chủ tịch Carzalia, ước tính rằng robot có thể tiết kiệm cho trang trại có diện tích 3.100 mẫu đất từ 800 đến 1.500 đô la Mỹ trên mỗi mẫu đất trong chi phí lao động. Ông Johnson cho biết ngày nay có ít người muốn làm việc trên cánh đồng. "Chi phí lao động của chúng tôi, và tình trạng thiếu lao động, đã trở nên khó khăn hơn. Chúng tôi sẽ phải chuyển sang tự động hóa nhiều hơn," ông Johnson nói.
Write to John McCormick at john.mccormick@wsj.com
Duke Professor Recognized for Bringing More Clarity to AI Decision Making (14-10-21 WSJ)
Artificial-intelligence systems can make decisions with incredible speed and accuracy. But because they "self learn" by crunching hordes of data, it isn't always clear how their models reach conclusions. As these systems come to play a larger role across society, opacity in their decision-making processes has emerged as a major problem for computer scientists and practitioners. For helping to address this challenge, Duke University professor Cynthia Rudin has won a $1 million prize that recognized her work in developing healthcare and other machine-learning systems that make decisions in ways that people can easily understand. A professor of computer science and engineering at Duke, she is the second recipient of the prize from the Association for the Advancement of Artificial Intelligence. The group, founded in 1979, is a global organization of roughly 6,000 AI scientists, researchers, students and professionals looking to advance AI research and development. Dr. Rudin was awarded the prize, the AAAI Squirrel AI Award for Artificial Intelligence for the Benefit of Humanity, on Tuesday. The award is funded by China-based online-education company Squirrel AI. Understanding how a model comes to a conclusion is imperative as doctors, judges and wealth managers, among others, find ways to use AI. "For high stakes decisions, you really want to know what's going on," Dr. Rudin said. Many of her methods rely on creating predictive models that make decisions based on concise and narrowly defined rules. Dr. Rudin, working two years ago with a group of collaborators, developed a point-based system to predict which brain-injury patients were at risk of having a seizure. The risk score relies on just a few variables, including patterns in the electrical activity of the brain and the patient's seizure history. The technique, which is being used at Massachusetts General and other hospitals, helps caregivers decide which patients should receive continuous electroencephalography monitoring, an expensive procedure that is used sparingly. Dr. Rudin said for most kinds of high-stakes decisions, the model should be very small so people can understand it and be less likely to make a mistake when using it. The model ideally should be small enough to fit on an index card, she said. If a system is being designed that needs to incorporate a high number of variables, small and interpretable submodels could be combined to come to a conclusion, she said. For computer vision, a form of image analysis, she is working with current and former Duke students on models that learn what a prototypical image is for a type of object, such as a breast lesion in a mammogram. Then, when analyzing new images, it breaks the picture into components and compares its parts to the prototypical images. Each comparison is given a score, and the scores are added to make a prediction on what the image is depicting. Jun Yang, chair of the computer science department at Duke, said Dr. Rudin is changing the AI landscape by pioneering models whose predictions people can understand, act on, and correct. Her work will likely lead to wider adoption of the technology as interpretability concerns are addressed, he said: "If we really want AI to have the broad application we think it deserves, we have to really address this interpretability aspect." Regina Barzilay, a professor at the Massachusetts Institute of Technology, received last year's inaugural Squirrel AI award for work applying AI to breast-cancer detection and to the development of antibiotics and other drugs. Write to John McCormick at john.mccormick@wsj.com
Hệ thống trí tuệ nhân tạo có thể đưa ra quyết định với tốc độ và độ chính xác đáng kinh ngạc. Tuy nhiên, vì chúng "tự học" bằng cách xử lý lượng lớn dữ liệu, cách thức mô hình AI đưa ra kết luận không phải lúc nào cũng rõ ràng. Khi những hệ thống này đóng vai trò quan trọng hơn trong xã hội, việc thiếu thông tin về quá trình ra quyết định của chúng đã trở thành một vấn đề lớn đối với các nhà khoa học và chuyên gia. Để giúp giải quyết thách thức này, giáo sư Cynthia Rudin của Đại học Duke đã giành được giải thưởng trị giá 1 triệu đô la để ghi nhận đóng góp của bà trong việc giúp con người hiểu được cách ra quyết định của các hệ thống học máy chăm sóc sức khỏe và các hệ thống khác. Là một giáo sư khoa học máy tính và kỹ thuật tại Duke, bà là người thứ hai nhận được giải thưởng này từ Hiệp hội Xúc tiến Trí tuệ Nhân tạo (AAAI). Hiệp hội này, được thành lập vào năm 1979, là một tổ chức toàn cầu quy tụ khoảng 6.000 nhà khoa học, nhà nghiên cứu, sinh viên và chuyên gia trí tuệ nhân tạo nhằm thúc đẩy nghiên cứu và phát triển trí tuệ nhân tạo. Tiến sĩ Rudin đã được trao giải thưởng Squirrel AI AAAI cho Trí tuệ Nhân tạo vì Lợi ích của Nhân loại, vào thứ Ba. Giải thưởng được tài trợ bởi công ty giáo dục trực tuyến Squirrel AI của Trung Quốc. Việc hiểu cách ra quyết định của mô hình AI là cần thiết đối với những người đang tìm hiểu cách sử dụng AI như khi bác sĩ, thẩm phán và các chuyên gia quản lý tài sản. "Đối với những quyết định quan trọng, bạn thực sự muốn biết điều gì đang xảy ra," Bà Rudin nói. Nhiều phương pháp của bà dựa trên việc ra quyết định của các mô hình dự đoán dựa trên các quy tắc ngắn gọn và được định nghĩa chính xác. Tiến sĩ Rudin, cùng với một nhóm đồng nghiệp, đã phát triển một hệ thống chấm điểm để dự đoán những bệnh nhân bị chấn thương não có nguy cơ bị co giật. Điểm số về nguy cơ dựa chỉ dựa vào một vài biến số, bao gồm các điểm chung trong các tín hiệu điện của não bộ và lịch sử co giật của bệnh nhân. Kỹ thuật này, được sử dụng tại Bệnh viện Massachusetts General và các bệnh viện khác, giúp người chăm sóc quyết định bệnh nhân nào nên được theo dõi liên tục bằng điện não đồ, một thủ ít được sử dụng do đắt tiền . Tiến sĩ Rudin nói rằng đối với hầu hết các loại quyết định quan trọng, mô hình chỉ nên có quy mô nhỏ để con người có thể hiểu được cách nó vận hành và giảm khả năng mắc sai lầm khi sử dụng. Mô hình lý tưởng chỉ nên nhỏ bằng 1/3 tờ giấy A4, bà nói. Nếu một hệ thống đang được thiết kế cần tích hợp một số lượng biến số lớn, có thể kết hợp các mô hình phụ có kích cơ nhỏ và có thể giải thích được để ra quyết định, bà nói. Đối với thị giác máy tính, một dạng phân tích hình ảnh, bà đang làm việc với các sinh viên và cựu sinh viên của Duke trên các mô hình học tập về hình ảnh mẫu cho một loại đối tượng, chẳng hạn như một khối u vú trong ảnh siêu âm vú. Sau đó, khi phân tích các hình ảnh mới, nó phân tách hình ảnh thành các thành phần và so sánh các phần của nó với các hình ảnh mẫu tiêu chuẩn. Mỗi so sánh được cho điểm, và cộng các điểm để đưa ra dự đoán về hình ảnh cần miêu tả. Jun Yang, chủ tịch khoa khoa học máy tính tại Duke, nói rằng tiến sĩ Rudin đang thay ngành trí tuệ nhân tạo bằng cách tiên phong các mô hình dự đoán mà con người có thể hiểu, thực hiện và sửa chữa. Công việc của bà có thể dẫn đến việc áp dụng công nghệ rộng rãi hơn khi các vấn đề về khả năng có thể hiểu cách vận hành của máy được được giải quyết, ông nói: "Nếu chúng ta thật sự muốn trí tuệ nhân tạo có ứng dụng rộng hơn, chúng ta phải thực sự giải quyết khía cạnh có thể hiểu và giải thích này." Regina Barzilay, giáo sư tại Viện Công nghệ Massachusetts, đã nhận được giải thưởng Squirrel AI đầu tiên vào năm ngoái cho công việc áp dụng trí tuệ nhân tạo vào việc phát hiện ung thư vú và phát triển kháng sinh và các loại thuốc khác. Viết cho John McCormick tại [john.mccormick@wsj.com](mailto:john.mccormick@wsj.com)
He's Been Dead for Nearly 10 Years. Now He's Narrating Your Audiobook. Apple, Google and others embrace the new AI technology for recording audio versions of books
He's Been Dead for Nearly 10 Years. Now He's Narrating Your Audiobook. Apple, Google and others embrace the new AI technology for recording audio versions of books
Ông đã chết gần 10 năm rồi. Bây giờ ông ta đang kể lại cuốn sách audio của bạn. Apple, Google và những người khác đang ủng hộ công nghệ AI mới để ghi âm các phiên bản audio của sách.
Edward Herrmann, a prolific actor who narrated dozens of audiobooks, has been dead for almost a decade. But that hasn't prevented him from being the voice of several recent audiobooks. Mr. Herrmann's latest work is generated by DeepZen Ltd., a London-based artificial-intelligence startup that was given access to the actor's past recordings with his family's permission. From that trove, DeepZen said it is able to generate any sound and intonation that Mr. Herrmann would have used if he were narrating these new books himself. "We felt it was an amazing way to carry on his legacy," said Rory Herrmann, a Los Angeles restaurateur and Mr. Herrmann's son. He said he was astonished when he first listened to an audiobook featuring his father's synthetic voice. "It's a wow moment," he said. Generative AI technology, a type of artificial intelligence that can create various types of content including text, images and audio, has become a buzzword since OpenAI's ChatGPT was launched late last year . The chatbot—which can eloquently answer seemingly any question, but is sometimes spectacularly wrong —became an overnight global phenomenon , fueling speculation that AI could fundamentally reshape many professions . AI's reach into audiobook narration isn't merely theoretical. Thousands of AI-narrated audiobooks are available on popular marketplaces including Alphabet Inc.'s Google Play Books and Apple Inc.'s Apple Books. Amazon.com Inc., whose Audible unit is the largest U.S. audiobook service, doesn't offer any for now, but says it is evaluating its position. The technology hasn't been widely embraced by the largest U.S. book publishers, which mostly use it for marketing efforts and some foreign-language titles. But it is a boon for smaller outfits and little-known authors, whose books might not have the sales potential to warrant the cost—traditionally at least $5,000—of recording an audio version. Apple and Google said they allow users to create audiobooks free of charge that use digitally replicated human voices. The voices featured in audiobooks generated by Apple and Google come from real people, whose voices helped train their automated-narration engines. Charles Watkinson, director of the University of Michigan Press, said the publisher has made about 100 audiobooks using Google's free auto-narrated audiobook platform since early last year. The new technology made those titles possible because it eliminated the costs associated with using a production studio, support staff and human narrators. "From what I can see, human narrators are freaking out," said Dima Abramov, chief executive of Speechki, an Austin, Texas-based audiobook producer that uses synthetically narrated voices. Scott Brick, who has narrated more than 1,000 audiobooks by such authors as Tom Clancy and Nelson DeMille, said AI auto-narration is best suited for nonfiction titles, where narrators and readers aren't as emotionally invested as with works of fiction. "There's realism there, but no soul," Mr. Brick said. DeepZen has worked with more than 30 professional actors to help its AI engine capture all the ranges of human emotion, said Taylan Kamis, its CEO and co-founder. Can you tell the difference between human and AI? Melissa Papel, a Paris-born actress who records from her home studio in Los Angeles, said she recorded eight hours of content for DeepZen, reading in French from different books. "One called for me to read in an angry way, another in a disgusted way, a humorous way, a dramatic way," she said. Ms. Papel said there is still plenty of work for professional narrators because the new era of AI auto-narration is just getting under way, though she said that might not be the case in the future. "I understood that they would use my voice to teach software how to speak more humanly," Ms. Papel said. "I didn't realize they could use my voice to pronounce words I didn't say. That's incredible." DeepZen pays its narrators a flat fee plus a royalty based on the revenue the company generates from different projects. The agreements span multiple years, Mr. Kamis said. Jeffrey Bennett, general counsel for the Screen Actors Guild-American Federation of Television and Radio Artists, a national union that represents performers, including professional audiobook narrators, said he expects AI to eventually disrupt the industry. "Anything we're seeing and hearing now will get better and better," he said. Mr. Bennett added that the union is working to protect voice and likeness rights. "We do not believe the disruptions are unmanageable for professional voice talent," he said. Simi Linton said she isn't a fan of "Mary," the synthetic voice that the University of Michigan Press picked to narrate "My Body Politic," her 2005 memoir that focuses on her life as a disabled woman. "The reason I agreed to have this synthetic creation made was to increase the accessibility of my book for blind readers and those with other impairments," she said of the audiobook, which became available in 2020. Audiobooks remain a bright spot in an industry that has struggled since Americans returned to prepandemic activities. Audiobook sales rose 7% last year, according to the Association of American Publishers, while print book sales declined by 5.8%, according to book tracker Circana BookScan. James Daunt, CEO of Barnes & Noble , which is already selling AI-generated titles, said such audiobooks are welcome as long as they are clearly labeled. Audible is evaluating its approach to audiobooks narrated by artificial intelligence, according to a spokeswoman. "Professional narration has always been and will remain core to the Audible listening experience," she said, but "we see a future in which human performances and text-to-speech generated content can coexist." The country's biggest publishers are on the fence. Ana Maria Allessi, publisher of Hachette Audio, the audiobook arm of Lagardère SA's Hachette Book Group, said the publisher hasn't yet tested titles made with AI technology. She said she is open-minded about computer-generated recordings, as long as they are clearly marked. HarperCollins Publishers, which like The Wall Street Journal is owned by News Corp, is relying on AI for limited uses. The publisher is testing some AI-generated narration for its audiobooks in foreign markets to gauge quality and consumer reaction. HarperCollins used Google to make those audiobooks. HarperCollins doesn't sell any such audiobooks in the U.S., but it recently started sending audio files generated by DeepZen to retailers and reviewers ahead of a book's publication. The company deems those more environmentally friendly than printing advance copies, said Chantal Restivo-Alessi, the publisher's chief digital officer. The audio files aren't for sale. DeepZen says it has signed deals with 35 publishers in the U.S. and abroad and is working with 25 authors. The artificial intelligence engine created by DeepZen uses machine-learning software that replicates how a person speaks as well as the characteristics of that person's voice. It can add emotion and focus on hard-to-pronounce words, such as names of characters in science-fiction novels or the smallest towns in China, Mr. Kamis said. "It's easier than using a human narrator," he said. Josiah Ziegler, a psychiatrist in Fort Collins, Colo., last year created Intellectual Classics, which focuses on nonfiction works that are out of copyright and don't have an audiobook edition. He chose Mr. Herrmann as the narrator for "The War with Mexico," a work by Justin H. Smith that won the 1920 Pulitzer Prize for history whose audiobook version Dr. Ziegler expects to publish later this year. "I knew his voice," Dr. Ziegler said. "He was very good, and I thought I'd give it a try." DeepZen, which has created nearly a hundred audiobooks featuring Mr. Herrmann's voice, is pursuing the rights of other well-known stars who have died. "We are looking to expand our library, but we can't divulge anything else," Mr. Kamis said. Write to Jeffrey A. Trachtenberg at Jeffrey.Trachtenberg@wsj.com Credit: By Jeffrey A. Trachtenberg
Edward Herrmann, một diễn viên nổi tiếng và đã đọc hàng chục cuốn sách audio, đã qua đời được hơn một thập kỉ. Tuy nhiên, người ta vẫn nghe giọng ông đọc một số cuốn sách audio mới nhất. Bài đọc gần đây của ông Herrmann được tạo ra bởi DeepZen Ltd., một công ty khởi nghiệp chuyên về trí tuệ nhân tạo có trụ sở tại Luân Đôn, được gia đình ông cho phép tiếp cận các bản thu âm trước đây của diễn viên. Từ đó, DeepZen cho biết họ có thể tạo ra bất kỳ âm thanh và ngữ điệu nào mà ông Herrmann sẽ sử dụng nếu ông còn sống và đọc các cuốn sách mới này. "Chúng tôi cảm thấy đó là cách tuyệt vời để tiếp tục di sản của ông", Rory Herrmann, một chủ nhà hàng ở Los Angeles và là con trai của ông Herrmann, cho biết. Ông nói ông cảm thấy ngạc nhiên khi lần đầu tiên nghe một cuốn sách audio có giọng nói nhân tạo của cha mình. "Đó là một khoảnh khắc tuyệt vời", ông nói. Công nghệ AI tạo sinh, một loại trí tuệ nhân tạo có thể tạo ra nhiều loại nội dung bao gồm văn bản, hình ảnh và âm thanh, đã trở thành tâm điểm chủ đề bàn luận từ khi ChatGPT của OpenAI ra mắt vào cuối năm ngoái. Cái chatbot này có thể trả lời một cách lưu loát bất kỳ câu hỏi nào, không phải bao giờ cũng chính xác. ChatGPT đã nhanh chóng trở thành hiện tượng toàn cầu, gây ra tranh luận về việc liệu AI có thể thay đổi nhiều nghề nghiệp. Việc ứng dụng AI vào đọc sách nói không chỉ là lý thuyết. Hàng nghìn cuốn sách nói do AI đọc hiện đang được bán rộng rãi trên các thị trường như Google Play Books của Alphabet Inc. và Apple Books của Apple Inc. Amazon.com, công ty cung cấp sách nói lớn nhất tại Hoa Kỳ, hiện chưa tham gia vào việc này, nhưng cho biết đang cân nhắc tình hình. Công nghệ này chưa được các nhà xuất bản sách lớn nhất tại Mỹ coi trọng Họ chỉ sử dụng công nghệ này trong các chiến dịch tiếp thị và một số đầu sách tiếng nước ngoài. Nhưng đối với các công ty nhỏ và các tác giả ít chưa có tên tuổi, điều này mang lại lợi ích, vì các cuốn sách của họ có thể không đủ doanh thu để chi trả chi phí ghi âm sách nói - ít nhất là 5.000 đô la. Apple và Google cho biết họ cho phép người dùng tạo sách audio miễn phí sử dụng giọng nói nhân tạo được kỹ thuật số mô phỏng từ giọng con người. Các giọng đọc trong các cuốn sách nói được tạo ra bởi Apple và Google dựa trên giọng của người thật, được sử dụng trong đào tạo các phần mềm tạo giọng đọc tự động. Charles Watkinson, giám đốc của Nhà xuất bản Đại học Michigan, cho biết từ đầu năm ngoái, nhà xuất bản đã tạo ra khoảng 100 cuốn sách nói sử dụng nền tảng sách audio được lồng tiếng tự động nhờ công nghệ do Google cung cấp miễn phí. Công nghệ mới này đã giúp các cuốn sách đó được lồng tiếng nhờ việc cắt giảm các chi phí liên quan đến việc sử dụng phòng thu sản xuất, nhân viên hỗ trợ và người đọc. "Tôi thấy là những người lồng tiếng cho sách nói đang lo ngại", Dima Abramov, giám đốc điều hành của Speechki, một nhà sản xuất sách nói có sử dụng giọng đọc tổng hợp ở Austin, Texas. Scott Brick, người đọc hơn 1.000 cuốn sách nói của các tác giả như Tom Clancy và Nelson DeMille, cho biết giọng đọc AI phù hợp nhất với các thể loại sách phi hư cấu, là các thể thoại không đòi hỏi cảm xúc của người đọc và độc giả như các tác phẩm hư cấu. "Đó là sự thật trần trụi, nhưng không có cảm xúc", ông Brick nói. DeepZen đã làm việc với hơn 30 diễn viên chuyên nghiệp để luyện cho mô hình AI của họ nắm bắt được tất cả các dạng biểu hiện cảm xúc của con người, Taylan Kamis, CEO và đồng sáng lập của họ cho biết. Bạn có thể phân biệt được giữa con người và AI không? Melissa Papel, một nữ diễn viên sinh ra ở Paris và thu âm từ phòng thu tại nhà của mình ở Los Angeles, cho biết cô đã thu âm tám giờ nội dung cho DeepZen, đọc các cuốn sách khác nhau bằng tiếng Pháp. "Một cuốn sách đòi hỏi giọng đọc giận dữ, một cuốn sách khác thì cần giọng đọc phẫn nộ, hài hước, kịch tính," cô nói. Ông Papel cho biết vẫn có rất nhiều công việc cho các giọng đọc chuyên nghiệp vì thời đại của giọng đọc AI mới chỉ bắt đầu, tuy nhiên bà không biết chuyện gì sẽ xảy ra trong tương lai. "Tôi hiểu rằng họ sẽ sử dụng giọng nói của tôi để dạy phần mềm làm thế nào để đọc nghe giống con người hơn," bà Papel nói. "Lúc đó tôi không biết họ có thể sử dụng giọng nói của tôi để đọc những câu mà tôi chưa từng nói. Điều đó thật không thể tin được." DeepZen trả cho các giọng đọc một khoản phí cố định cộng với tiền hoa hồng dựa trên doanh thu mà công ty tạo ra từ các dự án khác nhau. Các thỏa thuận kéo dài nhiều năm, ông Kamis cho biết. Jeffrey Bennett, đại diện pháp lý chung cho Hiệp hội Diễn viên Màn ảnh và Liên đoàn Truyền hình và Phát thanh Hoa Kỳ, một liên đoàn quốc gia đại diện cho các nghệ sĩ, bao gồm các giọng lồng tiếng sách nói chuyên nghiệp, cho biết ông tin rằng AI sẽ làm đảo lộn ngành nghề này. "Chất lượng các tác phẩm nghe nhìn sẽ càng ngày càng tốt hơn," ông Bennett nói. Ông Bennett nói thêm rằng liên đoàn đang làm việc để bảo vệ quyền sở hữu giọng nói. "Chúng tôi không tin rằng không thể quản lý các diễn biến đó để bảo vệ các giọng đọc chuyên nghiệp," ông nói. Simi Linton cho biết cô không phải là fan của "Mary", giọng nói tổng hợp mà Nhà xuất bản Đại học Michigan Press đã chọn để đọc cuốn "My Body Politic", cuốn hồi ký của cô năm 2005 kể về cuộc đời là một người phụ nữ khuyết tật của cô. "Lý do tôi đồng ý sử dụng giọng đọc nhân tạo này là để giúp các độc giả khiếm thị và những người khuyết tật khác dễ tiếp cận cuốn sách của tôi." cô nói về cuốn sách nói, được phát hành vào năm 2020. Sách nói vẫn là một điểm sáng trong ngành công nghiệp xuất bản sách đang gặp khó khăn kể từ khi người Mỹ trở lại các hoạt động trước đại dịch. Theo Hiệp hội các nhà xuất bản Hoa Kỳ, doanh số sách nói đã tăng 7% trong năm ngoái, trong khi doanh số sách in giảm 5,8%, theo công ty nghiên cứu Circana BookScan. James Daunt, CEO của Barnes & Noble, đã bán các sách do AI đọc, cho biết các loại sách nói này được chào đón miễn là có thông báo rõ ràng. Công ty sách nói Audible đang xem xét việc sử dụng giọng AI để đọc sách nói, theo một người phát ngôn. "Giọng đọc chuyên nghiệp luôn luôn là yếu tố then chốt cho trải nghiệm nghe của Audible," cô nói, nhưng "chúng tôi thấy một tương lai trong đó các giọng đọc của con người và giọng đọc AI có thể cùng tồn tại." Các nhà xuất bản lớn nhất của Mỹ đang đứng giữa hai lựa chọn. Ana Maria Allessi, nhà xuất bản của Hachette Audio, chi nhánh chuyên về sách nói của Lagardère SA's Hachette Book Group, cho biết nhà xuất bản chưa thử nghiệm các sách nói được tạo ra bằng công nghệ AI. Bà cho biết bà có quan điểm cởi mở với các bản thu âm được tạo ra bởi máy tính, miễn là chúng được thông báo rõ ràng. HarperCollins Publishers, giống như The Wall Street Journal, do News Corp sở hữu, mới chỉ ứng dụng AI một cách hạn chế. Nhà xuất bản đang thử nghiệm một số sách nói được tạo ra bằng AI cho thị trường nước ngoài để đánh giá chất lượng và phản ứng của người tiêu dùng. HarperCollins đã sử dụng công nghệ của Google để tạo ra các cuốn sách nói đó. HarperCollins không bán bất kỳ cuốn sách nói nào như vậy tại Hoa Kỳ, nhưng gần đây họ đã bắt đầu gửi các tệp âm thanh được tạo ra bởi DeepZen đến các nhà bán lẻ và nhà phê bình trước khi xuất bản sách. Chantal Restivo-Alessi, giám đốc kỹ thuật số của nhà xuất bản, cho biết công ty coi đó là cách làm thân thiện hơn với môi trường so với in bản in giấy. DeepZen cho biết họ đã ký hợp đồng với 35 nhà xuất bản ở Mỹ và nước ngoài và đang hợp tác với 25 tác giả. Phần mềm trí tuệ nhân tạo được tạo ra bởi DeepZen sử dụng phần mềm học máy sao chép giọng nói và chất giọng của con người. Nó có thể bổ sung cảm xúc và đọc được những từ khó phát âm, như tên các nhân vật trong tiểu thuyết khoa học viễn tưởng hoặc các thị trấn nhỏ ở Trung Quốc, ông Kamis cho biết. "So với một giọng đọc con người thì giọng đọc AI thực hiện việc đó dễ dàng hơn" ông nói. Josiah Ziegler, một bác sĩ tâm thần học ở Fort Collins, Colorado, người đã tạo ra Intellectual Classics vào năm ngoái, chuyên kinh doanh các tác phẩm phi hư cấu đã hết hạn bản quyền và không có phiên bản sách nói. Ông đã chọn giọng đọc của ông Herrmann cho cuốn sách "The War with Mexico", một tác phẩm của Justin H. Smith giành giải Pulitzer năm 1920 về đề tài lịch sử. Tiến sĩ Ziegler hy vọng bản sách nói sẽ xuất bản vào cuối năm nay. "Tôi đã biết giọng đọc của ông ta," Tiến sĩ Ziegler nói. "Ông ta đọc rất tốt, và tôi nghĩ tôi sẽ thử giọng của ông ấy." Sau khi tạo ra gần trăm cuốn sách nói với giọng đọc của ông Herrmann, DeepZen hiện đang mua bản quyền giọng đọc của các ngôi sao khác đã qua đời. "Chúng tôi đang tìm cách mở rộng thư viện sách nói, nhưng chúng tôi không thể tiết lộ bất cứ điều gì khác," ông Kamis nói. Viết cho Jeffrey A. Trachtenberg tại Jeffrey.Trachtenberg@wsj.com Tín dụng: Bởi Jeffrey A. Trachtenberg
Elon Musk launches AI company: WSJ
Tesla Inc. TSLA, -0.48%  Chief Executive Elon Musk has launched an artificial intelligence company called X.AI, incorporated in Nevada, The Wall Street Journal reported Friday, citing a state filing. Musk is the only listed director of the company, and Jared Birchall, the director of Musk’s family office, is its secretary, the report said, adding that the filing was made last month. X.AI has authorized the sale of 100 million shares for the privately held company, according to the report. Earlier Friday, the Financial Times said that Musk was hiring engineers and talking to Tesla and Space X investors to launch an AI startup  that would rival Open AI. According to the FT report, which cited anonymous sources, Musk has amassed “thousands” of GPU processors from Nvidia Corp. NVDA, +1.11%  for the new venture.
Giám đốc điều hành chính Elon Musk đã thành lập một công ty trí tuệ nhân tạo mang tên X.AI , được thành lập tại Nevada, theo báo cáo của The Wall Street Journal vào thứ Sáu, trích dẫn một tệp đăng ký của tiểu bang. Musk là giám đốc duy nhất của công ty, và Jared Birchall, giám đốc của văn phòng gia đình của Musk, là thư ký của công ty, báo cáo nói thêm rằng đăng ký được thực hiện vào tháng trước. X.AI đã ủy quyền bán 100 triệu cổ phiếu cho công ty tư nhân, theo báo cáo. Trước đó vào thứ Sáu, Financial Times cho biết Musk đang tuyển dụng kỹ sư và nói chuyện với các nhà đầu tư Tesla và Space X để ra mắt một công ty khởi nghiệp trí tuệ nhân tạo cạnh tranh với Open AI. Theo báo cáo của FT, trích dẫn các nguồn tin không tên, Musk đã tích lũy "hàng ngàn" bộ xử lý đồ họa GPU từ Nvidia Corp. cho công cuộc mới này.
 
Using ChatGPT for Questions Specific to Your Company Data
Using ChatGPT for Questions Specific to Your Company Data ChatGPT is a powerful language model that can be used for a variety of tasks. But did you know you can use custom data to improve its accuracy and speed? As a child, I was obsessed with Isaac Asimov’s Foundation series of books. The books were based on the premise that when the volume of data becomes extremely large, you can predict the future with a very small statistical margin of error. In many ways, ChatGPT does precisely that — it predicts the next word and the word after based on what it has learned from a vast corpus of data. As this corpus becomes larger, the margin of error becomes smaller. But here’s the thing: ChatGPT can only generate text that is similar to the text it was trained on. But what if I want ChatGPT to generate responses based on my data that is not publicly available? For example, I may work for a company that has volumes of product documentation, code, internal wikis, conversations, feedback from our customers and meeting notes that capture the context of what I want ChatGPT to learn from and respond to. This way, if I ask ChatGPT something, it should generate a response that is customized to my company’s ethos. As of writing this article, as far as I am aware, there are only two ways of achieving this. Method 1: Fine-Tune ChatGPT Against Your Dataset This involves training the large language model (LLM) on data specific to your domain. With ChatGPT, you can only fine-tune GPT-2 and GPT-3 against custom data. OpenAI provides API access to download links for different-sized models, which can be found in their respective repositories. Once you have downloaded the model, you then need to use TensorFlow, PyTorch or some other relevant library first to define the training parameters and train the model against 80% of your data, using 10% of your data for validation and another 10% for testing. Keep in mind this method also involves configuring hardware resources such as graphical processing units (GPUs) or tensor processing units (TPUs) for the chosen model. Finally, you can deploy this model into your application using APIs, SDKs, etc. By now, you have probably realized this method is not for the faint of heart and often requires significant computational resources to pull off, not to mention several trial-and-error iterations. This brings me to the second method. Method 2: Prompt Engineering with Your Database In this method, you store all your relevant company data (a feat in and of itself 🙂) in one single database. Then, when a user puts in a prompt, you match it against your company data in the database, find similar results to the user prompt, modify the prompt and send it over to GPT-4 (or GPT3 if you are still on the waitlist). Using a database to store and query your custom data can be a very efficient way to use that data for ChatGPT. This is because databases are designed to store and query large amounts of data quickly. In addition, databases can be used to store data in various formats, which means that you can store your custom data in the most convenient format. Since you are still sending prompts to OpenAPI, one limitation to keep note of with this method is the limit of ~8,000 tokens — or roughly 32,000 characters that you can send to GPT APIs. In addition, since you are now adding a layer between the user prompt and OpenAI APIs, you also have to be extremely efficient with the search result and prompt engineering, both with accuracy and latency, before you send this prompt to GPT-4. This brings me to the choice of database and a method to query the data so the database can find relevant data using semantic search in a few milliseconds. The obvious choice for this in my mind is SingleStoreDB. Here is why: SingleStoreDB is a database that can ingest data row by row while you query it for real-time analytics. This means you can use SingleStoreDB to store your custom data and query that data in real time. This can be very useful for tasks like answering questions, generating text and translating languages. SingleStoreDB offers a variety of features that make it ideal for use with ChatGPT. Its features also include: The ability to store data in a variety of formats like vectors The ability to run native vector functions like DOT_PRODUCT The ability to use a variety of database query languages including SQL However, given that we want to do a quick search, we need to store all data as vector embeddings so you can do a semantic search with simply one line of SQL code with SingleStoreDB native vector functions. In plain English, this means storing your data as numbers so when you send a piece of data, it can respond to results that are semantically similar vs. an exact keyword search. Oh, and as I mentioned earlier, you want this to happen in milliseconds. Here are the steps for how to do this: Steps for Using Custom Data with ChatGPT To use custom data with ChatGPT, you will need to follow the steps below. In our example, we are assuming that the user wants ChatGPT to respond with something that includes all the customer feedback the company has collected and stored for future product development. 1. First, sign up for a free trial with SingleStoreDB cloud and get $500 in credits. Create a workspace and a database. 2. Next, create a table in your database with your schema. In this example, we created a sample table called embeddings with a text column that we want to index: CREATE TABLE embeddings (id INT AUTO_INCREMENT PRIMARY KEY, text TEXT NOT NULL, vector blob); 3. Create a SingleStore pipeline and bring your data into the table. Within SingleStoreDB, you can do this either by reading a CSV on an S3 Bucket or other supported data sources. Here is a pipeline that reads a CSV to inject data into the table above: LOAD DATA INFILE '/path/to/embeddings.csv' INTO TABLE embeddings FIELDS TERMINATED BY ',' ENCLOSED BY '"' LINES TERMINATED BY '\n' IGNORE 1 LINES -- To ignore the header row (text); 4. Next, create embeddings for your entries and store them in your table in the vector column. Here, we will create embeddings for an entry in the text column using OpenAI’s embeddings API. For more instructions on how to use OpenAI’s embeddings API, look at our blog, where we perform semantic search: You can use OpenAI embeddings API to get this input_vector: UPDATE embeddings SET vector = JSON_ARRAY_PACK(‘sample vector’)WHERE text=’sample text’ 5. After you have added embeddings for each of your entries, run semantic search using our in-built and highly parallelized DOT_PRODUCT vector function with just one line of SQL: You can use OpenAI embeddings API to get this input_vector: SET @input_vector = 'Replace this with the vector representation of your query'; SELECT review, DOT_PRODUCT(vector, JSON_ARRAY_PACK(input_vector)) AS Score FROM embeddings ORDER BY Score DESC LIMIT 5 6. The example above will return the top five most similar records. You can now extract the content and add it to your prompt to then send to OpenAI for a response custom to your data set. Conclusion Using custom data for ChatGPT can be a very effective way to improve the accuracy and speed of ChatGPT’s responses. Following the steps outlined above, you can use custom data to generate a ChatGPT response specific to your domain. In a future article, I will detail a custom ChatGPT bot built with Node that can talk to a custom SingleStore database to generate responses for custom data that was not used for training ChatGPT. Stay tuned!
ChatGPT là một mô hình ngôn ngữ mạnh mẽ có thể được sử dụng cho nhiều nhiệm vụ khác nhau. Nhưng bạn có biết rằng bạn có thể sử dụng dữ liệu tùy chỉnh để cải thiện độ chính xác và tốc độ của nó không? Khi còn nhỏ, tôi đã bị ám ảnh bởi bộ sách Foundation của Isaac Asimov. Các cuốn sách dựa trên giả thuyết rằng khi khối lượng dữ liệu trở nên cực lớn, bạn có thể dự đoán tương lai với sai số thống kê rất nhỏ. Nói chung ChatGPT đang làm được điều đó - nó dự đoán từ tiếp theo dựa trên những gì nó đã học từ một bộ dữ liệu lớn. Khi bộ dữ liệu này có kích thước lớn, sai số giảm đi. Đây là điều quan trọng cần nhớ: ChatGPT chỉ có thể tạo ra văn bản tương tự với văn bản mà nó được huấn luyện. Nhưng nếu tôi muốn ChatGPT tạo ra các phản hồi dựa trên dữ liệu của riêng tôi thì sao? Ví dụ, công ty của tôi có thể có khối lượng lớn tài liệu về sản phẩm, mã, wikis nội bộ, cuộc trò chuyện, phản hồi từ khách hàng, và ghi chép về các cuộc họp tạo nên thông tin bối cảnh để ChatGPT học và dựa vào đó để phản hồi. Như vậy, nếu tôi hỏi ChatGPT điều gì đó, nó sẽ tạo ra một phản hồi được tùy chỉnh cho bối cảnh công ty của tôi. Ở thời điểm viết bài này, theo như tôi biết, chỉ có hai cách để thực hiện điều này. Phương pháp 1: Tinh chỉnh ChatGPT theo tập dữ liệu của bạn Bạn cần huấn luyện mô hình ngôn ngữ lớn (LLM) trên dữ liệu cụ thể của lĩnh vực của bạn. Với ChatGPT, bạn chỉ có thể tinh chỉnh GPT-2 và GPT-3 theo dữ liệu tùy chỉnh. OpenAI cấp quyền truy cập API để tải xuống các liên kết cho các mô hình có kích thước khác nhau, có thể được tìm thấy trong các kho lưu trữ của họ. Sau khi tải xuống mô hình, bạn cần sử dụng TensorFlow, PyTorch hoặc một thư viện phù hợp khác để định nghĩa các tham số huấn luyện và huấn luyện mô hình trên 80% dữ liệu của bạn, sử dụng 10% dữ liệu cho việc xác thực và 10% còn lại cho việc test mô hình. Lưu ý rằng phương pháp này đòi hỏi cấu hình tài nguyên phần cứng như GPU hoặc đơn vị xử lý tensor (TPU) cho mô hình đã chọn. Cuối cùng, bạn có thể triển khai mô hình này vào ứng dụng của mình bằng cách sử dụng API, SDK, vv. Bây giờ, bạn có thể nhận ra rằng phương pháp này không dành cho những người yếu tim và thường đòi hỏi tài nguyênmáy tính đáng kể để thực hiện, không kể đến các lần thử sai. Phương pháp 2: Kỹ thuật prompt áp dụng vào cơ sở dữ liệu của bạn Với phương pháp này, bạn lưu tất cả dữ liệu về công ty trong một cơ sở dữ liệu duy nhất. Sau đó, khi người dùng nhập một câu hỏi, bạn so sánh nó với dữ liệu công ty trong cơ sở dữ liệu, tìm kết quả tương tự với câu hỏi của người dùng, sửa đổi câu hỏi và gửi nó đến GPT-4 (hoặc GPT3 nếu bạn vẫn đang trong danh sách chờ). Sử dụng cơ sở dữ liệu để lưu trữ và truy vấn dữ liệu tùy chỉnh của bạn có thể là một cách rất hiệu quả để sử dụng dữ liệu đó với ChatGPT. Lý do là vì các cơ sở dữ liệu được thiết kế để lưu trữ và truy vấn lượng lớn dữ liệu nhanh chóng. Ngoài ra, các cơ sở dữ liệu có thể được sử dụng để lưu trữ dữ liệu theo các định dạng khác nhau, điều này có nghĩa là bạn có thể lưu trữ dữ liệu tùy chỉnh của mình dưới định dạng thuận tiện nhất. khi gửi prompt đến OpenAPI, một giới hạn cần lưu ý với phương pháp này là giới hạn khoảng ~8,000 token - khoảng 32,000 ký tự là giới hạn bạn có thể gửi đến các API GPT. Ngoài ra, vì bạn đang thêm một lớp trung gian giữa prompt của người dùng và các API OpenAI, nên trước khi gửi lời nhắc này đến GPT-4, kết quả tìm kiếm và kỹ thuật câu hỏi prompt của bạn cần phải rất hiệu quả về tính chính xác và độ trễ. Do đó cần lựa chọn cơ sở dữ liệu và phương pháp truy vấn dữ liệu để cơ sở dữ liệu có thể thực hiện việc tìm kiếm ngữ nghĩa đối với dữ liệu phù hợp trong vài mili giây. SingleStoreDB là lựa chọn hàng đầu. Lý do: SingleStoreDB là cơ sở dữ liệu có thể chấp nhận lượng lớn dữ liệu khi bạn truy vấn để phân tích thời gian thực. Điều này có nghĩa là bạn có thể sử dụng SingleStoreDB để lưu trữ dữ liệu tùy chỉnh của mình và truy vấn dữ liệu đó theo thời gian thực. Điều này có thể rất hữu ích cho các nhiệm vụ như trả lời câu hỏi, tạo văn bản và dịch ngôn ngữ. SingleStoreDB cung cấp nhiều tính năng làm cho nó lý tưởng cho việc sử dụng với ChatGPT. Các tính năng của nó bao gồm: Khả năng lưu trữ dữ liệu trong nhiều định dạng như vector Khả năng chạy các hàm vector nguyên gốc như DOT_PRODUCT Khả năng sử dụng nhiều ngôn ngữ truy vấn cơ sở dữ liệu như SQL Tuy nhiên, vì muốn tìm kiếm nhanh chóng, chúng ta cần lưu trữ tất cả dữ liệu dưới dạng vector nhúng để bạn có thể thực hiện tìm kiếm ngữ nghĩa chỉ với một dòng mã SQL với các chức năng vector nhúng tự nhiên của SingleStoreDB. Nói đơn giản, điều này có nghĩa là lưu trữ dữ liệu của bạn dưới dạng số để khi bạn gửi dữ liệu, nó có thể phản hồi với các kết quả có tương tự về ngữ nghĩa so với cách trả về kết quả tìm kiếm với từ khóa chính xác. Và như tôi đã đề cập trước đó, bạn muốn điều này xảy ra trong vài mili giây. Dưới đây là các bước để làm điều này: Các bước sử dụng dữ liệu tùy chỉnh với ChatGPT Để sử dụng dữ liệu tùy chỉnh với ChatGPT, bạn sẽ cần làm theo các bước dưới đây. Trong ví dụ của chúng tôi, chúng tôi giả định rằng người dùng muốn ChatGPT phản hồi với điều gì đó như tất cả phản hồi của khách hàng mà công ty đã thu thập và lưu trữ cho phát triển sản phẩm trong tương lai. 1. Đầu tiên, đăng ký dùng thử miễn phí SingleStoreDB cloud và nhận được 500 đô la để sử dụng miễn phí. Tạo một không gian làm việc và một cơ sở dữ liệu. 2. Tiếp theo, tạo một bảng trong cơ sở dữ liệu của bạn với lược đồ của bạn. Trong ví dụ này, chúng tôi tạo một bảng mẫu có tên là embeddings với một cột văn bản mà chúng tôi lập chỉ mục: CREATE TABLE embeddings (id INT AUTO_INCREMENT PRIMARY KEY, text TEXT NOT NULL, vector blob); 1. Tạo một SingleStore pipeline và đưa dữ liệu của bạn vào bảng. Trong SingleStoreDB, bạn có thể làm điều này bằng cách đọc một CSV trên một Bucket S3 hoặc các nguồn dữ liệu được hỗ trợ khác. Đây là một pipeline đọc CSV để chèn dữ liệu vào bảng trên: LOAD DATA INFILE '/path/to/embeddings.csv' INTO TABLE embeddings FIELDS TERMINATED BY ',' ENCLOSED BY '"' LINES TERMINATED BY '\n' IGNORE 1 LINES -- To ignore the header row (text); 5. Tiếp theo, tạo các vector nhúng cho các mục của bạn và lưu chúng vào bảng của bạn trong cột vector. Ở đây, chúng tôi sẽ tạo các vector nhúng cho một mục trong cột văn bản bằng cách sử dụng API nhúng OpenAI. Để biết thêm hướng dẫn về cách sử dụng API nhúng OpenAI, hãy xem blog của chúng tôi về thực hiện tìm kiếm ngữ nghĩa: Bạn có thể sử dụng API nhúng OpenAI để nhận được input_vector này: UPDATE embeddings SET vector = JSON_ARRAY_PACK(‘vector mẫu’)WHERE text=’text mẫu’ 5. Sau khi bạn đã thêm nhúng cho mỗi mục của mình, thực hiện tìm kiếm ngữ nghĩa bằng cách sử dụng hàm vector DOT_PRODUCT được tích hợp sẵn chỉ với một dòng SQL: Bạn có thể sử dụng API nhúng OpenAI để nhận được input_vector này: SELECT review, DOT_PRODUCT(vector, JSON_ARRAY_PACK(input_vector)) AS Score FROM embeddings ORDER BY Score DESC LIMIT 5 6. Ví dụ trên sẽ trả về năm bản ghi gần giống nhất. Bây giờ, bạn có thể trích xuất và thêm nội dung vào prompt của mình để sau đó gửi cho OpenAI để nhận được một phản hồi tùy chỉnh cho tập dữ liệu của bạn. Kết luận Sử dụng dữ liệu tùy chỉnh cho ChatGPT có thể là một cách rất hiệu quả để cải thiện độ chính xác và tốc độ phản hồi của ChatGPT. Theo các bước được đề cập ở trên, bạn có thể sử dụng dữ liệu tùy chỉnh để tạo ra phản hồi ChatGPT cụ thể cho lĩnh vực của bạn. Trong một bài viết tương lai, tôi sẽ trình bầy chi tiết về một bot ChatGPT tùy chỉnh được xây dựng với Node có thể nói chuyện với một cơ sở dữ liệu SingleStore tùy chỉnh để tạo ra các phản hồi cho dữ liệu tùy chỉnh không được sử dụng để đào tạo ChatGPT. Hãy đón xem!
The AI Job That Pays Up to $335K—and You Don't Need a Computer Engineering Background
Unlike traditional coding jobs, the prompt engineering role is targeted to anyone with basic programming skills and familiarity with large language models such as ChatGPT or Bard. A new kind of AI job is emerging—and it pays six-figure salaries and doesn’t require a degree in computer engineering, or even advanced coding skills. With the rise in generative artificial intelligence, a host of companies are now looking to hire “prompt engineers” who are tasked with training the emerging crop of AI tools to deliver more accurate and relevant responses to the questions real people are likely to pose. What does a prompt engineer do? Anna Bernstein, a 29-year-old prompt engineer at generative AI firm Copy.ai in New York, is one of the few people already working in this new field. Her role involves writing text-based prompts that she feeds into the back end of AI tools so they can do things such as generate a blog post or sales email with the proper tone and accurate information. She doesn’t need to write any technical code to do this; instead, she types instructions to the AI model to help refine responses. “There aren’t many of us prompt engineers, and for a long time it really felt like it was just me,” Bernstein says. She joined Copy.ai in September 2021, about a year before OpenAI’s ChatGPT went viral for its uncanny ability to generate elegant writing and answer almost any question. “At the time, the term ‘prompt engineer’ didn’t exist, and they were unsure whether it was even a role that could exist.” Bernstein, who studied English in college, was a copywriter and historical research assistant before becoming a prompt engineer. “I had no tech background whatsoever,” she says. “But to have a humanities background in this field seems to me like a triumph, especially since part of the point of developing AI is to imitate human thought.” A surge in AI jobs Prompt engineering is now considered one of the hottest tech jobs as companies look for ways to help train and adapt AI tools to get the most out of new large language models, which can provide results that are not always correct or appropriate. It’s part of a dramatic increase in demand for workers who understand and can work with AI tools. According to LinkedIn data shared with TIME, the number of posts referring to “generative AI” has increased 36-fold in comparison to last year, and the number of job postings containing “GPT” rose by 51% between 2021 and 2022. Some of these job postings are being targeted to anyone, even those without a background in computer science or tech. It’s too soon to tell how big prompt engineering will become, but a range of companies and industries are beginning to recruit for these positions. Anthropic, a Google-backed AI startup, is advertising salaries up to $335,000 for a “Prompt Engineer and Librarian” in San Francisco. Applicants must “have a creative hacker spirit and love solving puzzles,” the listing states. Automated document reviewer Klarity is offering as much as $230,000 for a machine learning engineer who can “prompt and understand how to produce the best output” from AI tools. Outside of the tech world, Boston Children’s Hospital and consulting firm Booz Allen Hamilton recently advertised for prompt engineering jobs, with the latter paying up to $212,000 for applicants with more than three years of experience implementing machine learning models. Actor Donald Glover is even looking to hire a prompt engineer and prompt animator at his new creative studio. But despite the engineering moniker in the job title, Bernstein says she doesn’t fully consider herself an engineer. “When I first started, we tried to get the term prompt specialists going,” she says. “Then the term prompt engineer as a noun emerged.” How to become a prompt engineer Rob Lennon, an expert in prompt engineering, began teaching paid online courses through Kajabi in December designed to help the average person learn the skills needed for a job in the field. His two courses, which around 2,000 students have already taken, demonstrate how to format and structure prompts for different types of tasks and domains. “People are clamoring for this knowledge,” Lennon says. “It’s kind of like first mover’s advantage.” The courses start at $150 and can cost up to $3,970 for custom training and course certification. But on the other side, some experts believe that the prompt engineering hype will burn out once AI becomes more powerful and capable of generating its own prompts. Ethan Mollick, an associate professor at the University of Pennsylvania’s Wharton School, cautions that those looking to become prompt engineers should consider that much is unknown about the future of the industry. “It’s not clear that prompt engineering is going to matter long-term because AI programs are getting better at anticipating what users need and generating prompts,” he says. “We also don’t know if there’s a special skill involved for prompt engineering or if it just requires a lot of time spent with chatbots.” And the high salaries currently being offered may not last. “These are jobs that probably only 500 people could do right now, so there are these insane salaries,” Lennon says. “But in six months, 50,000 people will be able to do that job. The value of this knowledge is greater today than it will be tomorrow.” Mollick notes that those interested in exploring this field should try experimenting with large language models like GPT+ and Bard to learn their own approach to developing prompts, rather than taking an online course. That’s because AI systems are changing so quickly and the prompts that work today may not work in the future. “What I worry about is people thinking that there is a magical secret to prompting,” he says. Given the high interest in AI jobs, Karin Kimbrough, chief economist at LinkedIn, says employers may quickly find that they need to compete with one another to hire talent to fill these emerging open roles, particularly if they continue to focus on hiring applicants with specific degrees or past job titles. “Given how late-breaking all of this is, it’s important to approach these newly developed roles with a skills-first mindset, by focusing on the actual skills required to do the job,” she says. Some may find it suspicious that tech companies are willing to dole out this kind of cash at a time of massive layoffs across the industry. But tech entrepreneurs who champion the power of artificial intelligence believe prompt engineering has the chance to take off and shape the future of automation. “The hottest new programming language is English,” Andrej Karpathy, Tesla’s former chief of AI, wrote on Twitter. Even so, not everyone agrees that prompt engineering will catch on at the six-figure salary levels with few educational requirements currently being offered. The trend has also raised questions about why people with a humanities background are compensated at the same rate as those with a tech background, Bernstein says. Her response: “Why not? If they’re contributing as much to the product.”
Khác với các công việc lập trình truyền thống, các vị trí kỹ sư tạo prompt dành cho bất kỳ ai có kỹ năng lập trình cơ bản và thành thạo các mô hình ngôn ngữ lớn như ChatGPT hoặc Bard. Ngày càng nhiều công ty tuyển dụng các kỹ sư tạo prompt với mức lương hàng trăm nghìn đô la mà không yêu cầu bằng cử nhân kỹ thuật máy tính, hoặc kỹ năng lập trình nâng cao. Với sự gia tăng của AI tạo sinh, nhiều công ty hiện đang tìm kiếm các "kỹ sư tạo prompt" với nhiệm vụ đào tạo các công cụ AI mới để phản hồi chính xác và phù hợp hơn cho các câu hỏi của người dùng. Công việc của một kỹ sư tạo prompt là gì? Anna Bernstein, một kỹ sư tạo prompt 29 tuổi tại công ty AI tạo sinh Copy.ai ở New York, là một trong số ít người làm việc trong lĩnh vực mới này. Nhiệm vụ của cô là tạo prompt cho các công cụ AI để chúng có thể tạo ra một bài đăng blog hoặc email bán hàng với giọng văn và thông tin chính xác. Cô không cần phải viết bất kỳ dòng mã nào để làm điều này; thay vào đó, cô nhập các hướng dẫn vào mô hình AI để giúp tinh chỉnh các phản hồi. "Không có nhiều kỹ sư tạo prompt như chúng tôi, và trong một thời gian dài, có cảm tưởng như chỉ có mình tôi", Bernstein nói. Cô gia nhập Copy.ai vào tháng 9 năm 2021, khoảng một năm trước khi ChatGPT của OpenAI nổi tiếng với khả năng tạo ra bài viết hoàn chỉnh và trả lời được gần như bất kỳ câu hỏi nào. "Lúc đó, thuật ngữ 'kỹ sư tạo prompt' chưa tồn tại, và họ không chắc liệu công việc này có thể tồn tại hay không." Trước khi trở thành một kỹ sư tạo prompt, Bernstein học môn tiếng Anh ở trường đại học, từng làm việc viết quảng cáo và trợ lý nghiên cứu lịch sử. "Tôi không được đào tạo chút nào về công nghệ", cô nói. "Nhưng kiến thức về khoa học nhân văn trong lĩnh vực này có rất được việc, đặc biệt là vì AI phát triển theo hướng bắt chước suy nghĩ của con người." Nghề kỹ sư tạo prompt AI hiện được coi là một trong những công việc công nghệ hấp dẫn nhất khi các công ty tìm cách đào tạo và điều chỉnh các công cụ AI để tận dụng tối đa sức mạnh của các mô hình ngôn ngữ lớn mà kết quả không phải lúc nào cũng chính xác hoặc phù hợp. Đây là một phần nguyên nhân gây ra tăng đột biến về nhu cầu về nhân sự có kiến thức và có thể làm việc với các công cụ AI. Theo dữ liệu của LinkedIn được chia sẻ với TIME, số lượng bài đăng liên quan đến "AI tạo sinh" đã tăng 36 lần so với năm ngoái, và số lượng bài đăng tuyển dụng chứa từ khóa "GPT" tăng 51% từ năm 2021 đến năm 2022. Một số bài đăng tuyển dụng dành cho bất kỳ ai, ngay cả những người không có nền tảng về khoa học máy tính hoặc công nghệ. Chưa rõ nhu cầu tuyển dụng kỹ sư prompt sẽ tăng như thế nào, nhưng một loạt các công ty và ngành đang bắt đầu tuyển dụng cho các vị trí này. Anthropic, một start-up AI do Google tài trợ, đang quảng cáo lương lên đến 335.000 đô la cho một "Kỹ sư và Thủ thư Prompt" tại San Francisco. Ứng viên phải "có tinh thần hacker sáng tạo và thích giải các câu đố," theo thông tin tuyển dụng. Klarity, một công ty phân tích tài liệu tự động, đang tuyển việc với mức lương lên đến 230.000 đô la cho một kỹ sư học máy đáp ứng tiêu chuẩn có thể "tạo prompt và biết cách tạo đầu ra tốt nhất" từ các công cụ AI. Ngoài lĩnh vực công nghệ, Bệnh viện Boston Children và công ty tư vấn Booz Allen Hamilton gần đây tuyển dụng các vị trí kỹ sư prompt, và công ty sau đã trả lương lên đến 212.000 đô la cho ứng viên có hơn ba năm kinh nghiệm thực hiện các mô hình học máy. Ngay cả diễn viên Donald Glover cũng đang tìm kiếm một kỹ sư prompt cho studio sáng tạo mới của mình. Tuy nhiên, Bernstein nói rằng mặc dù kỹ sư là tên gọi chức danh công việc, cô không coi mình là một kỹ sư. "Khi mới bắt đầu, chúng tôi đã cố gắng dùng thuật ngữ chuyên gia prompt," cô nói. "Sau đó, thuật ngữ kỹ sư prompt đã xuất hiện." Làm thế nào để trở thành kỹ sư prompt Rob Lennon, một chuyên gia về kỹ thuật tạo prompt, mở lớp dạy các khóa học trực tuyến có thu phí trên nền tảng Kajabi vào tháng 12 để giúp người bình thường học các kỹ năng cần thiết cho công việc trong lĩnh vực này. Hai khóa học của ông có khoảng 2.000 học viên tham gia, giới thiệu cách định dạng và cấu trúc các prompt cho các loại nhiệm vụ và lĩnh vực khác nhau. "Mọi người đang có nhu cầu về kiến thức này," Lennon nói. "Nó giống như lợi thế của người đi đầu." Các khóa học bắt đầu từ 150 đô la và có thể lên đến 3.970 đô la cho nội dung đào tạo tùy chỉnh và chứng chỉ khóa học. Tuy nhiên, một số chuyên gia khác tin rằng phong trào kỹ sư prompt sẽ thoái trào khi AI có nhiều sức mạnh hơn và có khả năng tự tạo prompt. Ethan Mollick, giáo sư phụ trách tại Trường Wharton thuộc Đại học Pennsylvania, cảnh báo rằng những người muốn trở thành kỹ sư prompt nên cân nhắc rằng tương lai của nghề này vẫn chưa rõ ràng. "Không rõ về lâu dài còn có nhu cầu về kỹ sư tạo prompt nữa không vì các chương trình AI đang ngày càng giỏi trong việc dự đoán những gì người dùng cần và tự tạo prompt," ông nói. "Chúng ta cũng không rõ kỹ sư prompt có cần kỹ năng đặc biệt nào không hay chỉ cần dành nhiều thời gian trò chuyện với máy." Và mức lương cao như bây giờ sẽ không kéo dài được lâu. “Đây là những công việc mà chỉ có khoảng 500 người có thể làm được hiện nay, do đó các mức lương rất cao,” Lennon nói. “Nhưng trong vòng sáu tháng tới, có thể sẽ có 50.000 người có thể làm được công việc đó. Hôm nay giá trị của kiến thức này cao nhưng ngày mai có thể giảm.” Mollick lưu ý rằng những người quan tâm đến lĩnh vực này nên thử nghiệm với các mô hình ngôn ngữ lớn như GPT+ và Bard để tìm hiểu cách tiếp cận phát triển prompt của riêng họ, thay vì tham gia khóa học trực tuyến. Lý do là bởi vì các hệ thống trí tuệ nhân tạo đang thay đổi rất nhanh và các prompt dùng tốt hôm nay có thể không còn nhiều giá trị trong tương lai. “Tôi lo ngại mọi người nhầm tưởng rằng có một bí thuật để tạo prompt,” ông nói. Do nhu cầu công việc AI tăng cao, Karin Kimbrough, nhà kinh tế trưởng tại LinkedIn, cho biết các nhà tuyển dụng có thể nhanh chóng nhận ra rằng họ cần cạnh tranh với nhau để tuyển dụng nhân sự có năng lực cho các vị trí mở này. Cạnh tranh sẽ càng lớn nếu họ tiếp tục chú trọng tuyển dụng ứng viên theo cách cũ dựa trên bằng cấp hoặc có chức danh. "Đây là cách tuyển dụng lỗi thời. Các nhà tuyển dụng nên ập trung vào kỹ năng thực sự cần thiết để làm việc," bà nói. Một số người có thể nghi ngờ rằng các công ty công nghệ sẵn sàng bỏ tiền ra như vậy trong thời điểm hàng loạt vụ sa thải đình đám trong ngành. Nhưng các doanh nhân công nghệ ủng hộ sức mạnh của AI tin rằng kỹ sư prompt có cơ hội phát triển và định hình tương lai của tự động hóa. "Ngôn ngữ lập trình mới nhất đang nóng nhất là tiếng Anh," Andrej Karpathy, cựu giám đốc AI của Tesla, viết trên Twitter. Tuy nhiên, không phải ai cũng đồng ý rằng kỹ sư prompt sẽ trở nên phổ biến ở mức lương hàng trăm nghìn đô la với ít đòi hỏi về bằng cấp như hiện tại. Xu hướng này cũng đưa ra câu hỏi về tại sao những người có kiến thức về khoa học nhân văn được trả lương cùng mức với những người có kiến thức công nghệ, Bernstein nói. Câu trả lời của cô: "Tại sao không? Nếu họ đóng góp bằng mức độ như nhau cho sản phẩm.”
 
GUY ADMITS THAT HIS PRIZE-WINNING "PHOTO" WAS ACTUALLY GENERATED USING AI
**GUY ADMITS THAT HIS PRIZE-WINNING "PHOTO" WAS ACTUALLY GENERATED USING AI** "AI IS NOT PHOTOGRAPHY. THEREFORE I WILL NOT ACCEPT THE AWARD." German artist Boris Eldagsen, who recently won a prestigious photography competition with a stunning black and white portrait, is now refusing the award after admitting the image was created using an AI image generator, *[The Guardian* reports](https://www.theguardian.com/technology/2023/apr/17/photographer-admits-prize-winning-image-was-ai-generated). In a statement on his [personal website](https://www.eldagsen.com/sony-world-photography-awards-2023/), the artist described himself as being a "cheeky monkey" for entering the Sony World Photography Awards with an AI-generated image. Boris Eldagsen, the first artist to win an award for an AI generated image in a photography competition, refused to accept the award at the recent Sony World Photography Awards ceremony. [pic.twitter.com/lHvY3d78Fa](https://t.co/lHvY3d78Fa) — Michael Dooney (@MichaelDooney_) [April 14, 2023](https://twitter.com/MichaelDooney_/status/1646685294614425600?ref_src=twsrc%5Etfw) His purported goal was to test whether the award was capable of identifying his faked artwork — and provoke a debate surrounding the use of AI in the field of photography. "With my refusal of the award I hope to speed up this debate," Eldagsen wrote in his statement. "AI images and photography should not compete with each other in an award like this," he added. "They are different entities. AI is not photography. Therefore I will not accept the award." The artist is now considering donating his prize to a photo festival ****set to take place in Odesa, Ukraine. The news comes after artist Jason Allen entered the Colorado State Fair’s fine art competition with an [AI-generated painting](https://futurism.com/the-byte/ai-generated-painting-wins-state-fair-fine-arts-competition) last yea, and won, sparking a similar outcry from artists around the world. In short, AI art is here to stay, at least in the short term, whether artists like it or not. So far this year, AI-generated art has been [featured](https://nftevening.com/claire-silver-brings-artificial-intelligence-nft-art-to-the-louvre/) in the Louvre in Paris, France. An [entire art exhibit](https://futurism.com/the-byte/artists-ai-vermeer-girl-pearl-earring) in the Hague in the Netherlands also featured AI remixes of Dutch painter Johannes Veermeer's masterpiece "Girl With a Pearl Earring." That's despite the fact that the US Copyright Office [ruled](https://www.reuters.com/legal/ai-created-images-lose-us-copyrights-test-new-technology-2023-02-22/) earlier this year that AI-generated images featured in a recently published graphic novel shouldn't have been granted copyright protection, representing yet another wrinkle in the ongoing debate. But whether Eldagsen's message will be able to sway the conversation one way or another remains to be seen. For one, the organizers of the World Photography Organization claim they knew Eldgasen had used AI to generate the image and still chose him as the winner, nonetheless. In other words, was Eldagsen really a "cheeky monkey" — or was the ruse up before it even started? "In our correspondence, he explained how following 'two decades of photography, my artistic focus has shifted more to exploring creative possibilities of AI generators' and further emphasizing the image heavily relies on his 'wealth of photographic knowledge,'" a World Photography Organization spokesperson, who was in touch with Eldagsen at the time, told *The Guardian*. "As per the rules of the competition, the photographers provide the warranties of their entry." According to the spokesperson, "we felt that his entry fulfilled the criteria for this category, and we were supportive of his participation." Eldagsen's claims that he was in fact attempting to mislead the organization led the organizers to invalidate the "warranties he provided." The exchange has clearly soured the relationship, with the World Photography Organization choosing to sever ties with the artist. "While elements of AI practices are relevant in artistic contexts of image-making, the awards always have been and will continue to be a platform for championing the excellence and skill of photographers and artists working in the medium," the spokesperson told *The Guardian*.
**NGƯỜI ĐOẠT GIẢI THỂ HIỆN BỨC ẢNH "ĐƯỢC TƯỢNG HỌA HÓA BẰNG TRÍ TUỆ NHÂN TẠO** "TRÍ TUỆ NHÂN TẠO KHÔNG PHẢI LÀ NHIẾP ẢNH. VÌ VẬY, TÔI SẼ KHÔNG CHẤP NHẬN GIẢI." Nghệ sĩ người Đức Boris Eldagsen, người vừa giành giải thưởng nhiếp ảnh danh giá với một bức chân dung đen trắng tuyệt đẹp, hiện đang từ chối giải thưởng sau khi thừa nhận bức ảnh được tạo ra bằng một trình tạo hình ảnh AI, *[The Guardian* đưa tin](https://www.theguardian.com/technology/2023/apr/17/photographer-admits-prize-winning-image-was-ai-generated). Trong một tuyên bố trên trang web cá nhân của mình, nghệ sĩ mô tả chính mình là một "con khỉ đầy trí nghịch" khi tham gia Giải thưởng Nhiếp ảnh Thế giới Sony với một bức ảnh được tạo ra bằng trí tuệ nhân tạo. Mục đích của Boris Eldagsen là để kiểm tra xem giải thưởng có thể xác định được tác phẩm giả mạo của mình và khơi gợi một cuộc tranh luận về việc sử dụng trí tuệ nhân tạo trong lĩnh vực nhiếp ảnh. "Với việc từ chối giải thưởng, tôi hy vọng sẽ nhanh chóng đẩy nhanh cuộc tranh luận này," Eldagsen viết trong tuyên bố của mình. "Hình ảnh AI và nhiếp ảnh không nên cạnh tranh với nhau trong một giải thưởng như thế này," ông thêm. "Chúng là các thực thể khác nhau. Trí tuệ nhân tạo không phải là nhiếp ảnh. Vì vậy, tôi sẽ không chấp nhận giải thưởng." Hiện nghệ sĩ đang xem xét việc quyên góp giải thưởng của mình cho một liên hoan ảnh sắp diễn ra tại Odesa, Ukraine. Điều này đến sau khi nghệ sĩ Jason Allen đã tham gia cuộc thi mỹ thuật tại Hội chợ tiểu bang Colorado với một bức tranh được tạo ra bằng trí tuệ nhân tạo [The Guardian](https://futurism.com/the-byte/ai-generated-painting-wins-state-fair-fine-arts-competition) năm ngoái và đã giành chiến thắng, gây ra một cuộc tranh cãi tương tự từ các nghệ sĩ trên toàn thế giới. Tóm lại, nghệ thuật AI sẽ tiếp tục tồn tại, ít nhất là trong tương lai ngắn hạn, cho dù các nghệ sĩ có thích nó hay không. Cho đến nay trong năm nay, nghệ thuật được tạo ra bởi trí tuệ nhân tạo đã được [trưng bày](https://nftevening.com/claire-silver-brings-artificial-intelligence-nft-art-to-the-louvre/) tại Bảo tàng Louvre ở Paris, Pháp. Một [triển lãm nghệ thuật hoàn toàn](https://futurism.com/the-byte/artists-ai-vermeer-girl-pearl-earring) tại The Hague ở Hà Lan cũng đã trưng bày các phiên bản AI của kiệt tác "Cô gái với chiếc vòng tai ngọc trai" của họa sĩ Hà Lan Johannes Veermeer. Điều đó xảy ra mặc dù Văn phòng Bản quyền Hoa Kỳ [quyết định](https://www.reuters.com/legal/ai-created-images-lose-us-copyrights-test-new-technology-2023-02-22/) vào đầu năm nay rằng các hình ảnh được tạo ra bởi trí tuệ nhân tạo trong một tiểu thuyết tranh mới được xuất bản không nên được cấp bản quyền, đại diện cho một nét mới khác trong cuộc tranh luận đang diễn ra. Nhưng liệu thông điệp của Eldagsen có thể thay đổi cuộc trò chuyện theo một hướng nào đó hay không thì vẫn còn phải chờ xem. Một trong những tổ chức của Tổ chức Nhiếp ảnh Thế giới cho biết họ đã biết Eldgasen đã sử dụng AI để tạo ra hình ảnh và vẫn chọn ông là người chiến thắng. Nói cách khác, Eldagsen thực sự là một "con khỉ đầy trí nghịch" - hay trò chơi của ông đã kết thúc trước khi bắt đầu? "Theo thư từ của chúng tôi, ông giải thích rằng sau 'hai thập kỷ chụp ảnh, tập trung nghệ thuật của tôi đã chuyển sang khám phá các khả năng sáng tạo của trình tạo hình ảnh AI' và tiếp tục nhấn mạnh rằng hình ảnh này phụ thuộc nặng vào 'nguồn kiến thức nhiếp ảnh phong phú của ông'," một người phát ngôn của Tổ chức Nhiếp ảnh Thế giới, người đã liên lạc với Eldagsen vào thời điểm đó, cho biết. "Theo các quy tắc của cuộc thi, các nhiếp ảnh gia cung cấp các bảo đảm cho đơn vị của họ." Theo người phát ngôn, "chúng tôi cảm thấy rằng đơn vị của ông đáp ứng các tiêu chí cho danh mục này, và chúng tôi đã ủng hộ sự tham gia của ông." Các tuyên bố của Eldagsen rằng ông thực sự đang cố gắng đánh lừa tổ chức đã khiến các tổ chức huỷ bỏ "bảo đảm mà ông cung cấp". Việc trao đổi này rõ ràng đã làm hư hỏng mối quan hệ, với Tổ chức Nhiếp ảnh Thế giới quyết định chấm dứt quan hệ với nghệ sĩ. "Trong khi các yếu tố của các thực hành trí tuệ nhân tạo có liên quan đến ngữ cảnh nghệ thuật của việc tạo hình ảnh, các giải thưởng luôn là và sẽ tiếp tục là một nền tảng để tôn vinh sự xuất sắc và kỹ năng của các nhiếp ảnh gia và nghệ sĩ làm việc trong phương tiện này," người phát ngôn cho biết.
How To Create Your Own Auto-GPT AI Agent
notion image
How To Create Your Own Auto-GPT AI Agent By Arva Rangwala Apr 16, 2023 How To Create Your Own Auto-GPT AI Agent How To Create Your Own Auto-GPT AI Agent Are you tired of feeding several prompts to your AI bot to get good output? What if you could give your AI bot a set of goals and let it generate its own set of tasks to fulfill those goals? This is where Auto-GPT comes in. Auto-GPT is an open-source tool that uses the OpenAI API to prompt itself based on your initial input. In this article, we will guide you through the steps of How To Create Your Own Auto-GPT AI Agent to help you achieve your goals. Table of Contents What is Auto-GPT? How Does Auto-GPT Work? How Can You Use Auto-GPT? How to Build Your Own Auto-GPT AI Creating an Auto-GPT AI Agent: A Step-by-Step Guide Step 1: Sign Up for an OpenAI API Account Step 2: Download and Install Git and Python Step 3: Install the Required Packages Step 4: Create a New OpenAI API Secret Key Step 5: Run Auto-GPT Step 6: Enable Auto-GPT to Start the Process Conclusion What is Auto-GPT? Auto-GPT is an open-source tool that uses the OpenAI API to generate prompts for itself based on your initial input. Essentially, you give it a set of goals or objectives, and it generates a set of prompts to help accomplish those goals. This can be useful in a variety of contexts, from marketing plans to investment analysis. Also read: How To Use AutoGPT On iPhone, Android, Mac And Windows: The Ultimate Guide How Does Auto-GPT Work? Auto-GPT works by using a process called “goal setting” to generate its own prompts. Essentially, you start by giving Auto-GPT a set of goals or objectives that you want to achieve. These can be fairly broad, but they should be specific enough that Auto-GPT can understand what you’re trying to do. Once you’ve inputted your goals, Auto-GPT uses the OpenAI API to generate a set of prompts that will help you achieve those goals. These prompts can take many different forms, from questions to suggestions to full-blown plans. The idea is that Auto-GPT will continue to generate prompts until it finds one that works well for your specific goals. How Can You Use Auto-GPT? Auto-GPT can be used in a variety of contexts, from marketing plans to investment analysis to content creation. However, it’s important to note that Auto-GPT is still a relatively new tool, and it doesn’t always work perfectly. For example, we tried to use it to write about Windows 11 and the result was terrible. However, we’ve also had some great success with Auto-GPT in other contexts. If you want to try Auto-GPT for yourself, it’s easy to set up. You’ll need access to the OpenAI API, which you can get by signing up for their developer program. Once you have access to the API, you can download the Auto-GPT tool and start using it to generate prompts. How to Build Your Own Auto-GPT AI If you’re interested in building your own Auto-GPT AI, there are a few things you’ll need to get started. First, you’ll need access to the OpenAI API, as mentioned above. You’ll also need some basic programming skills, as you’ll be working with code. Once you have these things, you can start building your own Auto-GPT AI. The process will involve setting up your goals, inputting them into the AI, and then training the AI to generate its own prompts based on those goals. It can be a complex process, but there are plenty of resources available online to help you get started. Creating an Auto-GPT AI Agent: A Step-by-Step Guide Step 1: Sign Up for an OpenAI API Account Before you can use Auto-GPT, you need to have an OpenAI API account. While you can get a few dollars of credit for free, you will need to pay for additional tokens. Once you’ve signed up, you’re ready to create your own Auto-GPT AI agent. Step 2: Download and Install Git and Python To use Auto-GPT, you need to download and install Git and the latest version of Python for Windows. When prompted to select a text editor, choose the most appropriate one for you. We recommend Notepad++. If you’re familiar with Git, you can clone the repository using the following command: git clone https://github.com/Torantulino/Auto-GPT.git Alternatively, you can download and extract the ZIP archive. Step 3: Install the Required Packages Open a Command Prompt and navigate to your Desktop folder. Change directory to be inside the Auto-GPT folder. Use the Python package manager, pip, to install all of the required packages by typing: pip install -r requirements.txt This process will take a few minutes to complete. Step 4: Create a New OpenAI API Secret Key Open .env.template in a text editor. Navigate to the OpenAI API Key page and create a new secret key. If you don’t have an OpenAI account, you can create one using your Google login. Copy the API key from the dialog and paste it into the .env.template file in place of the holding text. Click Save As and save the file in the same folder as .env, making sure that the file name remains .env. Step 5: Run Auto-GPT Run Auto-GPT using this command in the prompt: python scripts/main.py When prompted, give your API a name and goals. These details will be saved into a file called “ai_settings”. For instance, here are the contents of my file: ai_goals: - Create project ideas using AI and Raspberry Pi - Create projects for intermediate users - Use the Python programming language - Save the ideas to a file - Once done, terminate ai_name: PiProjectsBot ai_role: Create cool ideas for Raspberry Pi projects The AI will then begin the research process, asking to run a series of steps to perform research on Raspberry Pi projects. Step 6: Enable Auto-GPT to Start the Process Press Y again to enable each task. Or you can enter “y -[NUMBER]” where [NUMBER] is the number of steps it will complete before asking permission again. Depending on the goals set, the AI will run until it has completed its tasks. Conclusion Auto-GPT is an exciting new tool that has the potential to revolutionize the way we interact with AI bots. By allowing them to generate their own prompts based on our goals, we can create more personalized and effective solutions. However, it’s important to remember that Auto-GPT is still a new tool, and it doesn’t always work perfectly. That said, with some patience and experimentation, it can be a powerful addition to your AI toolkit.
Bạn có mệt mỏi vì phải cung cấp nhiều lời nhắc cho trợ lý AI của mình để có được đầu ra tốt? Tưởng tượng nếu bạn có thể đưa cho trợ lý AI của mình một tập hợp các mục tiêu và để nó tạo ra các nhiệm vụ của riêng mình để hoàn thành những mục tiêu đó? Đó là lý do tại sao Auto-GPT ra đời. Auto-GPT là một công cụ mã nguồn mở sử dụng API OpenAI để tạo các lời nhắc dựa trên đầu vào ban đầu của bạn. Trong bài viết này, chúng tôi sẽ hướng dẫn bạn từng bước làm thế nào để tạo ra trợ lý AI Auto-GPT của riêng bạn để giúp bạn đạt được mục tiêu của mình. Auto-GPT là gì? Auto-GPT là một công cụ mã nguồn mở sử dụng API OpenAI để tạo ra các lời nhắc dựa trên đầu vào ban đầu của bạn. Cơ bản, bạn cung cấp cho nó một tập hợp các mục tiêu hoặc đối tượng và nó sẽ tạo ra một tập hợp các lời nhắc để giúp bạn đạt được những mục tiêu đó. Điều này có thể hữu ích trong nhiều ngữ cảnh khác nhau, từ kế hoạch tiếp thị đến phân tích đầu tư. Auto-GPT hoạt động như thế nào? Auto-GPT hoạt động bằng cách sử dụng quá trình "đặt mục tiêu" để tạo ra các lời nhắc của riêng mình. Cơ bản, bạn bắt đầu bằng việc cung cấp cho Auto-GPT một tập hợp các mục tiêu hoặc đối tượng mà bạn muốn đạt được. Những mục tiêu này có thể khá rộng, nhưng chúng nên được đặc thù đủ để Auto-GPT có thể hiểu được bạn đang cố gắng làm gì. Sau khi bạn đã nhập các mục tiêu của mình, Auto-GPT sử dụng API OpenAI để tạo ra một tập hợp các lời nhắc giúp bạn đạt được những mục tiêu đó. Những lời nhắc này có thể có nhiều hình thức khác nhau, từ câu hỏi đến gợi ý và kế hoạch chi tiết. Ý tưởng là Auto-GPT sẽ tiếp tục tạo ra các lời nhắc cho đến khi nó tìm ra một cái hoạt động tốt với mục tiêu cụ thể của bạn. Bạn có thể sử dụng Auto-GPT như thế nào? Auto-GPT có thể được sử dụng trong nhiều ngữ cảnh khác nhau, từ kế hoạch tiếp thị đến phân tích đầu tư và tạo nội dung. Tuy nhiên, cần lưu ý rằng Auto-GPT vẫn là một công cụ mới và không luôn hoạt động hoàn hảo. Ví dụ, chúng tôi đã thử sử dụng nó để viết về Windows 11 và kết quả là kém. Tuy nhiên, chúng tôi cũng đã đạt được một số thành công tuyệt vời với Auto-GPT trong ngữ cảnh khác. Nếu bạn muốn thử Auto-GPT cho chính mình, việc cài đặt nó rất đơn giản. Bạn sẽ cần truy cập vào API OpenAI, mà bạn có thể đăng ký chương trình phát triển của họ để có được. Sau khi bạn có quyền truy cập vào API, bạn có thể tải xuống công cụ Auto-GPT và bắt đầu sử dụng nó để tạo các lời nhắc. Làm thế nào để xây dựng trợ lý AI Auto-GPT của riêng bạn? Nếu bạn quan tâm đến việc xây dựng trợ lý AI Auto-GPT của riêng bạn, bạn sẽ cần một số thứ để bắt đầu. Trước tiên, bạn sẽ cần truy cập vào API OpenAI, như đã đề cập ở trên. Bạn cũng sẽ cần một số kỹ năng lập trình cơ bản, bởi vì bạn sẽ làm việc với mã nguồn. Sau khi bạn có những thứ này, bạn có thể bắt đầu xây dựng trợ lý AI Auto-GPT của riêng bạn. Quá trình sẽ bao gồm thiết lập các mục tiêu của bạn, nhập chúng vào trong AI và sau đó huấn luyện AI để tạo ra các lời nhắc của riêng mình dựa trên những mục tiêu đó. Điều này có thể là một quá trình phức tạp, nhưng có nhiều tài nguyên trực tuyến để giúp bạn bắt đầu. # Tạo một Auto-GPT AI Agent: Hướng dẫn từng bước # Bước 1: Đăng ký tài khoản OpenAI API Trước khi bạn có thể sử dụng Auto-GPT, bạn cần phải có một tài khoản OpenAI API. Trong khi bạn có thể nhận được vài đô la tín dụng miễn phí, bạn sẽ cần phải trả tiền cho các mã thông báo bổ sung. Sau khi đăng ký, bạn sẽ sẵn sàng để tạo ra một AI agent Auto-GPT của riêng mình. # Bước 2: Tải xuống và cài đặt Git và Python Để sử dụng Auto-GPT, bạn cần phải tải xuống và cài đặt Git và phiên bản Python mới nhất cho Windows. Khi được nhắc để chọn trình soạn thảo văn bản, hãy chọn trình phù hợp nhất với bạn. Chúng tôi khuyến nghị Notepad++. Nếu bạn quen thuộc với Git, bạn có thể sao chép kho lưu trữ bằng lệnh sau: git clone <https://github.com/Torantulino/Auto-GPT.git> Hoặc, bạn có thể tải xuống và giải nén tệp ZIP. # Bước 3: Cài đặt các gói yêu cầu Mở Command Prompt và điều hướng đến thư mục Desktop của bạn. Thay đổi thư mục để nằm trong thư mục Auto-GPT. Sử dụng quản lý gói Python, pip, để cài đặt tất cả các gói yêu cầu bằng cách nhập: pip install -r requirements.txt Quá trình này sẽ mất vài phút để hoàn thành. # Bước 4: Tạo một Khóa bí mật OpenAI API mới Mở .env.template trong trình soạn thảo văn bản. Điều hướng đến trang Khóa OpenAI API và tạo một khóa bí mật mới. Nếu bạn chưa có tài khoản OpenAI, bạn có thể tạo một tài khoản bằng cách đăng nhập Google của bạn. Sao chép khóa API từ hộp thoại và dán nó vào tệp .env.template để thay thế văn bản giữ chỗ. Nhấp Save As và lưu tệp trong cùng thư mục với .env, đảm bảo rằng tên tệp vẫn là .env. # Bước 5: Chạy Auto-GPT Chạy Auto-GPT bằng lệnh này trong dấu nhắc: python scripts/main.py Khi được nhắc, đặt tên và mục tiêu cho API của bạn. Các chi tiết này sẽ được lưu vào một tệp được gọi là “ai_settings”. Ví dụ, đây là nội dung của tệp của tôi: ai_goals: - Tạo ra ý tưởng dự án bằng AI và Raspberry Pi - Tạo ra các dự án cho người dùng trung bình - Sử dụng ngôn ngữ lập trình Python - Lưu ý tưởng vào tệp - Khi hoàn thành, kết thúc ai_name: PiProjectsBot ai_role: Tạo ra các ý tưởng tuyệt vời cho các dự án Raspberry Pi Sau đó, AI sẽ bắt đầu quá trình nghiên cứu, yêu cầu chạy một loạt các bước để thực hiện nghiên cứu về các dự án Raspberry Pi. # Bước 6: Kích hoạt Auto-GPT để bắt đầu quá trình Nhấn Y để kích hoạt mỗi nhiệm vụ**.** Hoặc bạn có thể nhập “y -[SỐ]” trong đó [SỐ] là số bước mà nó sẽ hoàn thành trước khi yêu cầu sự cho phép lại. Tùy thuộc vào các mục tiêu được đặt ra, AI sẽ chạy cho đến khi hoàn thành nhiệm vụ của mình**.** # Kết luận Auto-GPT là một công cụ mới thú vị có tiềm năng để cách mạng hóa cách chúng ta tương tác với các bot AI. Bằng cách cho phép chúng tạo ra các đề xuất của riêng họ dựa trên mục tiêu của chúng ta, chúng ta có thể tạo ra các giải pháp cá nhân hóa và hiệu quả hơn. Tuy nhiên, điều quan trọng là phải nhớ rằng Auto-GPT vẫn là một công cụ mới và nó không luôn hoạt động hoàn hảo. Tuy nhiên, với một chút kiên nhẫn và thử nghiệm, nó có thể là một phần mạnh mẽ trong bộ công cụ AI của bạn.
Why Lawyers Are Starting to Fear Chat-GPT
The legal industry is facing a crisis as the use of chatbots — software that can generate convincing strings of words from a simple prompt — becomes more widespread. Lawyers, who have long been investing in tools to generate and process legal documents, are worried that the use of chatbots will reduce the need for their services, but the consequences of the use of this technology in the court system could be even more far-reaching. The introduction of chatbots into America’s state and local courts could lead to a future where anyone with a chatbot can become a high-volume filer or where ordinary people might rely on chatbots for desperately-needed legal advice. Debt collection agencies are already flooding courts and ambushing ordinary people with thousands of low-quality, small-dollar cases. Courts are woefully unprepared for this future. When you imagine a court, you might picture two opposing lawyers arguing before a judge, and perhaps a jury. However, this picture is mostly an illusion. Americans have the right to an attorney only when they’re accused of a crime. For everything else, they’re on their own. As a result, the vast majority of civil cases in state and local courts have at least one party who does not have a lawyer, often because they have no other option. Add enough cases like this to a court’s docket, and the results are ugly. In the aftermath of the 2008 financial crisis, thousands of foreclosure cases hit court dockets all at once. Many of the cases were rife with defects: false affidavits, bad notarizations, backdated paperwork, inadequate documentation, and so on. But foreclosures were pushed through anyway, and people lost their homes. This wasn’t a one-off. It’s a warning of what happens when the world changes and courts don’t adapt. To see that future for robot lawyers, take today’s high-volume filers: debt collections agencies. Small-dollar ($5,000 or less) debt cases, filed en masse by collections agencies, increasingly dominate local court dockets. While nationwide data is hard to find, in 2013, the Pew Charitable Trusts found that small-dollar debt cases made up a quarter of all civil (non-criminal) cases filed in the United States. In 1993, it was just over 10 percent. And cases are on the rise, in red and blue states. The goal of debt collection cases is simple: Turn hard-to-collect debt into easy-to-collect wage garnishments. In most states, when someone loses a debt case, a court can order their employer to redirect their wages toward a creditor instead. The easiest way for that to happen? When the defendant doesn’t show up, defaulting the case. The majority of debt cases end in default: Either the defendant chooses not to show, is confused about what they need to do or should do, or, just as often, never receives notice of a case at all. “Sewer service,” where plaintiffs deliberately avoid notifying defendants of a legal case (for example, by sending a case to an old address), has been a festering problem in debt and eviction cases for decades, and continues to this day. In some cases, people find out they’ve been sued only after noticing that their paycheck has been garnished. When a case does default, many courts will simply grant whatever judgment the plaintiff has requested, without checking whether the plaintiff has provided adequate (or any) documentation that the plaintiff owns the debt, that the defendant still owes the debt, or whether the defendant has been properly notified of the case. Sometimes, even the math is wrong: One study of Utah’s courts found that 9.3 percent of debt cases miscalculated the interest plaintiffs were entitled to after a judgment.
Nghề luật sư đang đối mặt với một cuộc khủng hoảng khi việc sử dụng chatbots - phần mềm có thể tạo ra các chuỗi từ thuyết phục từ câu prompt đơn giản – ngày trở nên phổ biến hơn. Từ lâu các luật sư đã đầu tư xây dựng các công cụ để tạo và xử lý tài liệu pháp lý. Họ lo ngại rằng việc sử dụng chatbots sẽ giảm nhu cầu sử dụng dịch vụ của họ. Tuy nhiên việc sử dụng công nghệ này trong hệ thống tòa án có thể có tác động rộng hơn thế. Việc áp dụng chatbots vào các tòa án của tiểu bang và địa phương của Mỹ có thể dẫn đến một tương lai trong đó những người bình thường có dựa vào chatbots để được giải đáp và tư vấn pháp lý. Các tổ chức đòi nợ thuê đang sử dụng số lượng khổng lồ các vụ kiện có giá trị nhỏ để làm quá tải các tòa án và gài bẫy những người dân bình thường. Các tòa án đang thiếu sự chuẩn bị cho tương lai này. Khi nghĩ về tòa án, bạn có thể tưởng tượng cảnh hai luật sư đối đầu tranh luận trước một thẩm phán hoặc hội đồng thẩm phán. Tuy nhiên, đây là kịch bản trong phim. Người Mỹ chỉ có quyền sử dụng một luật sư chỉ khi họ bị buộc tội hình sự. Đối với các vụ án dân sự, họ phải tự lo. Kết quả là, phần lớn các vụ án dân sự trong các tòa án của tiểu bang và địa phương có ít nhất một bên không có luật sư, thường là vì họ không có lựa chọn khác. Sau cuộc khủng hoảng tài chính năm 2008, hàng ngàn vụ kiện tịch thu tài sản cùng lúc tràn vào tòa án. Nhiều vụ kiện này có sai sót: khai báo sai, công chứng không đúng, giấy tờ bị đổi ngày, tài liệu không đầy đủ và vân vân. Tuy nhiên, các vụ tịch thu tài sản vẫn được thực hiện và nhiều người đã mất nhà. Điều này không phải là một sự cố đơn lẻ. Đó là một cảnh báo về điều gì sẽ xảy ra khi thế giới thay đổi và các tòa án không thích nghi kịp. Để hình dung tương lai cho các luật sư robot, hãy xem các những người nộp đơn kiện số lượng lớn hiện nay: các tổ chức đòi nợ thuê. Các vụ kiện có số nợ nhỏ (dưới 5.000 đô la), được các tổ chức này nộp theo đợt. Tỷ lệ các vụ kiện này ngày càng gia tang trong tổng số vụ kiện. Vào năm 2013, Quỹ Từ thiện Pew nhận thấy các vụ kiện có số nợ nhỏ chiếm một phần tư tất cả các vụ án dân sự (không phải hình sự) được nộp tại Hoa Kỳ. Năm 1993, tỷ lệ này chỉ là trên 10%. Và các vụ án đang gia tăng, ở nhiều tiểu bang. Mục tiêu của các vụ kiện thu nợ khá đơn giản: Biến những khoản nợ khó đòi trở thành các khoản khấu trừ tiền lương dễ thu. Ở hầu hết các tiểu bang, khi một người nào đó thua kiện đòi nợ, tòa án có thể yêu cầu công ty nơi họ làm việc chuyển lương của họ cho chủ nợ. Cách dễ nhất để điều đó xảy ra? Khi bị cáo không xuất hiện, tòa sẽ xử vắng mặt có lợi cho nguyên đơn. Hầu hết các vụ án nợ đều kết thúc bằng xử vắng mặt: Nguyên nhân có thể là do bị đơn không muốn xuất hiện, hoặc do họ không biết phải làm gì hoặc, thường xuyên, là do họ chưa bao giờ nhận được giấy thông báo của tòa. "Hành vi đổ xuống cống" là hành vi gian lận trong đó nguyên đơn cố tình không thông báo cho bị đơn về vụ kiện (ví dụ: bằng cách gửi thông báo đến một địa chỉ cũ giống như đổ nước xuống cống), đã và đang là một vấn đề nghiêm trọng trong các vụ kiện đòi nợ và tịch thu nhà trong nhiều thập kỷ, và vẫn tồn tại đến ngày nay. Trong một số trường hợp, mọi người phát hiện ra rằng họ bị kiện chỉ sau khi thấy lương bị trừ. Khi một vụ án bị xử vắng mặt, nhiều tòa án thường chấp nhận đòi hỏi của nguyên đơn mà không kiểm tra xem những người này đã cung cấp tài liệu đầy đủ chứng minh họ là chủ nợ chưa, cũng như kiểm tra xem bị đơn còn nợ không, hoặc họ có được thông báo đầy đủ về vụ kiện chưa. Đôi khi, con số nợ cũng vị tính sai: Một nghiên cứu về các tòa án ở bàng Utah đã phát hiện ra rằng 9,3% các vụ án nợ đã tính sai số tiền mà nguyên đơn được hưởng theo phán quyết của tòa.
Auto-GPT Unmasked: The Hype and Hard Truths of Its Production Pitfalls
The tech world has recently been abuzz with the astounding rise of Auto-GPT, an experimental open-source application built on the cutting-edge GPT-4 language model. In a mere seven days, this project has skyrocketed to fame, amassing an incredible 44,000 GitHub stars and captivating the open-source community. Auto-GPT envisions a future where autonomous AI-driven tasks are the norm, achieved by chaining together Large Language Model (LLM) thoughts. GitHub - Torantulino/Auto-GPT: An experimental open-source attempt to make GPT-4 fully autonomous. An experimental open-source attempt to make GPT-4 fully autonomous. - GitHub - Torantulino/Auto-GPT: An experimental open-source attempt to make GPT-4 fully autonomous. GitHub Torantulino However, every overnight success comes with its fair share of growing pains. As we celebrate Auto-GPT's rapid ascent, it's crucial to take a step back and scrutinize its potential shortcomings. In this article, we will delve deep into the limitations and challenges that this AI wonderkid faces in its pursuit of production readiness. So, fasten your seatbelts and join us on this riveting journey as we navigate the twists and turns on Auto-GPT's path to stardom. How does Auto-GPT work? Auto-GPT has been making waves in the AI world, and for a good reason. It's like giving GPT-based models a memory and a body, allowing them to tackle tasks independently and even learn from their experiences. To help you understand how Auto-GPT works, let's break it down using simple metaphors. 0:00 /1:46 1× The demo video of Auto-GPT (Source: https://github.com/Torantulino/Auto-GPT) Imagine Auto-GPT as a resourceful robot. You assign it a mission, and it comes up with a plan to accomplish it. If the mission requires browsing the internet or using new data, Auto-GPT adapts its strategy until the task is complete. It's like having a personal assistant that can handle various tasks, such as analyzing markets, customer service, marketing, finance, and more. Four main components make this robot tick: Architecture: Auto-GPT is built using the powerful GPT-4 and GPT-3.5 language models, which serve as the robot's brain, helping it think and reason. Autonomous Iterations: This is like the robot's ability to learn from its mistakes. Auto-GPT can review its work, build on its previous efforts, and use its history to produce more accurate results. Memory Management: Integration with vector databases, a memory storage solution, enables Auto-GPT to preserve context and make better decisions. This is like equipping the robot with a long-term memory to remember past experiences. Multi-functionality: Auto-GPT's capabilities, such as file manipulation, web browsing, and data retrieval, make it versatile and set it apart from previous AI advancements. It's like giving the robot multiple skills to handle a broader range of tasks. So, Auto-GPT is an AI-powered robot that promises a remarkable range of tasks, learning from its experiences, and continuously improving its performance. However, it's important to recognize that these enticing prospects may not yet translate into true capabilities that Auto-GPT can deliver. As we explore its limitations and challenges, we'll focus on the following key areas: Sky-High Costs: A Barrier to Task Completion Merging Worlds: The Development and Production Conundrum The Looping Quagmire: Why Auto-GPT Gets Stuck The Vector DB: An Overkill Solution The Birth of Agent Mechanisms: A Work in Progress By delving into these critical aspects, we'll provide a balanced perspective on Auto-GPT's potential for production readiness. Sky-High Costs: A Barrier to Task Completion While Auto-GPT promises remarkable capabilities, one significant obstacle to its adoption in production environments is its prohibitive cost. As tasks are accomplished through a chain of thoughts, each step requires a call to the expensive GPT-4 model, which often maxes out tokens in order to provide better reasoning and prompting. VUEGPT THOUGHTS: Let's start by checking if there are any updates to VueJS. If there are, we can update to the latest version and proceed. Otherwise, we can move on to creating the TODO list website application. REASONING: Starting with the most updated and stable version of the framework will ensure our project has the latest features, bug fixes and is properly supported. Creating the TODO list website application is our primary goal, so we can move on to that if there are no updates. PLAN: - Check for VueJS updates - Update to latest version if there are updates - If no updates, move on to creating the TODO list website application CRITICISM: None NEXT ACTION: COMMAND = google ARGUMENTS = {'input': 'VueJS latest version update'} Enter 'y' to authorise command, 'y -N' to run N continuous commands, 'n' to exit program, or enter feedback for VueGPT... One step of the chain of thoughts for VueGPT: an Auto-GPT created AI that is designed to create website applications using Vue JS GPT-4 tokens are far from cheap. According to OpenAI, the GPT-4 model with an 8K context window charges $0.03 per 1,000 tokens for prompts and $0.06 per 1,000 tokens for results. Let's break down the cost of each step in the chain of thoughts, assuming that each action maxes out the context window of 8,000 tokens, with 80% being prompts and 20% being results. Pricing Simple and flexible. Only pay for what you use. Notion For 8,000 tokens: Prompts (80%): 6,400 tokens Results (20%): 1,600 tokens Cost of prompts: 6,400 tokens x $0.03/1,000 tokens = $0.192 Cost of results: 1,600 tokens x $0.06/1,000 tokens = $0.096 Total cost per step: $0.192 + $0.096 = $0.288 It's not uncommon for Auto-GPT to take an average of 50 steps to complete a small task. So, the cost of completing a single task would be: Task cost: 50 steps x $0.288/step = $14.4 The cost of completing a single task quickly adds up to a considerable amount, making Auto-GPT's current implementation impractical for many users and organizations. Merging Worlds: The Development and Production Conundrum Upon first glance, one might consider $14.4 a reasonable price to find a Christmas recipe. However, the real issue emerges when you realize you must pay another $14.4 to find a recipe for Thanksgiving by following the same chain of thought again. It becomes clear that generating recipes for Christmas or Thanksgiving should differ by only one "parameter": the festival. The initial $14.4 is spent on developing a method for creating a recipe. Once established, spending the same amount again to adjust the parameter seems illogical. This uncovers a fundamental problem with Auto-GPT: it fails to separate development and production. When using Auto-GPT, the development phase is deemed complete once a goal is achieved and a chain of thoughts is derived. However, there is no way to "serialize" the chain of actions into a reusable function for later use, i.e., bringing it into production. Consequently, users must start from scratch of development each time they want to solve a problem. This inefficiency wastes time and money and presents an unrealistic expectation compared to how we approach problem-solving in the real world. Imagine playing Minecraft and building everything from scratch every time you start the game or playing StarCraft and always beginning with your tech tree rooted at the base level. This level of inefficiency would make these games unenjoyable and frustrating. Unfortunately, Auto-GPT's current implementation does not allow this separation of development and production. It cannot "serialize" the chain of actions into a reusable function, forcing users to pay the full $14.4 again for a seemingly minor change in requirements. This economic inefficiency raises questions about the practicality of Auto-GPT in real-world production environments. It underscores its limitations in providing a sustainable and cost-effective solution for large problem-solving. The Looping Quagmire: Why Auto-GPT Gets Stuck You might think that if $14.4 can genuinely solve a problem, then it's still worth it. However, many users have reported that Auto-GPT frequently gets stuck in a loop, rendering it unable to solve real problems. Several tweets reveal instances where Auto-GPT remained stuck in a loop even after an entire night of processing chains of thought. These cases highlight the reality that, in many situations, Auto-GPT cannot provide the solution it promises. So I used it multiple times yesterday and here’s what I found… it never completes a task. It just always finds reasons to dig deeper and do more research. It never gets to a point to where it actually completes a single goal requested. I let it go for hours. Lol 😂 — Timothy Alan (@timothyalan) April 13, 2023 I don't think AutoGPT will solve any problems. Just like I give gpt4 a coding problem and the output code has bug. I feed it back the runtime error, and it will just give the wrong code again and again. Repeating such loop over 20 times 30 times doesn't solve it at all. — Kushiro (@kushirosea) April 12, 2023 Why does Auto-GPT get stuck in these loops? To understand this, one can think of Auto-GPT as relying on GPT to utilize a very simple programming language to solve tasks. The success of solving a task depends on two factors: the range of functions available in that programming language and the divide-and-conquer ability of GPT, i.e. how well GPT can decompose the task into the predefined programming language. Unfortunately, both of these factors are currently inadequate. The limited functions provided by Auto-GPT can be observed in its source code. For example, it offers functions for searching the web, managing memory, interacting with files, executing code, and generating images. However, this restricted set of functions narrows the scope of tasks Auto-GPT can perform effectively. Additionally, the decomposition and reasoning abilities of GPT are still constrained. Although GPT-4 has significantly improved over GPT-3.5, its reasoning capability is far from perfect, further limiting Auto-GPT's problem-solving capacities. Auto-GPT/prompt.py at 361fed4e3222d5794833ffed8bf8e193f0bae8e3 · Torantulino/Auto-GPT An experimental open-source attempt to make GPT-4 fully autonomous. - Auto-GPT/prompt.py at 361fed4e3222d5794833ffed8bf8e193f0bae8e3 · Torantulino/Auto-GPT GitHub Torantulino Functions, or commands that can be used by Auto-GPT This situation is similar to trying to build a complex game like StarCraft using Python. While Python is a powerful language, decomposing StarCraft into Python functions is extremely challenging. Alternatively, it's like attempting to create an instant messaging app using BASIC, a language lacking the necessary network communication functions. In essence, the combination of a limited function set and GPT-4's constrained reasoning ability results in a looping quagmire that prevents Auto-GPT from delivering the expected outcomes in many cases. Building StarCraft via Python is probably overshooting. But Void Infinity, built on top of the Python PyGame library, is a real-time strategy game where you control the planets of a solar system to build a fleet and destroy your enemy. Source: https://www.pygame.org/project-Void+Infinity-2195-3815.html Human vs. GPT on divide-and-conquer Divide-and-Conquer is the key to Auto-GPT. While GPT-3.5/4 has shown significant advancements over its predecessors, it still falls short of human-level reasoning capabilities when employing divide-and-conquer techniques. Challenges such as inadequate problem decomposition, difficulty in identifying appropriate base cases, and the lack of adaptability and learning all contribute to the limitations of GPT-3.5/4 in solving complex problems using divide-and-conquer methods. Inadequate problem decomposition: The effectiveness of a divide-and-conquer approach largely depends on the ability to break down complex problems into smaller, manageable subproblems. GPT-3.5/4, despite its improvements, still struggles to consistently and effectively decompose problems in a manner that allows for efficient and accurate solutions. Human reasoning can often identify multiple ways to decompose a problem, while GPT-3.5/4 may not have the same level of adaptability or creativity. Difficulty in identifying appropriate base cases: Humans can intuitively choose appropriate ones that lead to efficient solutions. In contrast, GPT-3.5/4 may struggle to identify the most effective base cases for a given problem, which can significantly impact the overall efficiency and accuracy of the divide-and-conquer process. Insufficient understanding of problem context: While humans can leverage their domain knowledge and contextual understanding to tackle complex problems better, GPT-3.5/4 is limited by its pre-trained knowledge and may lack the necessary context to efficiently solve certain problems using divide-and-conquer techniques. Handling overlapping subproblems: Humans can often recognize when solving overlapping subproblems and strategically reuse previously computed solutions. GPT-3.5/4, on the other hand, may not always have the same level of awareness and may end up redundantly solving the same subproblems multiple times, leading to inefficient solutions. The Vector DB: An Overkill Solution Auto-GPT relies on vector databases for faster k-nearest neighbor (kNN) searches. These databases retrieve earlier chains of thoughts, incorporating them into the current query context for GPT to provide a memory effect. However, given Auto-GPT's constraints and limitations, this approach has been criticized as excessive and unnecessarily resource-intensive. Auto-GPT/init.py at master · Torantulino/Auto-GPT An experimental open-source attempt to make GPT-4 fully autonomous. - Auto-GPT/init.py at master · Torantulino/Auto-GPT GitHub Torantulino The main argument against using vector databases stems from the cost constraints associated with Auto-GPT's chain of thoughts. A 50-step chain of thoughts would cost 14.4 dollars, while a 1000-step chain would cost significantly more. As a result, the memory size or length of the chain of thought rarely exceeds four digits. In such cases, an exhaustive search (i.e., the dot product between a 256-dim vector and a 10,000 x 256 matrix) for the nearest neighbor proves to be sufficiently efficient, taking less than one second to complete. In contrast, each GPT-4 call takes approximately 10 seconds to process, making the system GPT-bound rather than database-bound. Benchmark Vector Search Databases with One Million Data In DocArray, Documents inside a DocumentArray can live in a document store instead of in memory. External store provides longer persistence and faster retrieval. Ever wonder about which one is best for your use case? Here’s a comprehensive benchmark to help guide you. Jina AI Jina AI Exhaustive search over one million vectors takes 2.7s. And how often can the "long memory" in Auto-GPT be longer than one million? Although vector databases may offer some advantages in specific scenarios, their implementation within the Auto-GPT system for accelerating kNN "long memory" searches appears to be an unnecessary extravagance and an overkill solution. The primary justification for using vector databases in this context seems to be the user-friendly sugar syntax available out-of-the-box. The Birth of Agent Mechanisms: A Work in Progress Auto-GPT introduces a very intriguing concept by allowing the spawning of agents to delegate tasks. However, this mechanism is still in its early stages, and its potential remains largely untapped. There are several ways to enhance and expand upon the current agent system, opening up new possibilities for more efficient and dynamic interactions. One potential improvement is the introduction of asynchronous agents. By incorporating async-await patterns, agents can operate concurrently without blocking one another, significantly improving the overall efficiency and responsiveness of the system. This concept draws inspiration from modern programming paradigms that have adopted asynchronous methods to manage multiple tasks simultaneously. Using async agents can improve efficiency significantly. Source: https://scoutapm.com/blog/async-javascript Another promising direction is enabling intercommunication between agents. By allowing agents to communicate and collaborate, they can work together to solve complex problems more effectively. This approach resembles the concept of IPC in programming, where multiple threads/processes can share information and resources to achieve a common goal. Generative agents are the future As the GPT-powered agent continues to evolve, the future seems bright for this innovative approach. New research, such as the paper "Generative Agents: Interactive Simulacra of Human Behavior" by Park et al., highlights the potential of agent-based systems in simulating believable human behavior. Generative agents, as proposed in the paper, can interact in complex and engaging ways, forming opinions, initiating conversations, and even autonomously planning and attending events. This work further supports the argument that agent mechanisms have a promising future in AI development. Generative Agents: Interactive Simulacra of Human Behavior Believable proxies of human behavior can empower interactive applicationsranging from immersive environments to rehearsal spaces for interpersonalcommunication to prototyping tools. In this paper, we introduce generativeagents--computational software agents that simulate believable human behavior… arXiv.org Joon Sung Park Auto-GPT can unlock new possibilities for more efficient and dynamic problem-solving capabilities by embracing the paradigm shift towards asynchronous programming and fostering inter-agent communication. Incorporating the architectural and interaction patterns introduced in the "Generative Agents" paper can lead to a fusion of large language models with computational, interactive agents. This combination has the potential to revolutionize how tasks are delegated and executed within AI frameworks and enable more believable simulations of human behavior. The development and exploration of agent systems can contribute significantly to advancing AI applications, providing more robust and dynamic solutions to complex problems. Conclusion In conclusion, the buzz surrounding Auto-GPT raises important questions about the state of AI research and the role of public understanding in driving hype around emerging technologies. As we have demonstrated, Auto-GPT's limitations in reasoning capabilities, the overkill use of vector databases, and the early-stage development of agent mechanisms reveal that it is far from being a practical solution. Yet, it has managed to capture the general public's imagination, who may lack a deep understanding of its inner workings. The hype around Auto-GPT serves as a sobering reminder of how shallow understanding can lead to inflated expectations, ultimately culminating in a distorted perception of AI's true capabilities. As a society, we must be vigilant in questioning the narratives that surround emerging technologies and strive to foster critical thinking and informed discussions. That said, Auto-GPT does point to a promising direction for the future of AI: generative agent systems. As we move forward, let us learn from the lessons of the Auto-GPT hype and focus on nurturing a more nuanced and informed dialogue around AI research. By doing so, we can harness the transformative power of generative agent systems and continue to push the boundaries of AI capabilities, shaping a future where technology truly benefits humanity.
Auto-GPT Unmasked: Sự Hype và Sự Thật Khó Khăn Về Những Rủi Ro Sản Xuất Auto-GPT: Một dự án đột phá hay chỉ là một thí nghiệm AI được bao phủ quá nhiều? Trong bài đăng trên blog này, chúng tôi sẽ phân tích sự thật đằng sau những thông tin này và tiết lộ những giới hạn khiến cho dự án này không phù hợp cho các ứng dụng thực tế. Han Xiao 14 tháng 4 năm 2023•13 phút đọc Thế giới công nghệ gần đây đã phát cuồng vì sự bùng nổ đáng kinh ngạc của Auto-GPT, một ứng dụng mã nguồn mở thử nghiệm được xây dựng trên mô hình ngôn ngữ GPT-4. Chỉ trong vòng bảy ngày, dự án này đã vươn lên thành một hiện tượng, dành được 44.000 sao trên GitHub và thu hút cộng đồng mã nguồn mở. Auto-GPT dự báo một tương lai trong đó các nhiệm vụ do AI thực hiện một cách tự động thông qua liên kết các mô hình ngôn ngữ lớn (LLM). GitHub - Torantulino / Auto-GPT: Một thử nghiệm mã nguồn mở thử nghiệm để làm cho GPT-4 hoàn toàn tự động. Tuy nhiên, mọi thành công nhanh chóng đều đi kèm nóng của nó. Auto-GPT hoạt động như thế nào? Auto-GPT đã tạo ra những cơn địa chấn trong thế giới AI, và điều đó có lý do. Auto-GPT cho các mô GPT một bộ nhớ và một cơ thể, giúp chúng xử lý các nhiệm vụ độc lập và tự rút kinh nghiệm để lần sau làm tốt hơn. Nó giống như một trợ lý cá nhân có thể xử lý các nhiệm vụ khác nhau như phân tích thị trường, dịch vụ khách hàng, tiếp thị, tài chính … Bốn thành phần chính của AI này gồm: Kiến trúc: Auto-GPT được xây dựng bằng mô hình ngôn ngữ GPT-4 và GPT-3.5, đóng vai trò như não của robot, giúp nó suy nghĩ và suy luận. Tự động lặp lại chu kỳ: Giống như khả năng robot rút kinh nghiệm từ sai lầm. Auto-GPT có thể tự đánh giá lại công việc của nó, cải thiện dựa trên kinh nghiệm trước đó và dùng trí nhớ để tạo ra kết quả chính xác hơn. Quản lý bộ nhớ: Tích hợp với cơ sở dữ liệu vector, một giải pháp lưu trữ bộ nhớ, cho phép Auto-GPT lưu giữ thông tin về bối cảnh và đưa ra quyết định tốt hơn. Điều này giống như trang bị cho robot một bộ nhớ dài hạn để lưu trữ những kinh nghiệm quá khứ. Đa chức năng: Auto-GPT đa di năng ví dụ nó có thể sửa tệp văn bản, lướt web và tìm kiếm dữ liệu, khả năng đa dụng này khiến nó vượt trội các AI trước đó. Vì vậy, Auto-GPT là robot AI có thể thực hiện nhiều nhiệm vụ đáng kinh ngạc, tự rút kinh nghiệm và liên tục tự cải thiện hiệu suất. Dù nghe hấp dẫn nhưng đây chỉ là tiềm năng và Auto-GPT cần khắc phục nhiều điểm yếu mới có thể thực hiện được một cách hiệu quả. Các giới hạn và thách thức của Auto-GPT: Chi phí thực hiện nhiệm vụ cao Không tái sử dụng được các nhiệm vụ tương tự Lặp đi lặp lại vô nghĩa như gà mắc tóc Cơ sở dữ liệu Vector: chiếc áo quá rộng Sự vận hành của agent (đặc vụ): Cuộc chơi mới bắt đầu Chi phí thực hiện nhiệm vụ tốn kém: Khi nhiệm vụ được thực hiện dựa trên một chuỗi các bước tính toán, mỗi bước là một cuộc gọi tốn kém đến GPT-4 đắt đỏ, và thường làm cạn kiệt lượng token để có được năng lực lập luận và tạo prompt tốt hơn. Token GPT-4 không hề rẻ. Theo OpenAI, GPT-4 loaij 8K chém $0,03 cho mỗi 1.000 token áp dụng cho prompt và và $0,06 cho mỗi 1.000 token cho kết quả. Không phải hiếm gặp khi Auto-GPT mất trung bình 50 bước để hoàn thành một nhiệm vụ nhỏ. Vì vậy, chi phí để hoàn thành một nhiệm vụ sẽ là: Chi phí nhiệm vụ: 50 bước x 0,288 đô la / bước = 14,4 đô la Khi cộng chi phí để hoàn thành nhiều nhiệm vụ thì số tiền tăng lên một khoản đáng kể, khiến cho việc triển khai Auto-GPT hiện tại không thực tế đối với nhiều người dùng và tổ chức. Không tái sử dụng được các nhiệm vụ tương tự 14,4 đô la thoạt nhìn có vẻ không quá đắt để tìm công thức nấu ăn cho Giáng sinh. Tuy nhiên, chi phí tạo công thức nấu ăn cho lễ Tạ ơn cũng tốn từng đấy tiền dù chỉ khác nhau có một "tham số": tên ngày lễ. 14,4 đô la ban đầu chi cho việc phát triển phương pháp tạo ra công thức. Sau khi có công thức, vẫn phải chi số tiền đó để điều chỉnh tham số có vẻ không hợp lý. Auto-GPT không có khả năng suy luận từ một công thức ban đâu ra thành chuỗi công thức để có thể tái sử dụng với chi phí thấp hơn. Do đó, người dùng phải bắt đầu từ đầu mỗi lần muốn giải quyết một vấn đề. Đây là lãng phí thời gian và tiền bạc. Hãy tưởng tượng chơi Minecraft và làm lại mọi thứ từ đầu mỗi khi bạn chơi hoặc chơi StarCraft và cây công nghệ luôn bắt đầu ở trình độ cơ bản. Điều này sẽ khiến cho những trò chơi trở nên khó chịu. Lặp đi lặp lại vô nghĩa như gà mắc tóc Nếu tiêu $14.4 mà được việc thì vẫn đáng đồng tiền bát gạo. Tuy nhiên, nhiều người dùng đã báo cáo rằng Auto-GPT thường bị kẹt trong một vòng lặp, khiến nó không thể giải quyết vấn đề được giao. Thời gian kẹt có thể kéo dài cả một đêm. ”…nó không bao giờ hoàn thành một nhiệm vụ. Nó chỉ tìm lý do để học nữa học mãi. Haha 😂 - Timothy Alan (@timothyalan) 13 tháng 4 năm 2023 Tại sao Auto-GPT bị kẹt trong những vòng lặp này? Để hiểu điều này, ta có thể coi Auto-GPT như đang dựa trên GPT để sử dụng một ngôn ngữ lập trình rất đơn giản để thực hiện nhiệm vụ. Thực hiện thành công nhiệm vụ phụ thuộc vào hai yếu tố: phạm vi các chức năng có sẵn trong ngôn ngữ lập trình đó và khả năng “chia để trị” của GPT, tức là GPT có thể chia nhỏ nhiệm vụ thành ngôn ngữ lập trình được định nghĩa trước. Tiếc là cả hai yếu tố này đều chưa đủ. Có thể thấy các hàm hạn chế trong mã nguồn của Auto-GPT. Ví dụ, các hàm tìm kiếm trên web, quản lý bộ nhớ, tương tác với tệp, thực thi mã và tạo ảnh. Tuy nhiên, các hàm bị hạn chế này làm cho phạm vi các nhiệm vụ mà Auto-GPT có thể thực hiện hiệu quả bị nhỏ lại. Ngoài ra, khả năng chi nhỏ và lập luận của GPT vẫn bị hạn chế. Mặc dù GPT-4 đã có nhiều cải tiến so với GPT-3.5 nhưng khả năng lập luận của nó vẫn còn cần phải cải thiện thêm, điều này khiến năng lực giải quyết vấn đề của Auto-GPT càng hạn chế. Đây chính là lý do khiến Auto-GPT kẹt vào trong vòng lặp như gà mắc tóc. So sánh khả năng “chia để trị” của con người và GPT “Chia để trị” của yếu tố then chốt đối với Auto-GPT. Mặc dù GPT-3.5/4 đã có những tiến bộ đáng kể so với các phiên bản trước đó, nó vẫn có được khả năng lập luận như con người khi sử dụng các kỹ thuật “chia để trị”. Các thách thức gồm: -Yếu về năng lực chia nhỏ vấn đề: Hiệu quả của phương pháp “chia để trị” phụ thuộc nhiều vào khả năng chia các vấn đề phức tạp thành các vấn đề nhỏ, dễ xử lý hơn. GPT-3.5/4, mặc dù có nhiều cải tiến, vẫn gặp khó khăn trong việc chia nhỏ các vấn đề một cách nhất quán và hiệu quả để giải quyết chúng một cách chính xác và hiệu quả. Trí tuệ con người thường có thể xác định nhiều cách để phân tách một vấn đề, trong khi GPT-3.5/4 có thể không có cùng mức độ thích nghi hoặc sáng tạo. -Thiếu hiểu biết về bối cảnh vấn đề: Trong khi con người có thể tận dụng kiến thức chuyên ngành và hiểu biết bối cảnh của mình để giải quyết các vấn đề phức tạp tốt hơn, GPT-3.5/4 bị giới hạn bởi kiến thức được đào tạo từ trước và có thể thiếu bối cảnh cần để giải quyết một số vấn đề một cách hiệu quả bằng các kỹ thuật “chia để trị”. Xử lý các vấn đề tương tự: Con người thường có thể nhận ra khi giải quyết các vấn đề tương tự và tái sử dụng các giải pháp đã tính toán trước đó một cách chiến lược. Trái lại, GPT-3.5/4 không phải lúc nào cũng nhận thức được điều đó và có thể giải quyết các vấn đề tương tự nhiều lần, dẫn đến các giải pháp không hiệu quả. Cơ sở dữ liệu Vector: chiếc áo quá rộng Auto-GPT phụ thuộc vào cơ sở dữ liệu vector để tìm kiếm nhanh hơn. Các cơ sở dữ liệu này dùng lại chuỗi suy nghĩ trước đó và tích hợp chúng vào ngữ cảnh truy vấn hiện tại cho GPT để cung cấp hiệu ứng bộ nhớ. Tuy nhiên, với các ràng buộc và hạn chế của Auto-GPT, phương pháp này bị coi là quá sức và tốn tài nguyên không cần thiết. Và điều này liên qua đến chi phí nói ở trên. Một chuỗi suy nghĩ 50 bước sẽ tốn 14,4 đô la, trong khi một chuỗi suy nghĩ 1000 bước sẽ tốn hơn nhiều lần. Do đó, kích thước bộ nhớ hoặc độ dài của chuỗi suy nghĩ hiếm khi vượt quá bốn chữ số. Trong những trường hợp như vậy, tìm kiếm toàn diện cho trường hợp gần nhất được chứng minh là đủ hiệu quả, chỉ mất ít hơn một giây để hoàn thành. Ngược lại, mỗi cuộc gọi GPT-4 mất khoảng 10 giây để xử lý, làm cho hệ thống chịu tác động nhiều từ GPT hơn từ cơ sở dữ liệu. Vector Tìm kiếm Cơ sở dữ liệu với Một triệu Dữ liệu Trong DocArray, Tài liệu bên trong một DocumentArray có thể sống trong kho tài liệu thay vì trong bộ nhớ. Kho lưu trữ bên ngoài cung cấp sự tồn tại lâu hơn và tốc độ truy xuất nhanh hơn. Bao giờ bạn tự hỏi về cái nào tốt nhất cho trường hợp sử dụng của bạn? Đây là một bài kiểm tra toàn diện để giúp bạn hướng dẫn. Jina AI Jina AI Tìm kiếm toàn diện trên một triệu vector mất 2,7 giây. Và bộ nhớ "dài hạn" trong Auto-GPT có thể dài hơn một triệu bao nhiêu lần? Mặc dù cơ sở dữ liệu vector có thể cung cấp một số lợi thế trong các kịch bản cụ thể, tuy nhiên việc triển khai của chúng trong hệ thống Auto-GPT để tăng tốc tìm kiếm kNN "bộ nhớ dài" dường như là một sự xa hoa không cần thiết và một giải pháp quá mức. Lý do chính để sử dụng cơ sở dữ liệu vector trong ngữ cảnh này dường như là cú pháp đường tiếp cận thân thiện với người dùng có sẵn. Sự ra đời của Cơ chế Đại lý: Một công việc đang tiến hành Auto-GPT giới thiệu một khái niệm rất thú vị bằng cách cho phép sinh ra các đại lý để ủy quyền các nhiệm vụ. Tuy nhiên, cơ chế này vẫn đang ở giai đoạn đầu, và tiềm năng của nó vẫn còn chưa được khai thác một cách toàn diện. Có một số cách để cải thiện và mở rộng hơn nữa hệ thống đại lý hiện tại, mở ra những khả năng mới cho tương tác hiệu quả và linh hoạt hơn. Một cải tiến tiềm năng là giới thiệu các đại lý bất đồng bộ. Bằng cách kết hợp các mẫu đồng bộ đợi, các đại lý có thể hoạt động đồng thời mà không làm chặn lẫn nhau, cải thiện đáng kể hiệu quả tổng thể và đáp ứng của hệ thống. Khái niệm này lấy cảm hứng từ các mô hình lập trình hiện đại đã áp dụng các phương pháp bất đồng bộ để quản lý nhiều nhiệm vụ đồng thời. Sử dụng các đại lý bất đồng bộ có thể cải thiện đáng kể hiệu quả. Nguồn: https://scoutapm.com/blog/async-javascript Một hướng tiếp cận tiềm năng khác là cho phép các đại lý giao tiếp và hợp tác. Bằng cách cho phép các đại lý giao tiếp và hợp tác, họ có thể làm việc cùng nhau để giải quyết các vấn đề phức tạp một cách hiệu quả hơn. Phương pháp này giống với khái niệm IPC trong lập trình, trong đó nhiều luồng / quy trình có thể chia sẻ thông tin và tài nguyên để đạt được một mục tiêu chung. Các đại lý tạo ra là tương lai Khi đại lý được cung cấp bởi GPT tiếp tục phát triển, tương lai trông sáng sủa cho phương pháp đổi mới này. Nghiên cứu mới, chẳng hạn như bài báo "Generative Agents: Interactive Simulacra of Human Behavior" của Park et al., Nhấn mạnh tiềm năng của các hệ thống dựa trên đại lý trong mô phỏng hành vi con người đáng tin cậy. Các đại lý tạo ra, như được đề xuất trong bài báo, có thể tương tác một cách phức tạp và hấp dẫn, hình thành ý kiến, khởi đầu cuộc trò chuyện và thậm chí tự động lập kế hoạch và tham dự sự kiện. Công việc này càng chứng minh rằng cơ chế đại lý có tương lai hứa hẹn trong phát triển trí tuệ nhân tạo. Generative Agents: Interactive Simulacra of Human Behavior Các proxy đáng tin cậy về hành vi con người có thể tạo động lực cho các ứng dụng tương tác, từ môi trường tràn đầy tới không gian tập luyện cho giao tiếp giữa cá nhân đến các công cụ tạo nguyên mẫu. Trong bài báo này, chúng tôi giới thiệu các đại lý tạo ra - các đại lý phần mềm tính toán mô phỏng hành vi con người đáng tin cậy ... arXiv.org Joon Sung Park Auto-GPT có thể mở ra những khả năng mới cho khả năng giải quyết vấn đề hiệu quả và linh hoạt hơn bằng cách tiếp nhận sự thay đổi mô hình lập trình bất đồng bộ và khuyến khích giao tiếp giữa các đại lý. Việc kết hợp các mô hình kiến trúc và tương tác được giới thiệu trong bài báo "Generative Agents" có thể dẫn đến sự kết hợp của các mô hình ngôn ngữ lớn với các đại lý tính toán tương tác. Kết hợp này có tiềm năng cách mạng hóa cách nhiệm vụ được ủy quyền và thực thi trong các khung vi xử lý trí tuệ nhân tạo và cho phép mô phỏng hành vi con người đáng tin cậy hơn. Việc phát triển và khám phá các hệ thống đại lý có thể đóng góp đáng kể vào việc tiến bộ ứng dụng trí tuệ nhân tạo, cung cấp các giải pháp mạnh mẽ và linh hoạt hơn cho các vấn đề phức tạp. Kết luận Kết luận, sự xôn xao về Auto-GPT đặt ra những câu hỏi quan trọng về trạng thái của nghiên cứu AI và vai trò của sự hiểu biết của công chúng trong đẩy mạnh sự háo hức về các công nghệ mới nổi. Như chúng tôi đã chứng minh, các hạn chế về khả năng lập luận của Auto-GPT, việc sử dụng quá mức cơ sở dữ liệu vector và sự phát triển ở giai đoạn đầu của cơ chế đại lý tiết lộ rằng nó chưa đủ thực tế. Tuy nhiên, nó đã quản lý để thu hút sự tưởng tượng của công chúng chung, người có thể thiếu sự hiểu biết sâu sắc về cách hoạt động bên trong của nó. Sự háo hức về Auto-GPT là một lời nhắc nhở đau lòng về cách hiểu biết nông cạn có thể dẫn đến kỳ vọng quá cao, cuối cùng dẫn đến một cách nhìn méo mó về khả năng thực sự của AI. Như một xã hội, chúng ta phải cảnh giác trong việc đặt câu hỏi về các câu chuyện xung quanh các công nghệ mới nổi và cố gắng khuyến khích tư duy phê phán và thảo luận có thông tin. Nói vậy, Auto-GPT chỉ ra hướng phát triển tiềm năng cho tương lai của AI: hệ thống đại lý tạo ra. Khi chúng ta tiến về phía trước, hãy học từ những bài học về sự háo hức của Auto-GPT và tập trung vào nuôi dưỡng một cuộc đối thoại về nghiên cứu AI thông minh và đa chiều hơn. Bằng cách làm như vậy, chúng ta có thể khai thác sức mạnh biến đổi của các hệ thống đại lý tạo ra và tiếp tục đẩy giới hạn của khả năng AI, hình thành một tương lai trong đó công nghệ thực sự có lợi cho nhân loại.
 
AI-powered "robot" lawyer won't argue in court after jail threats (cbsnews 26/1/2023)
A "robot" lawyer powered by artificial intelligence was set to be the first of its kind to help a defendant fight a traffic ticket in court next month. But the experiment has been scrapped after "State Bar prosecutors" threatened the man behind the company that created the chatbot with prison time. Joshua Browder, CEO of DoNotPay, on Wednesday tweeted that his company "is postponing our court case and sticking to consumer rights." Good morning! Bad news: after receiving threats from State Bar prosecutors, it seems likely they will put me in jail for 6 months if I follow through with bringing a robot lawyer into a physical courtroom. DoNotPay is postponing our court case and sticking to consumer rights: — Joshua Browder (@jbrowder1) January 25, 2023 Browder also said he will not be sending the company's robot lawyer to court. The AI creation — which runs on a smartphone, listens to court arguments and formulates responses for the defendant — was designed to tell the defendant what to say in real time, through headphones. But according to Browder, the prospect for bringing the first robot lawyer into the court room wasn't worth the risk of spending six months in jail. Backlash from lawyers against Browder's proposed stunt suggests that those in the legal profession have concerns over AI-powered chatbots usurping their jobs. The AI lawyer was set to take its first case on February 22, Browder had announced on Twitter. "On February 22nd at 1.30PM, history will be made. For the first time ever, a robot will represent someone in a US courtroom. DoNotPay A.I will whisper in someone's ear exactly what to say. We will release the results and share more after it happens. Wish us luck!" he tweeted. He did not disclose the name of the client or the court. On February 22nd at 1.30PM, history will be made. For the first time ever, a robot will represent someone in a US courtroom. DoNotPay A.I will whisper in someone's ear exactly what to say. We will release the results and share more after it happens. Wish us luck! — Joshua Browder (@jbrowder1) January 21, 2023 DoNotPay has already used AI-generated form letters and chatbots to help people secure refunds for in-flight Wifi that didn't work, as well as to lower bills and dispute parking tickets, according to Browder. All told, the company has relied on these AI templates to win more than 2 million customer service disputes and court cases on behalf of individuals against institutions and organizations, he added. It has raised $27.7 million from tech-focused venture capital firms, including Andreessen Horowitz and Crew Capital. "In the past year, AI tech has really developed and allowed us to go back and forth in real time with corporations and governments," he told CBS MoneyWatch of recent advances. "We spoke live [with companies and customer service reps] to lower bills with companies; and what we're doing next month is try to use the tech in a courtroom for the first time." DoNotPay had said that it would have covered any fines if the robot were to lose the case. Legal in some, but not most courtrooms Some courts allow defendants to wear hearing aids, some versions of which are Bluetooth-enabled. That's how Browder determined that DoNotPay's technology could legally be used in this case. However, the tech that runs DoNotPay isn't legal in most courtrooms. Some states require that all parties consent to be recorded, which rules out the possibility of a robot lawyer entering many courtrooms. Of the 300 cases DoNotPay considered for a trial of its robot lawyer, only two were feasible, Browder said. "It's within the letter of the law, but I don't think anyone could ever imagine this would happen," Browder said. "It's not in the spirit of law, but we're trying to push things forward and a lot of people can't afford legal help. If these cases are successful, it will encourage more courts to change their rules." Lawyers "would not support this" The ultimate goal of a "robot" lawyer, according to Browder, is to democratize legal representation by making it free for those who can't afford it, in some cases eliminating the need for pricey attorneys. "What we are trying to do is automate consumer rights," Browder said. "New technologies typically fall into the hands of big companies first, and our goal is put it in hands of the people first." But given that the technology is illegal in many courtrooms, he doesn't expect to be able to commercialize the product any time soon. When he initially announced that DoNotPay's robot lawyer would appear in court, lawyers threatened him and told him he'd be sent to jail, he told CBS MoneyWatch. "There are a lot of lawyers and bar associations that would not support this," Browder said. Putting ChatGPT through law school Browder wants to arm individuals with the same tools that large corporations can typically access, but are out of reach for those without deep resources. AI-powered chatbot ChatGPT has exploded in popularity recently for its ability to spit out coherent essays on wide-ranging topics in under one minute. The technology has drawn interest from investors, with Microsoft on Monday announcing a multibillion dollar investment in parent company OpenAI. Princeton student says his new app helps teachers find ChatGPT cheats But Browder highlighted its shortcomings and in some cases, lack of sophistication. "ChatGPT is very good at holding conversations, but it's terrible at knowing the law. We've had to retrain these AIs to know the law," Browder said. "AI is a high school student, and we're sending it to law school.”
Luật sư "robot" dựa trên AI lần đầu tiên dự định được gửi tới tòa để giúp bị cáo trong phiên tòa về vi phạm luật giao thông vào tháng tới. Nhưng việc này đã bị hủy bỏ sau khi "các công tố viên của Hiệp hội Thẩm phán" đe dọa bỏ tù giám đốc công ty đã tạo ra chatbot. Joshua Browder, CEO của DoNotPay, đã đăng tweet vào thứ tư thông báo rằng công ty của ông "đang hoãn tham gia phiên tòa và chỉ tập trung vào bảo vệ quyền lợi của người tiêu dùng". Browder cũng cho biết ông sẽ không gửi luật sư robot của công ty đến tòa án. Sản phẩm trí tuệ nhân tạo này - chạy trên điện thoại thông minh, lắng nghe các cuộc tranh luận tại tòa và gợi ý cách phản hồi cho bị đơn - được thiết kế để gợi ý cho bị đơn cách nói năng ở tòa thông qua tai nghe. Nhưng theo Browder, việc thử nghiệm luật sư robot đầu tiên trong phòng nghị án không xứng đáng với rủi ro phải ngồi trong tù sáu tháng. Phản ứng gay gắt của của các thẩm phán đối với thí điểm luật sư AI của Browder cho thấy những người trong ngành luật lo ngại về chatbot AI có thể thay thế cho công việc của họ. Luật sư AI được lên kế hoạch tham gia phiên tòa đầu tiên của mình vào ngày 22 tháng 2, Browder đã thông báo trên Twitter. "Vào lúc 1:30 chiều ngày 22 tháng 2, sẽ là ngày lịch sử . Lần đầu tiên, một robot sẽ đại diện cho một con người trong một phòng xét xử ở Mỹ. DoNotPay A.I sẽ nói thầm vào tai bị đơn những gì cần nói. Chúng tôi sẽ công bố kết quả và chia sẻ thêm sau khi phiên tòa kết thúc. Hãy chúc cho chúng tôi chúc may mắn!" ông viết trong tweet. Ông không tiết lộ tên của khách hàng hoặc tòa án. DoNotPay đã sử dụng các thư mẫu và chatbot được tạo bởi AI để giúp người dân đòi lại tiền khi Wifi trên chuyến bay không hoạt động, giảm giá hóa đơn và khiếu nại phạt đỗ xe trái phép, theo Browder. Tổng cộng, công ty đã dựa vào các AI này để giành chiến thắng trong hơn 2 triệu vụ tranh chấp dịch vụ khách hàng và các vụ kiện trước tòa án cho cá nhân đối với các tổ chức, ông nói thêm. Công ty đã thu hút vốn đầu tư 27,7 triệu đô la từ các quỹ đầu tư rủi ro như Andreessen Horowitz và Crew Capital. "Trong năm qua, công nghệ AI đã phát triển rất nhanh và cho phép chúng tôi trao đổi trực tiếp với các công ty và chính phủ," ông nói với CBS MoneyWatch về những tiến bộ gần đây. "Chúng tôi đã nói chuyện trực tiếp (với các công ty và đại diện dịch vụ khách hàng) để đàm phán giảm giá với các công ty; và điều chúng tôi sẽ làm vào tháng tới là lần đầu tiên sử dụng công nghệ trong một phiên tòa". DoNotPay cho biết rằng công ty sẽ đền bù bất kỳ khoản phạt nào nếu robot thua vụ kiện. Ứng dụng pháp lý nhưng không phải tại các phiên xử Một số tòa án cho phép bị cáo đeo các thiết bị trợ thính, có thể được kết nối Bluetooth. Đó là cách Browder xác định rằng công nghệ của DoNotPay có thể được sử dụng hợp pháp trong trường hợp này. Tuy nhiên, công nghệ của DoNotPay không hợp pháp trong hầu hết các phiên tòa. Một số bang yêu cầu tất cả các bên đồng ý được ghi âm, điều này loại trừ khả năng một luật sư robot được tham gia ở nhiều phiên tòa. Trong số 300 vụ kiện mà DoNotPay xem xét để thử nghiệm robot luật sư ở phiên tòa, chỉ có hai vụ khả thi, Browder cho biết. Browder nói. "Luật không cho phép nhưng chúng tôi đang cố gắng thay đổi xã hội do nhiều người không đủ khả năng trả tiền hỗ trợ pháp lý. Nếu các vụ kiện này thành công, nhiều tòa án sẽ thay đổi quy định." Luật sư "không ủng hộ" Mục tiêu cuối cùng của một luật sư "robot", theo Browder, là để dân chủ hóa đại diện pháp lý bằng cách cung cấp dịch vụ miễn phí đối với những người không thể trả tiền, và trong một số trường hợp loại bỏ nhu cầu thuê luật sư đắt tiền. "Chúng tôi đang cố gắng tự động hóa quyền lợi của người tiêu dùng," Browder nói. "Các công nghệ mới thường rơi vào tay các công ty lớn trước, và mục tiêu của chúng tôi là đưa công nghệ tới tay người tiêu dùng trước." Nhưng vì công nghệ này bất hợp pháp trong nhiều phiên tòa, ông không nghĩ sẽ có thể thương mại hóa sản phẩm trong thời gian sớm nhất. Khi ông thông báo rằng luật sư robot của DoNotPay sẽ xuất hiện trong phiên tòa, các thẩm phán đã đe dọa ông và nói rằng ông sẽ bị bỏ tù, ông nói với CBS MoneyWatch. "Có rất nhiều thẩm phán và hiệp hội luật sư sẽ không hỗ trợ điều này," Browder nói. Gửi ChatGPT tới trường Luật để học Browder muốn trang bị cho người dân bình thường các công cụ mà các công ty lớn thường sử dụng, nhưng lại nằm ngoài tầm với của những người không có điều kiện. ChatGPT đã phát triển vượt bậc trong thời gian gần đây với khả năng tạo ra các bài luận nhất quán về nhiều chủ đề trong thời gian dưới một phút. Nhưng Browder nhấn mạnh những hạn chế của AI và trong một số trường hợp, thiếu thông minh. "ChatGPT làm rất tốt việc trò chuyện, nhưng nó rất tệ trong việc hiểu pháp luật. Chúng tôi đã phải đào tạo lại các AI này để chúng nắm vững pháp luật," Browder nói. "AI là một sinh viên trung học, và chúng tôi đang gửi nó đến trường luật.”
SqueezeBits Demonstrates World's Fastest On-device Image Generation AI for Mobile Devices
 
SqueezeBits optimizes ‘Stable Diffusion', a representative image generation AI model, for Android smartphones and achieves world's fastest processing speed - Optimized model facilitates on-device image generation services, reducing server costs and protecting personal privacy - SqueezeBits envisions proliferation of AI-based services with lightweighted large-scale AI models including generative AI SqueezeBits, led by CEO Hyungjun Kim, has revealed a demonstration of image generation AI model, Stable Diffusion, optimized to run on Android smartphones. The demonstration highlighted SqueezeBits' prowess in AI model optimization field, drawing interest from major corporations worldwide. In collaboration with the VLSI Lab at Seoul National University, led by Professor Jae-Joon Kim, SqueezeBits successfully compressed the Stable Diffusion model without compromising image quality or performance. As a result, the model can be processed on Android smartphones without cloud connectivity, achieving the world's fastest mobile performance. The demonstration was revealed at TinyML Summit 2023, a specialized exhibition on edge AI held in San Francisco. Hyungjun Kim, CEO of SqueezeBits, stated, "The demonstration has attracted a lot of attention from other companies participating in the Summit, as it implies a significant development in the ability to run large-scale AI on edge devices.”
- SqueezeBits đã tối ưu hóa "Stable Diffusion", một mô hình AI tạo hình ảnh cho điện thoại thông minh Android và đạt được tốc độ xử lý nhanh nhất thế giới - Mô hình được tối ưu để giúp giảm thiểu chi phí máy chủ và bảo vệ sự riêng tư cá nhân khi cung cấp dịch vụ tạo hình ảnh trên thiết bị di động. Phối hợp với phòng thí nghiệm VLSI tại Đại học Quốc gia Seoul, do giáo sư Jae-Joon Kim dẫn đầu, SqueezeBits đã nén được mô hình Stable Diffusion mà không ảnh hưởng đến chất lượng hình ảnh hoặc hiệu suất. Nhờ đó, mô hình có thể chạy trên điện thoại thông minh Android mà không cần kết nối đám mây, đạt được hiệu suất di động nhanh nhất thế giới. Buổi trình diễn tại Hội nghị TinyML Summit 2023, một triển lãm chuyên biệt về AI trên các thiết bị ngoại vi tại San Francisco. Hyungjun Kim, CEO của SqueezeBits, cho biết: "Buổi trình diễn đã thu hút được rất nhiều sự chú ý từ các công ty tham gia Hội nghị, vì nó cho thấy tiềm năng đáng kể trong việc vận hành AI quy mô lớn trên các thiết bị ngoại vi."
With SqueezeBits' AI compression technology, image generation services can be deployed to smartphones with significantly reduced server costs. Furthermore, since personal information like selfies is not required to be sent to cloud servers, users can also benefit from strengthened privacy protection.
Với công nghệ nén AI của SqueezeBits, các dịch vụ tạo hình ảnh có thể triển khai trên điện thoại thông minh với chi phí máy chủ giảm đáng kể. Hơn nữa, vì thông tin cá nhân như ảnh tự sướng không cần phải gửi đến máy chủ sử dụng điện toán đám mây, người dùng có thể yên tầm về việc bảo vệ sự riêng tư.
Rethinking the MBA degree for the AI era? There’s an app for that
 
INSEAD shrank last year’s student intake to 887 from 1,105 across its France and Singapore campuses to keep things reassuringly exclusive. You know you’re at a business school when the architecture changes from classical to modern glass-and-brick, when the Latin mottos give way to slick corporate logos and touchy-feely mission statements, and when the student body looks bright eyed rather than hung over. So it is at INSEAD’s French campus in Fontainebleau on an April afternoon, every inch the quintessential B-school — ranked Europe’s No 2 by Bloomberg Businessweek, after the International Institute for Management Development in Lausanne, Switzerland — from the engraved names of donors on the walls to the single student in a banana outfit walking by (it’s a designated “fun day,” apparently). But there are also signs of an overhaul afoot, including a planned campus redesign, a new curriculum and upgrades to the technology used to teach it, as the school and its peers fight to adapt to a more hostile world of deglobalisation, automation and inflation. Victory is not assured. “It used to be: Do an MBA and you’re set for life,” says Ilian Mihov, whose 10-year tenure as dean of INSEAD (Institut Europeen d’Administration des Affaires) ends this year. “But demands on executives are changing all the time, from sustainability, to data science, to artificial intelligence...Students have to absorb more knowledge.” The answer, according to Mihov, is to review and change what the MBA itself teaches, prioritising sustainability, but also promoting lifelong learning — by jokingly imagining a world in which MBAs self-destruct within five years and force alumni to reapply for the qualification. It’s taking shape in a soon-to-be-paid-for app featuring videos, papers and discussions — a kind of unbundling of education that would offer corporate execs access to training without having to go the MBA route. This is not a so-called Massive Open Online Course, but an avenue for the business school to win repeat business while promoting the kind of re-skilling that governments and firms want in an increasingly digital world. Currently, the app is in the developmental stage — the clips and lectures are short and some of the content is available elsewhere — but it’s an encouraging start, especially if it boosts the value of re-training (rather than firing) in the eyes of tomorrow’s corporate overlords. If business schools have been slow to change — especially considering the more obvious reputational damage wrought by the Enron bankruptcy, the global financial crisis or from competition from virtual e-learning — it’s because signs of softening demand are only now becoming obvious. MBAs are increasingly expensive, with top programs costing anestimated average of $189,000 including non-tuition expenses, and compete with a job market that’s been surprisingly resilient even after Covid-19. US domestic applications fell 25 percent last year, partly offset by a rise in international applications; INSEAD shranklast year’s student intake to 887 from 1,105 across its France and Singapore campuses to keep things reassuringly exclusive. Business School's Golden Passport Loses Luster | Year-on-year change in applications shows a post-Covid decline And with more than half a million layoffs announced around the world since Oct. 1, concentrated among white-collar companies, B-schools have a fight on their hands keeping the MBA glamor alive. Dependable employers like McKinsey & Co. and Bain & Co. are pushing back start dates for new hires and telling them to go on safari or write a book instead, according to the Wall Street Journal. War and restrictions on immigration have shrunk schools’ global reach. INSEAD’s Mihov is clear-eyed about the possibility this is more than just temporary. And while he reckons there will always be a need for global managers, even in the age of AI, the likes of Walt Disney Co. and Meta Platforms Inc. currently seem to have an oversupply. The benefits of self-reform aren’t just about running profitable business schools, whose ranks have thinned lately, but also responding to long-running criticism of the legitimacy of what they teach. One paper last year found that companies that hired managers with business qualifications cut wages by 6 percent within five years of their appointment without a visible rise in productivity, sales or investment. Adding more sustainability and problem-solving to the course, as proposed by the likes of the London Business School, comes better late than never — even if it won’t pacify critics who would rather bulldoze the model entirely (as proposed by Martin Parker’s “Shut Down The Business School”). And INSEAD’s more specific pitch for lifelong learning deserves to be adopted more widely — the education market is large and growing, set to hit $7 trillion by 2030, but the reality of our aging workforce is that re-skilling will need investment and encouragement if it’s going to be more than just a talking point. The snag may be actually convincing MBAs themselves to sign up for an app that’s set to cost $99 per year: I reached out to one graduate who told me that doing an MBA had been a step-up for his career and given him a network of high-achieving contacts, but that alumni relations with the school had felt more like a fundraising drive. He reckons if he wants to brush up on skills in future, he might turn to a book or a fellow MBA first. Lionel Laurent is a Bloomberg Opinion columnist covering the European Union and France. Views are personal, and do not represent the stand of this publication. Credit: Bloomberg
INSEAD đã giảm số lượng sinh viên nhập học năm ngoái xuống còn 887 so với 1.105 ở cả hai cơ sở của trường tại Pháp và Singapore để giữ chất lượng đào tạo. Bạn biết mình đang học tại một trường kinh doanh khi kiến trúc thay đổi từ cổ điển sang hiện đại với kính và gạch, khi các câu châm ngôn La tinh được thay thế bởi logo công ty và các tuyên bố sứ mệnh, và khi dáng vẻ sinh viên trông tươi tắn hơn là say rượu. Đó là cảnh tượng tại cơ sở của INSEAD tại Pháp ở Fontainebleau vào một chiều tháng Tư, được xếp hạng số 2 của châu Âu bởi Bloomberg Businessweek, sau Viện quản lý quốc tế tại Lausanne, Thụy Sĩ. Nhưng cũng có những dấu hiệu của một cuộc cải tổ đang diễn ra, như thiết kế lại khuôn viên, một chương trình giảng dạy mới và nâng cấp công nghệ sử dụng trong giảng dạy, khi trường và các đối thủ của nó cố gắng thích nghi với một thế giới đầy thù địch của việc giải toàn cầu hóa, tự động hóa và lạm phát. Chiến thắng không được đảm bảo. "Trước đây, chỉ cần học MBA là bạn sẽ yên tâm cả đời", giáo sư Ilian Mihov, người đứng đầu INSEAD (Institut Europeen d’Administration des Affaires) trong 10 năm, nói. "Nhưng yêu cầu đối với các giám đốc điều hành đang thay đổi liên tục, từ phát triển bền vững, khoa học dữ liệu đến trí tuệ nhân tạo... Sinh viên phải tiếp thu nhiều kiến thức hơn." Theo Mihov, câu trả lời là xem xét và thay đổi nội dung giảng dạy MBA, ưu tiên bền vững, nhưng cũng đẩy mạnh việc học tập suốt đời - bằng cách tưởng tượng viễn cảnh một thế giới trong đó các chương trình MBA tự hủy sau 5 năm và buộc cựu sinh viên phải học lại để lấy bằng. Viễn cảnh này có thể thấy qua Ứng dụng phải trả phí sắp ra mắt bao gồm video, bài đọc và thảo luận - một dạng đào tạo theo môn học dành cho các nhà quản lý cấp cao mà không cần phải đăng ký học cả tấm bằng MBA. Đây không phải là một khóa học trực tuyến mở, mà là cách để các trường kinh doanh tiếp tục bán dịch vụ cho khách hàng trở lại học tập. Điều này phủ hợp với chủ trương của chính phủ và các công ty khuyến khích người lao động tái đào tạo trong một thế giới ngày càng số hoá. Hiện tại, ứng dụng đang ở giai đoạn phát triển - các đoạn clip và bài giảng ngắn và một số nội dung đã có sẵn ở các trang khác - nhưng đó là một bước khởi đầu khích lệ, đặc biệt nếu trong mắt của các bậc chủ tịch công ty trong tương lai nó tăng giá trị của việc đào tạo lại (thay vì sa thải). Các trường kinh doanh có vẻ chậm trễ thay đổi - đặc biệt là khi xem xét thiệt hại danh tiếng do vụ tai tiếng của công ty Enron, khủng hoảng tài chính toàn cầu hoặc từ sự cạnh tranh từ học tập trực tuyến - bởi vì những dấu hiệu về nhu cầu giảm mới chỉ xuất hiện gần đây. MBA ngày càng đắt đỏ, với các chương trình hàng đầu có chi phí trung bình dự kiến lên đến 189.000 đô la Mỹ bao gồm cả chi phí ngoài học phí, và cạnh tranh với một thị trường việc làm đã bất ngờ phục hồi ngay cả sau đại dịch Covid-19. Số lượng đăng ký theo học tại Mỹ giảm 25% vào năm ngoái, một phần được bù đắp bởi số lượng sinh viên quốc tế tăng; INSEAD đã giảm số lượng sinh viên nhập học năm ngoái xuống còn 887 so với 1.105 ở cả hai cơ sở của trường tại Pháp và Singapore để giữ chất lượng. Và với hơn nửa triệu việc làm bị cắt giảm được công bố trên toàn thế giới kể từ ngày 1 tháng 10, tập trung ở các công ty có lao động trình độ cao, các trường kinh doanh đang phải nỗ lực để dùy trì sự hấp dẫn của MBA. Các nhà tuyển dụng đáng tin cậy như McKinsey & Co. và Bain & Co. không còn sốt sắng tuyển nhân viên mới và bảo họ đi săn hoặc viết sách thay vì bắt đầu làm việc ngay, theo Wall Street Journal. Chiến tranh và các hạn chế về nhập cư đã thu hẹp phạm vi toàn cầu của các trường. Giáo sư Mihov của INSEAD nhận thấy rõ ràng rằng điều này có thể không chỉ là tạm thời. Và trong khi ông cho rằng luôn có nhu cầu về đào tạo các nhà quản lý toàn cầu, nhưng ngay cả trong thời đại trí tuệ nhân tạo, các công ty như Walt Disney Co. và Meta Platforms Inc. hiện tại dường như có quá nhiều nhà quản lý. Lợi ích của việc tự cải tổ không chỉ là về việc điều hành các trường kinh doanh có lợi nhuận (số lượng trường đã giảm trong thời gian gần đây) mà còn đáp trả những lời chỉ trích nhiều năm qua về tính hữu ích của chương trình đào tạo. Một bài nghiên cứu năm ngoái cho thấy các công ty thuê quản lý có bằng kinh doanh đã cắt giảm mức lương 6% trong vòng năm năm sau khi được bổ nhiệm mà không đạt được tăng trưởng rõ rệt về năng suất, doanh số hoặc đầu tư. Bổ sung thêm vấn đề phát triển bền vững và giải quyết vấn đề vào khóa học, như được đề xuất bởi trường London Business School, là muộn nhưng còn hơn không- ngay cả khi nó không thể thỏa mãn những người chỉ trích muốn loại bỏ hoàn toàn mô hình đào tạo (như bài viết "Đóng của các trường dạy kinh doanh” của Martin Parker). Đề xuất cụ thể của trường INSEAD về việc học tập suốt đời xứng đáng được áp dụng rộng rãi hơn - thị trường giáo dục rất lớn và đang tăng trưởng, sẽ đạt 7 nghìn tỷ đô la vào năm 2030, nhưng sự thật về nhân lực già cỗi là việc tái đào tạo đòi hỏi đầu tư và khuyến khích nếu muốn thực sự tạo ra kết quả trên thực tế chứ không chỉ bàn cho vui chuyện. Thách thức có thể là thuyết phục các cựu sinh viên MBA trả tiền đăng ký ứng dụng có giá 99 đô la Mỹ mỗi năm: Tôi đã liên hệ với một cựu sinh viên. Anh ta nói với tôi rằng việc học MBA đã giúp anh ấy thăng tiến trong sự nghiệp và giúp có một mạng lưới các mối quan hệ với người thành đạt, nhưng công tác quan hệ cựu sinh viên của trường cảm thấy giống như một chiến dịch gây quỹ hơn. Anh ấy cho rằng sau này nếu muốn cập nhật các kỹ năng mới, anh ấy có thể đọc sách hoặc học từ các cựu sinh viên MBA trước khi mua app. Lionel Laurent là một nhà bình luận Bloomberg Opinion về Liên minh châu Âu và Pháp. Quan điểm là cá nhân và không đại diện cho quan điểm của báo chí này. Credit: Bloomberg
I used ChatGPT to build a simple Chrome extension in 10 hours. Here's how I sold it for thousands on Acquire and what I learned about my fastest launch-to-exit ever.
Three weeks ago, I brought ChatGPT on board as my CTO on a project. We crafted a Chrome extension and received $1,000 worth of pre-orders within 24 hours.
Last week, I sold it on Acquire. It was only listed for one week, and out of the 50 people who contacted me about it, five proposed bids.
I'm an entrepreneur with a background in the Ukrainian startup ecosystem. After a six-year stint at a startup accelerator, I transitioned to working full-time on my own ventures. Since 2017 I've launched and sold multiple projects, and I currently manage a diverse portfolio of five businesses.

My newest project, Type Slash AI, was my quickest launch-to-exit

It started as a fun experiment to see what was possible with ChatGPT. I'm not a programmer and haven't crafted Chrome extensions, but I've written apps script for Google Sheets.
I love simple products and built something last year called Lofi Garden. It's an app with a single play/pause button on the menu bar that controls a lofi playlist on your Mac.
notion image
Ihor Stefurak
With that project in mind, I wanted to create an invisible AI assistant that could be prompted by a simple command in any text area of any website. All a user has to do to get an original tweet or Replit coding, for instance, is type "/ai prompt" and press Enter.
For example, I prompted Type Slash AI to write me something about happiness in the style of entrepreneur and former AngelList CEO Naval Ravikant:
notion image
Ihor Stefurak
It produced an original paragraph:
notion image
Ihor Stefurak

I started by upgrading to ChatGPT Plus

Then, I fed it my first prompt by asking it to write code for a simple Chrome extension that monitors input boxes on websites.
notion image
Ihor Stefurak
In total, ChatGPT wrote three JavaScript files to execute the idea, an HTML file, and a manifest.json file to run the extension in Chrome-based browsers.
notion image
Ihor Stefurak

I made $1,000 in the first day

I devoted hours to testing, reporting errors, and requesting revisions. When I was content with the results, I recorded a demo, designed a landing page with a 'pre-order' button linked to Stripe, and tweeted it. The tweet went viral and 500,000 people saw it. I made $1,000 within 24 hours.
In the end, ChatGPT helped me develop a working project in just 10 hours and I played the role of prompt engineer. Was it easy? Somewhat. Can people who don't write code do it? Yes, if they understand the code logic.
A human developer could have undoubtedly built this faster and better, but the idea here is that I'm not a developer and still managed to create this.
 

A marketing strategy was essential for a successful exit — and winging it won't cut it

I saw many makers trying to capitalize on the same idea without success weeks after. The barrier for entry is low because the project is very simple, but grabbing attention is crucial. My story — a man utilizing ChatGPT as CTO — made all the difference.
Most of those who launched after me relied on Twitter to get users. But this wasn't my first launch, and I knew from the get-go that I needed a more comprehensive approach. So I took a pen and paper to outline what channels I could use to bring in sales.
I managed to get a feature in an AI newsletter from Ben Tossell, the founder of MakerPad. I also reached out to TikTok influencers, shared my story with the media, and reposted it on Hacker News, Reddit, Facebook. I even cooked up a programmatic SEO project for the extension.
Not all of these avenues succeeded, but I did receive pre-orders and engaged early users, which was my primary focus.
Because my extension went viral and gained traction, I was able to make a choice: Should I grow it, sell it, or shut it down?
I chose to sell and move forward. I plan on using the money from the sale to buy a small house in a village here in Ukraine, and my girlfriend and I are currently location hunting.

I recommend beginners use ChatGPT to help with certain types of projects

ChatGPT served as my CTO, but I was tied up writing the prompts, which kept me from putting more effort into marketing. I recommend using the AI chatbot if you're starting a simple project with JavaScript or Python. I also recommend not replicating products you see on the market. Instead, focus on a topic you care about, and use ChatGPT to power you and/or other people in the niche.
I'm now focusing on using AI to help people learn how to think better by using "mental models," or an explanation of a thought process about how something works in the real world.
Modern thinkers like Naval Ravikant, psychologist Jordan Peterson, and billionaire investor Ray Dalio are big on explaining their mental models. Leaders, engineers, and investors use already-formed mental models as well as personally-developed ones. These models help enhance self-understanding and ultimately lead to better decisions and big overall improvements.
I still believe the ideal startup team should consist of a tech expert and a marketer. Combine them with ChatGPT for an indomitable squad.
Ihor Stefurak is an entrepreneur with a background in Ukrainian startups.
Three weeks ago, I brought ChatGPT on board as my CTO on a project. We crafted a Chrome extension and received $1,000 worth of pre-orders within 24 hours. Last week, I sold it on Acquire. It was only listed for one week, and out of the 50 people who contacted me about it, five proposed bidses. My newest project, Type Slash AI, was my quickest launch-to-exit It started as a fun experiment to see what was possible with ChatGPT. I'm not a programmer and haven't crafted Chrome extensions, but I've written apps script for Google Sheets. I love simple products, I wanted to create an invisible AI assistant that could be prompted by a simple command in any text area of any website. All a user has to do to get an original tweet or Replit coding, for instance, is type "/ai prompt" and press Enter. For example, I prompted Type Slash AI to write me something about happiness in the style of entrepreneur and former AngelList CEO Naval Ravikant: Ihor Stefurak Ihor Stefurak It produced an original paragraph: Ihor Stefurak tweet 2 Ihor Stefurak I started by upgrading to ChatGPT Plus Then, I fed it my first prompt by asking it to write code for a simple Chrome extension that monitors input boxes on websites. Ihor Stefurak and Chat Ihor Stefurak In total, ChatGPT wrote three JavaScript files to execute the idea, an HTML file, and a manifest.json file to run the extension in Chrome-based browsers. I made $1,000 in the first day I devoted hours to testing, reporting errors, and requesting revisions. When I was content with the results, I recorded a demo, designed a landing page with a 'pre-order' button linked to Stripe, and tweeted it. The tweet went viral and 500,000 people saw it. I made $1,000 within 24 hours. In the end, ChatGPT helped me develop a working project in just 10 hours and I played the role of prompt engineer. Was it easy? Somewhat. Can people who don't write code do it? Yes, if they understand the code logic. A human developer could have undoubtedly built this faster and better, but the idea here is that I'm not a developer and still managed to create this. A marketing strategy was essential for a successful exit — and winging it won't cut it I saw many makers trying to capitalize on the same idea without success weeks after. The barrier for entry is low because the project is very simple, but grabbing attention is crucial. My story — a man utilizing ChatGPT as CTO — made all the difference. Most of those who launched after me relied on Twitter to get users. But this wasn't my first launch, and I knew from the get-go that I needed a more comprehensive approach. So I took a pen and paper to outline what channels I could use to bring in sales. I managed to get a feature in an AI newsletter from Ben Tossell, the founder of MakerPad. I also reached out to TikTok influencers, shared my story with the media, and reposted it on Hacker News, Reddit, Facebook. I even cooked up a programmatic SEO project for the extension. Not all of these avenues succeeded, but I did receive pre-orders and engaged early users, which was my primary focus. Because my extension went viral and gained traction, I was able to make a choice: Should I grow it, sell it, or shut it down? I chose to sell and move forward. I plan on using the money from the sale to buy a small house in a village here in Ukraine, and my girlfriend and I are currently location hunting. I recommend beginners use ChatGPT to help with certain types of projects ChatGPT served as my CTO, but I was tied up writing the prompts, which kept me from putting more effort into marketing. I recommend using the AI chatbot if you're starting a simple project with JavaScript or Python. I also recommend not replicating products you see on the market. Instead, focus on a topic you care about, and use ChatGPT to power you and/or other people in the niche. I'm now focusing on using AI to help people learn how to think better by using "mental models," or an explanation of a thought process about how something works in the real world. Modern thinkers like Naval Ravikant, psychologist Jordan Peterson, and billionaire investor Ray Dalio are big on explaining their mental models. Leaders, engineers, and investors use already-formed mental models as well as personally-developed ones. These models help enhance self-understanding and ultimately lead to better decisions and big overall improvements. I still believe the ideal startup team should consist of a tech expert and a marketer. Combine them with ChatGPT for an indomitable squad. Ihor Stefurak is an entrepreneur with a background in Ukrainian startups.
Ba tuần trước, tôi đã dùng ChatGPT làm CTO (giám đốc công nghệ thông tin) cho một dự án. Chúng tôi đã tạo ra một Chrome extension (tiện ích) và nhận được 1000 đô la đặt hàng trước khi có sản phẩm trong vòng 24 giờ. Tuần trước, tôi đã bán tiện ích trên Acquire. Mới đăng được một tuần mà đã có 50 người liên hệ với tôi và có 5 người trả giá. ## **Dự án mới nhất của tôi, Type Slash AI, là dự án nhanh nhất từ lúc khởi động đến thời điểm bán hàng** Tôi coi đó là thử nghiệm thú vị để thử cách kiếm tiền với ChatGPT. Tôi không phải là lập trình viên và chưa từng tạo tiện ích Chrome, nhưng tôi đã viết ứng dụng script cho Google Sheets. Tôi thích các sản phẩm đơn giản và tôi muốn tạo ra một trợ lý AI vô hình có thể được kích hoạt bằng một lệnh đơn giản trong bất kỳ vùng văn bản của bất kỳ trang web nào. Để tạo một bài tweet hoặc mã lập trình Replit, người dùng chỉ cần gõ "/ai prompt" và nhấn Enter. Ví dụ, tôi đã yêu cầu Type Slash AI viết cho tôi một cái gì đó về hạnh phúc theo phong cách của doanh nhân và cựu CEO của AngelList Naval Ravikant: ## **Tôi đã nâng cấp lên ChatGPT Plus** Sau đó, tôi gõ câu prompt đầu tiên yêu cầu nó viết mã cho một tiện ích Chrome đơn giản để theo dõi các ô nhập văn bản trên các trang web. Tổng cộng, ChatGPT đã viết ba tệp JavaScript để thực hiện ý tưởng, một tệp HTML và một tệp manifest.json để chạy tiện ích mở rộng trên các trình duyệt Chrome. ## **Tôi kiếm được 1000 đô la vào ngày đầu tiên** Tôi dành hàng giờ để kiểm tra, báo cáo lỗi và yêu cầu chỉnh sửa. Khi tôi hài lòng với kết quả, tôi đã quay lại một bản demo, thiết kế một trang landing với một nút 'đặt hàng trước' được liên kết với Stripe và đăng tweet về nó. Tweet của tôi trở nên viral và có 500.000 người đã đọc. Tôi kiếm được 1000 đô la trong vòng 24 giờ. Cuối cùng, ChatGPT đã giúp tôi phát triển một dự án ra tiền chỉ trong 10 giờ và tôi đã đóng vai trò là một kỹ sư tạo prompt. Có dễ không? Chỉ dễ một phần. Người không biết viết mã có thể làm được không? Có, nếu họ hiểu logic của mã. Một kỹ sư phần mềm có thể làm nhanh và tốt hơn, nhưng điều đáng nói ở đây là tôi không phải là kỹ sư phần mềm mà vẫn làm được điều này. ## **Cần có chiến lược tiếp thị để đạt thành công ** Tôi thấy nhiều người có cùng ý tưởng nhưng không thành công sau nhiều tuần. Có nhiều người làm vì dự án rất đơn giản, nhưng cần phải marketing. Câu chuyện của cá nhân tôi - dùng ChatGPT như CTO - là yếu tố làm nên sự khác biệt. Hầu hết những người ra mắt sau tôi phụ thuộc vào Twitter để thu hút người dùng. Nhưng đây không phải là lần khởi động đầu tiên của tôi, và tôi đã biết từ đầu rằng tôi cần một cách tiếp cận toàn diện hơn. Vì vậy, tôi lấy một cây bút và giấy để phác thảo những kênh tôi có thể sử dụng để đưa vào doanh số. Tôi đã thành công trong việc lấy được một tính năng trong một bản tin AI từ Ben Tossell, người sáng lập MakerPad. Tôi cũng tiếp cận các nhà ảnh hưởng TikTok, chia sẻ câu chuyện của mình với các phương tiện truyền thông và đăng lại nó trên Hacker News, Reddit, Facebook. Tôi còn nấu nướng một dự án SEO tự động cho tiện ích mở rộng. Không phải tất cả những con đường này đều thành công, nhưng tôi đã nhận được đơn đặt hàng trước và thu hút người dùng sớm, đó là trọng tâm chính của tôi. Bởi vì tiện ích mở rộng của tôi đã trở nên phổ biến và nhận được sự quan tâm, tôi đã có thể lựa chọn: Tôi có nên phát triển nó, bán nó hay đóng nó? Tôi đã chọn bán và tiến lên. Tôi dự định sử dụng tiền từ việc bán để mua một căn nhà nhỏ trong một ngôi làng ở Ukraina, và bạn gái tôi và tôi hiện đang tìm kiếm vị trí. ## **Tôi khuyên người mới bắt đầu sử dụng ChatGPT để giúp đỡ cho một số loại dự án** ChatGPT đã phục vụ như một CTO của tôi, nhưng tôi bị ràng buộc bởi việc viết các lời yêu cầu, điều đó khiến tôi không thể đưa nhiều nỗ lực vào tiếp thị. Tôi khuyên sử dụng chatbot AI nếu bạn bắt đầu một dự án đơn giản với JavaScript hoặc Python. Tôi cũng khuyên không sao chép các sản phẩm mà bạn thấy trên thị trường. Thay vào đó, hãy tập trung vào một chủ đề bạn quan tâm và sử dụng ChatGPT để đưa bạn và / hoặc những người khác trong niềm đam mê. Bây giờ, tôi tập trung sử dụng AI để giúp người ta học cách suy nghĩ tốt hơn bằng cách sử dụng "mô hình tâm lý học" hoặc giải thích quá trình tư duy về cách một cái gì đó hoạt động trong thế giới thực. Các nhà tư duy hiện đại như Naval Ravikant, nhà tâm lý học Jordan Peterson và nhà đầu tư tỷ phú Ray Dalio đều rất quan tâm đến việc giải thích các mô hình tâm lý học của họ. Các nhà lãnh đạo, kỹ sư và nhà đầu tư sử dụng các mô hình tâm lý học đã được hình thành cũng như đã phát triển bởi chính họ. Những mô hình này giúp tăng cường hiểu biết về bản thân và cuối cùng dẫn đến các quyết định tốt hơn và cải thiện toàn diện. Tôi vẫn tin rằng đội khởi nghiệp lý tưởng nên bao gồm một chuyên gia công nghệ và một nhà tiếp thị. Kết hợp họ với ChatGPT để có một đội không thể bị khuất phục. *Ihor Stefurak là một doanh nhân với nền tảng trong khởi nghiệp Ukraina.*
Top 11 Industry Examples of Edge AI
1. Speech recognition
Speech recognition algorithms that transcribe speech on mobile devices.
2. Health monitors
Using local AI models, wearable health monitors assess heart rate, blood pressure, glucose levels, and breathing.
3. Robotic arms
Robot arms gradually learn better ways to grasp particular packages and then share this information with the cloud to improve other robots.
4. Item counting Edge AI at checkouts
Edge AI cashier-less services such as Amazon Go automatically counts items placed into a shopper’s bag without a separate checkout process.
5. Edge AI optimized traffic control
Smart traffic cameras that automatically adjust light timings to optimize traffic.
6. Autonomous truck convoys
Autonomous vehicles facilitate automated platooning of truck convoys, allowing drivers to be removed from all trucks except the one in front.
7. Remote asset monitoring
Remotely monitoring assets in the oil and gas industry where Edge AI enables real-time analytics with processing much closer to the asset.
8. Edge AI energy management
Smart grids, where Edge computing will be a core technology, can help enterprises manage their energy consumption better.
9. Fault detection in product lines
Edge AI helps manufacturers analyze and detect changes in their production lines before a failure occurs.
10. Patient monitoring
Edge AI patient monitoring processes data locally to maintain privacy while enabling timely notifications.
11. Self-driving cars
Autonomous vehicles can connect to the edge to improve safety, enhance efficiency, reduce accidents and decrease traffic congestion.
1. Nhận dạng giọng nói
Các thuật toán nhận dạng giọng nói chuyển văn bản tiếng nói trên các thiết bị di động.
2. Giám sát sức khỏe
Sử dụng các mô hình trí tuệ nhân tạo địa phương, các bộ giám sát sức khỏe đeo trên cơ thể đánh giá nhịp tim, huyết áp, mức đường huyết và hơi thở.
3. Tay robot
Tay robot dần học cách tốt hơn để nắm lấy các gói hàng cụ thể sau đó chia sẻ thông tin này với đám mây để cải thiện các robot khác.
4. Đếm hàng hóa tại các đầu thu ngân AI tại điểm thanh toán
Các dịch vụ thu ngân không cần thu ngân như Amazon Go tự động đếm số lượng hàng hóa được đặt vào túi của người mua hàng mà không cần quá trình thanh toán riêng biệt.
5. Điều khiển giao thông tối ưu hóa bằng AI tại đỉnh cao điểm
Các camera thông minh tự động điều chỉnh thời gian đèn để tối ưu hóa giao thông.
6. Đoàn xe tải tự động
Các phương tiện tự hành thuận tiện cho việc tạo đoàn xe tải tự động, cho phép tài xế được gỡ bỏ khỏi tất cả các xe tải trừ chiếc đầu tiên.
7. Giám sát tài sản từ xa
Giám sát tài sản từ xa trong ngành dầu khí nơi Edge AI cho phép phân tích thời gian thực với xử lý gần hơn với tài sản.
8. Quản lý năng lượng bằng Edge AI
Lưới thông minh, trong đó Edge computing sẽ là một công nghệ cốt lõi, có thể giúp các doanh nghiệp quản lý tiêu thụ năng lượng của họ tốt hơn.
9. Phát hiện lỗi trong dây chuyền sản xuất
Edge AI giúp các nhà sản xuất phân tích và phát hiện các thay đổi trong các dây chuyền sản xuất của họ trước khi xảy ra sự cố.
10. Giám sát bệnh nhân
Edge AI giám sát bệnh nhân xử lý dữ liệu cục bộ để bảo vệ sự riêng tư trong khi cho phép thông báo kịp thời.
11. Xe tự hành
Các phương tiện tự hành có thể kết nối với Edge để cải thiện an toàn, tăng cường hiệu quả, giảm tai nạn và giảm tắc đường.
A Wharton professor gave A.I. tools 30 minutes to work on a business project. The results were ‘superhuman’
 
Một giáo sư tại Wharton cho các công cụ trí tuệ nhân tạo 30 phút làm việc trên một dự án kinh doanh. Kết quả đạt được là 'siêu nhân’
Artificial intelligence is presenting new possibilities in terms of how to do work, and leaving many observers nervous about what will become of white-collar jobs. Ethan Mollick, a management professor at the Wharton School of the University of Pennsylvania, has been closely following developments in generative A.I. tools, which can create essays, images, voices, code, and much else based on a user’s text prompts. He recently decided to see how much such tools could accomplish in only 30 minutes, and described the results this weekend on his blog One Useful Thing. The results were, he writes, “superhuman.” In that short amount of time, he writes, the tools managed to do market research, create a positioning document, write an email campaign, create a website, create a logo and “hero shot” graphic, make a social media campaign for multiple platforms, and script and create a video. The project involved marketing the launch of a new educational game, and he wanted A.I. tools to do all the work while he only gave directions. He chose a game he himself authored so that he could gauge the quality of work. The game, Wharton Interactive's Saturn Parable, is designed to teach leadership and team skills on a fictional mission to Saturn. First, Mollick turned to the version of Bing powered by GPT-4. Bing, of course, is Microsoft’s search engine—long a distant second to Google—while GPT-4 is the successor to ChatGPT, the A.I. chatbot from OpenAI that took the world by storm after its release in late November. Microsoft has invested billions in OpenAI. Mollick instructed Bing to teach itself about the game and the business simulation market of which it’s a part. He then instructed it to “pretend you are a marketing genius” and produce a document that “outlines an email marketing campaign and a single web page to promote the game.” In under three minutes it generated four emails totaling 1,757 words. He then asked Bing to outline the web page, including text and graphics, and then used GPT-4 to build the site. He asked MidJourney, a generative A.I. tool that produces images from text prompts, to produce the “hero image” (the large image visitors encounter first when visiting a website). Next, he asked Bing to start the social media campaign, and it produced posts for five platforms, including Facebook and Twitter. Then he asked Bing to write a script for a video, an A.I. tool called ElevenLabs to create a realistic voice, and another called D-id to turn it into a video. At that point, Mollick ran out of time. But, he notes, if he’d had the plugins that OpenAI announced this week, his A.I. chatbot, connected to email automation software, could have actually run the email campaign for him. According to OpenAI, plugins for Slack, Expedia, and Instacart are among the first to be created, with many more to come. The problem with A.I. chatbots, the company notes, is that “the only information they can learn from is their training data.” Plugins can be their “eyes and ears,” giving them access to more recent or specific data. Mollick writes that he would have needed a team and “maybe days of work” to do all the work the A.I. tools did in 30 minutes. Bill Gates wrote on his blog this week that ChatGPT and similar tools “will increasingly be like having a white-collar worker available to help you with various tasks.” Actual white-collar workers might be forgiven for feeling some anxiety.
Trí tuệ nhân tạo đang mở ra những khả năng mới về cách làm việc và đang khiến cho nhiều nhà quan sát lo lắng về tương lai của các công việc văn phòng. Ethan Mollick, một giáo sư dạy ngành quản lý tại Trường Wharton thuộc Đại học Pennsylvania, đã theo dõi sát sao sự phát triển của các công cụ AI trong việc tạo ra bài luận, hình ảnh, giọng nói, mã và rất nhiều thứ khác dựa lệnh prompt của người dùng. Gần đây, ông quyết định xem các công cụ này có thể làm được bao nhiêu trong chỉ 30 phút và mô tả kết quả trên blog One Useful Thing của mình. Ông viết rằng kết quả đó là "siêu nhân". Trong thời gian ngắn đó, các công cụ đã thực hiện nghiên cứu thị trường, tạo câu định vị, viết chiến dịch email, tạo trang web, tạo logo và hình ảnh cho tranh web, tạo chiến dịch truyền thông xã hội trên nhiều nền tảng và kịch bản và tạo video. Dự án có nhiệm vụ tạo chiến dịch marketing tung sản phẩm là một trò chơi giáo dục mới và ông muốn các công cụ trí tuệ nhân tạo làm tất cả công việc theo yêu cầu ông đưa ra. Ông đã chọn một do chính ông tạo ra để có thể đánh giá chất lượng công việc. Game đó là Saturn Parable của Wharton Interactive, được thiết kế để giảng dạy kỹ năng lãnh đạo và làm việc nhóm trong một chuyến bay tưởng tượng đến Sao Thổ. Đầu tiên, Mollick sử dụng Bing chạy GPT-4. Mollick đã yêu cầu Bing tự học về game mô phỏng kinh doanh này và thị trường game kiểu này. Sau đó, ông đã yêu cầu nó "đóng vai là một thiên tài tiếp thị" và lập kế hoạch "chiến dịch tiếp thị qua email và một trang web duy nhất để quảng bá trò chơi". Trong vòng chưa đến ba phút, Bing đã tạo ra bốn email với tổng cộng 1.757 từ. Sau đó, ông yêu cầu Bing lập kế hoạch cho trang web, bao gồm văn bản và đồ họa, và sau đó sử dụng GPT-4 để xây dựng trang web. Ông yêu cầu MidJourney, một công cụ AI tạo ra hình ảnh "hero" (ảnh lớn mà khách truy cập đầu tiên gặp khi truy cập vào một trang web). Tiếp theo, ông yêu cầu Bing thực hiện chiến dịch truyền thông xã hội và nó đã tạo ra các bài đăng cho năm nền tảng, bao gồm Facebook và Twitter. Sau đó, ông yêu cầu Bing viết kịch bản cho video, sử dụng một công cụ AI gọi là ElevenLabs để tạo ra một giọng nói giống giọng thật và công cụ khác gọi là D-id để chuyển đổi giọng nói thành video. Lúc đó, Mollick đã hết thời gian. Nhưng ông nhận xét rằng nếu ông có các plugin mà OpenAI công bố vào tuần trước thì bot trò chuyện AI của ông có thể kết nối với phần mềm tự động hóa email và chạy chiến dịch email cho ông. Theo OpenAI, các plugin cho Slack, Expedia và Instacart là một trong những plugin đầu tiên được tạo ra, và sẽ có rất nhiều plugin sắp được ra mắt. Vấn đề của các con bot trò chuyện AI, theo công ty, là "chúng chỉ có thông tin từ dữ liệu huấn luyện đã học từ trước". Plugin có thể là "mắt và tai", cho phép chúng truy cập vào dữ liệu cập nhật hoặc cụ thể hơn. Mollick viết rằng ông sẽ cần một nhóm và "có thể mất vài ngày" để làm tất cả công việc mà các công cụ AI đã thực hiện trong 30 phút. Bill Gates viết trên blog của mình rằng ChatGPT và các công cụ tương tự "sẽ ngày càng giống như một các lao động cổ trắng giúp bạn thực hiện các nhiệm vụ khác nhau". .
Exploring the 2nd order effects of generative AI in marketing and martech
We’ve all read a lot about the zero-order effects of generative AI. It makes content easier, faster, and cheaper to create. Code easier, faster, and cheaper to build. It answers obscure questions faster than a speeding bullet. Leaps tall piles of structured and unstructured data in a single bound. And with Auto-GPTAgentGPTBabyAGIChatGPT Plugins, etc., it’s now able to run digital errands for us like an eager Jimmy Olsen on a photo assignment.
(Sorry for a super overextended metaphor.)
There’s also a ton of discussion about the first-order effects that will likely result. There’s going to be a lot more content out there. A lot more code. Disruption to traditional search engines such as Google Classic. And the proliferation to “chat UX” in so many of the software apps we use.
These are fascinating, powerful, disruptive effects. But they’re fairly easy to predict. You can draw a straight line from the trigger (“AI generates content”) to the outcome (“the quantity of content in the world grows exponentially”).
To me, some of the more interesting questions are what the second-order effects will be. What subsequent disruptions will those massive first-order effects trigger for marketing, martech, and digital business?

When AI generates seller content, what do buyers do?

notion image
Let’s start with AI generating content. The most obvious first-order effect is that there will be an explosion of content. Remember content shock 10 years ago? That’s going to seem like a ticklish static electric zap from rubbing your winter shoes on the carpet in comparison to grabbing a high-voltage powerline of this new AI-powered content shock.
The coolest first-order effect is that such content will increasingly be generated for individuals, based on everything we can know or infer about them, in the context of the specific moment in which it’s served up. After nearly 30 years of hyperbole about 1:1 personalization, generative AI will finally fulfill that promise.
But there’s a dark side to that. Effortless, instantaneous personalized content is going to also mean effortless, instantaneous spam. Content spam will flood the Internet — including all the junk of deep fakes, misinformation, and general rubbish. (Time to update your iconic Crap presentation, Doug Kessler. We’re talking an Oppenheimer scale explosion of crap now.)
 
It’s also going to result in an order of magnitude increase in the number of automated comms pushed to people on every conceivable channel — email, phone, SMS, ads, social media, WhatsApp, etc. Generative AI will spawn an infinite army of automated BDRs and SDRs. Many of which will actually be quite good, delivering hyper-personalized messages.
But it will be too much, from too many. Too fast, too furious.
These first-order effects will trigger second-order effects that will fundamentally change marketing and sales. Here’s what I expect:
Buyers will further tune out “pushed” marketing and sales content, even though it’s hyper-personalized. Spam filters will get a lot better at stemming the incoming tide and only notify the recipient of a brief summary of things that they might be interested in. Ironically, as a result, all these über-personalized messages won’t signifcantly improve sales prospecting efficacy. They’ll likely reduce it.
Trusted sources will become even more valuable. Communities with verified members will be golden. Influencers who have built their own audiences and aren’t overly dependent on external algorithms for discovery and delivery will carry significant weight. We will crave real human perspective.
As we already see today with ChatGPT, buyers will increasingly adopt an AI-mediated “pull” approach to discovering and evaluating products and services. Generative AI is much better suited to plow through the mountain of content and offerings out there to summarize recommendations. These buyer-centric AI agents will wield enormous power. As we’ll discuss further, the goal of marketing will be to serve these intermediary agents well.

AI generates code, software multiplies, apps evolve

notion image
Creating software was already well on its way to being democratized by low-code/no-code products and interfaces. And by “software,” I really mean any digital program or interactive asset: apps, automations, websites, workflows, etc. Today, millions of non-developers use tools such as Airtable, Webflow, and Zapier to build their own tailored experiences and operations.
But mostly power users.
Generative AI has now pushed us further down the curve of technology democratization by making it possible for any ordinary person to create a “software program” by making a series of natural language requests to an AI agent. In fact, it’s clear that more and more of these programs will be created ambiently/automatically in the background without a user even explicitly recognizing that an act of creation took place on their behalf.
notion image
The obvious first-order effect here is that the total quantity of software in the world is going to grow exponentially. And that many of these software programs will be built on-demand by users, rather than designed by professional software engineers.
That’s not to say there won’t still be professionally developed software apps and platforms. There most certainly will be, especially for larger and more complex products. (Although that development process will also be greatly augmented and accelerated by AI coding copilots.) But by sheer volume, AI-generated programs will soon dwarf human-built ones.
As it is with content, so shall it be with code.
This first-order “app shock” explosion will trigger second-order effects that will change the way we think about software and the economics around it:
Because so many software programs will be so easy to create on-demand, software will become more disposable. Instead of the painful slog of maintaining old custom apps and automations — the “tech debt” problem that has plauged companies for decades — it will often be easier to recreate programs from scratch. Composable architectures and a universal data layer will play a big role in making this feasible.
The Great App Explosion will accelerate. But with more AI agents operating across apps and interfacing with us through natural language and ambient interfaces, we’ll think less explicitly about apps as discrete things. Just as we’ve been using Google Search — well, Google Classic, that is — one of the world’s most advanced software programs without really thinking about it as an “app” at all, we’ll have dozens or hundreds of such AI-created and AI-powered programs we take for granted throughout our day.
A negative second-order effect will be a whole lot more “zombie” apps and automations floating around. Software programs that get created and then forgotten, shambling around in the shadows, eating resources and haunting organizations with mysterious effects from time to time. There will be a big market for solutions to this growing Big Ops “visibility gap.”
notion image

AI unlocks the long, long, long tail of content and data

notion image
The irony of the massive amount of content and data that has been created and collected over the past two decades is that the vast majority of it is inaccessible. I don’t mean it’s inaccessible from a permissions perspective (although hopefully that’s a factor where it should be!). I mean that you simply can’t find it, consume it, or understand it because there’s just too damn much of it.
In theory, if it’s on the web, it was accessible via Google Search — Google Classic, I’ll disclaim again. But in truth, no one would ever get past the first page or two of search results. And even that left you as a human to parse the websites on the other side of those blue links, sorting through godawful user experiences with a ton of expired, irrelevant, or just plain bad content.
The same goes for the vast majority of data in company data warehouses. They’re like that gargantuan warehouse in the final scene of Raiders of the Lost Ark. The effort required by a mere mortal to find something in that abyss would frighten even Kafka.
notion image
But now LLM-powered AI such as GPT-4 can easily consume all of that content and data, and then — in a fraction of a minute — answer almost any question you ask. It’s absorbed all of the long, long tail of content on the Internet. And in privately-tuned versions indexed the depths of your own data warehouse.
This is why an obvious first-order effect is that traditional search engines (Google Classic) will be displaced. These new AI agents serve the job-to-be-done — quickly find something from the tomes of human knowledge — much, much better. Classic business intelligence software will be similarly transformed.
As a second-order effect, analytics will be massively democratized. The range of questions anyone in a business will be immediately able to self-service an answer to will be stunning.
Because access to all the content on the open web will be commoditized by foundational models such as GPT-4, competitive advantage will go to those with unique and proprietary data. Everybody will have the same AI engines. Not everybody will have the same data to feed them. Their growth will be way more nurture than nature.
A second-order effect of this hunger for proprietary data will be opportunities for marketers to market by feeding datasets across their go-to-market ecosystems. Data will become a first-class marketing channel.

As AI runs our digital errands, digital services thrive

notion image
As I write this very sentence, developers around the world are madly launching new AI agents that marry ChatGPT with the ability to execute tasks. I mentioned a few earlier. JARVIS is another one worth looking at. It takes a request from a user, breaks it down into discrete tasks, looks up different machine learning models on the AI open source community HuggingFace, picks the best one for each task, runs them in sequence, and then stitches everything together into the result.
If you aren’t impressed — jaw-dropped-open impressed — you aren’t paying attention.
All of these are science-fair projects at the moment, not ready for mainstream adoption. But given the pace at which they’re advancing, there will be a wave of consumer quality agents in service before this year is out.
The first-order effects are parallel to the other triggers we’ve discussed: the quantity of automations and automated task executions in the world are going to grow expondentially. This will deliver a massive boost to productivity. “Chat UX” interfaces will be everywhere, prompting us for anything we want done.
The biggest second-order effects of this for marketers will be that serving these agents becomes a major part of their job. Helping AI help buyers will be the best way for sellers to help themselves. Just as we used to optimize content for search engines (SEO) in order to be found by buyers, we’ll optimize data and services for consumption by these AI agents acting on a buyer’s behalf.
Just as data will become a first-class marketing channel, API services will become a first-class marketing channel too. This is how we’ll serve the right data to AI agents at the right time. It’s also how we’ll give them easy ways to take actions with us.
The most obvious and exciting action? Making a purchase.
Bot-to-bot commerce — the new B2B? — will become a huge portion of ecommerce.
Two decades ago, the inbound marketing revolution was launched. Helping people answer questions to win new business. We’re now on the verge of what we could call a generative inbound marketing revolution — fielding inbound requests from AI agents to help them accomplish the goals they’ve been assigned by their human controllers.
For both buyers and sellers this is going to raise the stakes and the complexity of Big Ops. Orchestrating and governing all of the automations and autonomous agents inside your organization, as well as managing all of the AI agents engaging with you from prospects, customers, and partners, is going to be an epic responsibility.
The opportunity for innovation with these second-order effects is colossal.
We’ve all read a lot about the zero-order effects of generative AI. It makes content easier, faster, and cheaper to create. Code easier, faster, and cheaper to build. It answers obscure questions faster than a speeding bullet. Leaps tall piles of structured and unstructured data in a single bound. And with Auto-GPT, AgentGPT, BabyAGI, ChatGPT Plugins, etc., it’s now able to run digital errands for us like an eager Jimmy Olsen on a photo assignment. (Sorry for a super overextended metaphor.) There’s also a ton of discussion about the first-order effects that will likely result. There’s going to be a lot more content out there. A lot more code. Disruption to traditional search engines such as Google Classic. And the proliferation to “chat UX” in so many of the software apps we use. These are fascinating, powerful, disruptive effects. But they’re fairly easy to predict. You can draw a straight line from the trigger (“AI generates content”) to the outcome (“the quantity of content in the world grows exponentially”). To me, some of the more interesting questions are what the second-order effects will be. What subsequent disruptions will those massive first-order effects trigger for marketing, martech, and digital business? When AI generates seller content, what do buyers do? 2nd Order Effects of AI Generating Content Let’s start with AI generating content. The most obvious first-order effect is that there will be an explosion of content. Remember content shock 10 years ago? That’s going to seem like a ticklish static electric zap from rubbing your winter shoes on the carpet in comparison to grabbing a high-voltage powerline of this new AI-powered content shock. The coolest first-order effect is that such content will increasingly be generated for individuals, based on everything we can know or infer about them, in the context of the specific moment in which it’s served up. After nearly 30 years of hyperbole about 1:1 personalization, generative AI will finally fulfill that promise. But there’s a dark side to that. Effortless, instantaneous personalized content is going to also mean effortless, instantaneous spam. Content spam will flood the Internet — including all the junk of deep fakes, misinformation, and general rubbish. (Time to update your iconic Crap presentation, Doug Kessler. We’re talking an Oppenheimer scale explosion of crap now.) It’s also going to result in an order of magnitude increase in the number of automated comms pushed to people on every conceivable channel — email, phone, SMS, ads, social media, WhatsApp, etc. Generative AI will spawn an infinite army of automated BDRs and SDRs. Many of which will actually be quite good, delivering hyper-personalized messages. But it will be too much, from too many. Too fast, too furious. These first-order effects will trigger second-order effects that will fundamentally change marketing and sales. Here’s what I expect: Buyers will further tune out “pushed” marketing and sales content, even though it’s hyper-personalized. Spam filters will get a lot better at stemming the incoming tide and only notify the recipient of a brief summary of things that they might be interested in. Ironically, as a result, all these über-personalized messages won’t signifcantly improve sales prospecting efficacy. They’ll likely reduce it. Trusted sources will become even more valuable. Communities with verified members will be golden. Influencers who have built their own audiences and aren’t overly dependent on external algorithms for discovery and delivery will carry significant weight. We will crave real human perspective. As we already see today with ChatGPT, buyers will increasingly adopt an AI-mediated “pull” approach to discovering and evaluating products and services. Generative AI is much better suited to plow through the mountain of content and offerings out there to summarize recommendations. These buyer-centric AI agents will wield enormous power. As we’ll discuss further, the goal of marketing will be to serve these intermediary agents well. AI generates code, software multiplies, apps evolve 2nd Order Effects of AI Generated Code on Marketing and Martech Creating software was already well on its way to being democratized by low-code/no-code products and interfaces. And by “software,” I really mean any digital program or interactive asset: apps, automations, websites, workflows, etc. Today, millions of non-developers use tools such as Airtable, Webflow, and Zapier to build their own tailored experiences and operations. But mostly power users. Generative AI has now pushed us further down the curve of technology democratization by making it possible for any ordinary person to create a “software program” by making a series of natural language requests to an AI agent. In fact, it’s clear that more and more of these programs will be created ambiently/automatically in the background without a user even explicitly recognizing that an act of creation took place on their behalf. Generative AI and the Democratization of Software Development The obvious first-order effect here is that the total quantity of software in the world is going to grow exponentially. And that many of these software programs will be built on-demand by users, rather than designed by professional software engineers. That’s not to say there won’t still be professionally developed software apps and platforms. There most certainly will be, especially for larger and more complex products. (Although that development process will also be greatly augmented and accelerated by AI coding copilots.) But by sheer volume, AI-generated programs will soon dwarf human-built ones. As it is with content, so shall it be with code. This first-order “app shock” explosion will trigger second-order effects that will change the way we think about software and the economics around it: Because so many software programs will be so easy to create on-demand, software will become more disposable. Instead of the painful slog of maintaining old custom apps and automations — the “tech debt” problem that has plauged companies for decades — it will often be easier to recreate programs from scratch. Composable architectures and a universal data layer will play a big role in making this feasible. The Great App Explosion will accelerate. But with more AI agents operating across apps and interfacing with us through natural language and ambient interfaces, we’ll think less explicitly about apps as discrete things. Just as we’ve been using Google Search — well, Google Classic, that is — one of the world’s most advanced software programs without really thinking about it as an “app” at all, we’ll have dozens or hundreds of such AI-created and AI-powered programs we take for granted throughout our day. A negative second-order effect will be a whole lot more “zombie” apps and automations floating around. Software programs that get created and then forgotten, shambling around in the shadows, eating resources and haunting organizations with mysterious effects from time to time. There will be a big market for solutions to this growing Big Ops “visibility gap.” A Growing Visibility Gap in Process Automation AI unlocks the long, long, long tail of content and data 2nd Order Effects of Generative AI Harnessing Massive Content and Data The irony of the massive amount of content and data that has been created and collected over the past two decades is that the vast majority of it is inaccessible. I don’t mean it’s inaccessible from a permissions perspective (although hopefully that’s a factor where it should be!). I mean that you simply can’t find it, consume it, or understand it because there’s just too damn much of it. In theory, if it’s on the web, it was accessible via Google Search — Google Classic, I’ll disclaim again. But in truth, no one would ever get past the first page or two of search results. And even that left you as a human to parse the websites on the other side of those blue links, sorting through godawful user experiences with a ton of expired, irrelevant, or just plain bad content. The same goes for the vast majority of data in company data warehouses. They’re like that gargantuan warehouse in the final scene of Raiders of the Lost Ark. The effort required by a mere mortal to find something in that abyss would frighten even Kafka. But now LLM-powered AI such as GPT-4 can easily consume all of that content and data, and then — in a fraction of a minute — answer almost any question you ask. It’s absorbed all of the long, long tail of content on the Internet. And in privately-tuned versions indexed the depths of your own data warehouse. This is why an obvious first-order effect is that traditional search engines (Google Classic) will be displaced. These new AI agents serve the job-to-be-done — quickly find something from the tomes of human knowledge — much, much better. Classic business intelligence software will be similarly transformed. As a second-order effect, analytics will be massively democratized. The range of questions anyone in a business will be immediately able to self-service an answer to will be stunning. Because access to all the content on the open web will be commoditized by foundational models such as GPT-4, competitive advantage will go to those with unique and proprietary data. Everybody will have the same AI engines. Not everybody will have the same data to feed them. Their growth will be way more nurture than nature. A second-order effect of this hunger for proprietary data will be opportunities for marketers to market by feeding datasets across their go-to-market ecosystems. Data will become a first-class marketing channel. As AI runs our digital errands, digital services thrive 2nd Order Effects of Generative AI for Autonomous Tasks As I write this very sentence, developers around the world are madly launching new AI agents that marry ChatGPT with the ability to execute tasks. I mentioned a few earlier. JARVIS is another one worth looking at. It takes a request from a user, breaks it down into discrete tasks, looks up different machine learning models on the AI open source community HuggingFace, picks the best one for each task, runs them in sequence, and then stitches everything together into the result. If you aren’t impressed — jaw-dropped-open impressed — you aren’t paying attention. All of these are science-fair projects at the moment, not ready for mainstream adoption. But given the pace at which they’re advancing, there will be a wave of consumer quality agents in service before this year is out. The first-order effects are parallel to the other triggers we’ve discussed: the quantity of automations and automated task executions in the world are going to grow expondentially. This will deliver a massive boost to productivity. “Chat UX” interfaces will be everywhere, prompting us for anything we want done. The biggest second-order effects of this for marketers will be that serving these agents becomes a major part of their job. Helping AI help buyers will be the best way for sellers to help themselves. Just as we used to optimize content for search engines (SEO) in order to be found by buyers, we’ll optimize data and services for consumption by these AI agents acting on a buyer’s behalf. Just as data will become a first-class marketing channel, API services will become a first-class marketing channel too. This is how we’ll serve the right data to AI agents at the right time. It’s also how we’ll give them easy ways to take actions with us. The most obvious and exciting action? Making a purchase. Bot-to-bot commerce — the new B2B? — will become a huge portion of ecommerce. Two decades ago, the inbound marketing revolution was launched. Helping people answer questions to win new business. We’re now on the verge of what we could call a generative inbound marketing revolution — fielding inbound requests from AI agents to help them accomplish the goals they’ve been assigned by their human controllers. For both buyers and sellers this is going to raise the stakes and the complexity of Big Ops. Orchestrating and governing all of the automations and autonomous agents inside your organization, as well as managing all of the AI agents engaging with you from prospects, customers, and partners, is going to be an epic responsibility. The opportunity for innovation with these second-order effects is colossal.
Chúng ta đã đọc rất nhiều về các hiệu ứng cấp độ không đơn giản của AI sinh học. Nó làm cho nội dung dễ dàng, nhanh chóng và rẻ hơn để tạo ra. Mã dễ dàng, nhanh chóng và rẻ hơn để xây dựng. Nó trả lời các câu hỏi tối tân nhanh hơn cả viên đạn bay. Nhảy qua các ngăn xếp dữ liệu có cấu trúc và không có cấu trúc một cách nhanh chóng. Với Auto-GPT, AgentGPT, BabyAGI, ChatGPT Plugins, v.v., nó hiện đã có thể chạy các việc vụ kỹ thuật số cho chúng tôi giống như một Jimmy Olsen hăng hái trên một nhiệm vụ chụp ảnh. (Xin lỗi vì một phép ẩn dụ quá rộng.) Cũng có rất nhiều cuộc thảo luận về các hiệu ứng cấp độ đầu tiên sẽ xảy ra. Sẽ có rất nhiều nội dung hơn. Rất nhiều mã. Điều này sẽ gây rối loạn đối với các công cụ tìm kiếm truyền thống như Google Classic. Và sự lan rộng của "chat UX" trong rất nhiều ứng dụng phần mềm chúng ta sử dụng. Đây là những hiệu ứng hấp dẫn, mạnh mẽ, gây rối loạn. Nhưng chúng khá dễ dự đoán. Bạn có thể vẽ một đường thẳng từ kích hoạt ("AI sinh ra nội dung") đến kết quả ("số lượng nội dung trên thế giới tăng một cách mũ lũ"). Đối với tôi, một số câu hỏi thú vị hơn là những hiệu ứng cấp độ hai sẽ là gì. Những rối loạn tiếp theo sẽ bị kích hoạt bởi những hiệu ứng cấp độ đầu tiên lớn đó đối với tiếp thị, martech và kinh doanh số? Khi AI sinh nội dung của người bán, người mua sẽ làm gì? Hãy bắt đầu với AI sinh ra nội dung. Hiệu ứng cấp độ đầu tiên rõ ràng nhất là sẽ có một sự bùng nổ của nội dung. Nhớ lại cú sốc nội dung 10 năm trước? Điều đó sẽ giống như một cái chạm nhẹ giống như điện từ cọ lại giày đông của bạn so với việc nắm lấy một đường dây cao áp của cú sốc nội dung mới được cung cấp bằng AI. Hiệu ứng cấp độ đầu tiên tuyệt nhất là rằng những nội dung đó sẽ ngày càng được tạo ra cho cá nhân, dựa trên mọi thứ chúng ta có thể biết hoặc suy luận về họ, trong bối cảnh của thời điểm cụ thể mà nó được phục vụ. Sau gần 30 năm của sự thổi phồng về cá nhân hoá 1:1, AI sinh ra sẽ cuối cùng thực hiện được lời hứa đó. Nhưng cũng có một mặt tối của điều đó. Nội dung cá nhân hóa dễ dàng, tức thời sẽ cũng có nghĩa là thư rác dễ dàng, tức thời. Thư rác nội dung sẽ tràn ngập Internet - bao gồm tất cả rác của deep fakes, thông tin sai lệch và tất cả rác rưởi khác. (Đến lúc cập nhật bản trình bày Crap đặc trưng của bạn, Doug Kessler. Chúng ta đang nói về một cuộc nổ rác quy mô Oppenheimer ngay bây giờ.) Điều này cũng sẽ dẫn đến tăng gấp đôi số lượng thông tin tự động gửi đến mọi kênh có thể - email, điện thoại, SMS, quảng cáo, mạng xã hội, WhatsApp, vv. AI sẽ tạo ra một đội quân vô hạn các BDRs và SDRs tự động. Nhiều trong số đó sẽ thực sự tốt, cung cấp các thông điệp siêu cá nhân hóa. Nhưng đó sẽ quá nhiều, từ quá nhiều nguồn. Quá nhanh, quá mãnh liệt. Những tác động cấp đầu này sẽ kích hoạt tác động cấp hai sẽ thay đổi cơ bản về marketing và bán hàng. Đây là những gì tôi mong đợi: Người mua sẽ tinh chỉnh thêm nội dung marketing và bán hàng "đẩy" ngay cả khi nó siêu cá nhân hóa. Bộ lọc thư rác sẽ trở nên tốt hơn để ngăn dòng chảy đến và chỉ thông báo cho người nhận một bản tóm tắt ngắn gọn về những thứ họ có thể quan tâm. Trớ trêu thay, kết quả là tất cả các thông điệp siêu cá nhân hóa này sẽ không cải thiện đáng kể hiệu quả khai thác tiềm năng bán hàng. Chúng có thể giảm nó. Những nguồn đáng tin cậy sẽ trở nên càng quý giá hơn nữa. Những cộng đồng với các thành viên được xác minh sẽ là vàng. Những người ảnh hưởng đã xây dựng được khán giả của riêng mình và không quá phụ thuộc vào các thuật toán bên ngoài để khám phá và giao hàng sẽ mang lại trọng lượng đáng kể. Chúng ta sẽ khao khát góc nhìn con người thực sự. Như chúng ta đã thấy ngày hôm nay với ChatGPT, người mua sẽ ngày càng áp dụng phương tiện "kéo" AI để khám phá và đánh giá sản phẩm và dịch vụ. Generative AI phù hợp hơn rất nhiều để đào qua núi nội dung và các lời đề nghị. Những đại lý AI tập trung vào người mua này sẽ sử dụng quyền lực vô cùng lớn. Như chúng ta sẽ thảo luận thêm, mục tiêu của marketing sẽ là phục vụ những đại lý trung gian này tốt. # AI tạo mã, phần mềm nhân đôi, ứng dụng tiến hóa Tạo phần mềm đã sẵn sàng để được dân chủ hóa bởi các sản phẩm và giao diện mã thấp / không mã. Và bằng "phần mềm", tôi thực sự có nghĩa là bất kỳ chương trình kỹ thuật số hoặc tài sản tương tác nào: ứng dụng, tự động hóa, trang web, luồng công việc, vv. Hiện nay, hàng triệu người không phải là nhà phát triển sử dụng các công cụ như Airtable, Webflow và Zapier để xây dựng những trải nghiệm và hoạt động tùy chỉnh của riêng họ. Nhưng chủ yếu là người dùng năng lực. Generative AI đã đẩy chúng ta tiến xa hơn trên đường cong quyền hạn công nghệ bằng cách làm cho bất kỳ người thông thường nào cũng có thể tạo ra một "chương trình phần mềm" bằng cách đưa ra một loạt các yêu cầu ngôn ngữ tự nhiên cho một đại lý AI. Trên thực tế, rõ ràng là ngày càng nhiều các chương trình này sẽ được tạo ra một cách tự nhiên / tự động nền tảng mà không cần người dùng thừa nhận rõ ràng rằng một hành động sáng tạo đã xảy ra thay mặt họ. Hiệu ứng bậc một rõ ràng ở đây là tổng số lượng phần mềm trên thế giới sẽ tăng một cách mũ bách. Và rất nhiều trong số các chương trình phần mềm này sẽ được xây dựng theo yêu cầu của người dùng, chứ không phải được thiết kế bởi các kỹ sư phần mềm chuyên nghiệp. Điều đó không có nghĩa là không còn phần mềm và nền tảng ứng dụng được phát triển chuyên nghiệp. Chắc chắn sẽ có, đặc biệt là đối với các sản phẩm lớn và phức tạp hơn. (Mặc dù quá trình phát triển đó cũng sẽ được tăng cường và tăng tốc độ bởi các trợ lý mã hóa AI.) Nhưng theo khối lượng, các chương trình được tạo ra bởi trí tuệ nhân tạo sẽ sớm vượt qua các chương trình được xây dựng bởi con người. Như với nội dung, với mã nguồn cũng vậy. Sự bùng nổ ứng dụng "sốc lớn" này sẽ kích hoạt các hiệu ứng bậc hai sẽ thay đổi cách chúng ta nghĩ về phần mềm và kinh tế xung quanh nó: Bởi vì rất nhiều chương trình phần mềm sẽ rất dễ tạo ra theo yêu cầu, phần mềm sẽ trở nên dễ dàng hơn để sử dụng. Thay vì việc bảo trì các ứng dụng tùy chỉnh cũ và tự động hóa - vấn đề "nợ kỹ thuật" đã làm cho các công ty gặp khó khăn trong nhiều thập kỷ - thường sẽ dễ dàng hơn để tái tạo các chương trình từ đầu. Kiến trúc có thể kết hợp và một lớp dữ liệu chung sẽ đóng một vai trò lớn trong việc làm cho điều này khả thi. Sự bùng nổ ứng dụng lớn sẽ được kích hoạt. Nhưng với nhiều đại lý AI hoạt động trên các ứng dụng và tương tác với chúng ta thông qua ngôn ngữ tự nhiên và giao diện xung quanh, chúng ta sẽ nghĩ ít hơn về các ứng dụng như những thứ riêng lẻ. Như chúng ta đã sử dụng Google Search - tốt, Google Classic, đó là một trong những chương trình phần mềm tiên tiến nhất thế giới mà không thực sự nghĩ về nó như một "ứng dụng" nào cả, chúng ta sẽ có hàng chục hoặc hàng trăm chương trình được tạo ra và được cung cấp bằng trí tuệ nhân tạo mà chúng ta sẽ coi đó là điều hiển nhiên trong suốt ngày của chúng ta. Hiệu ứng bậc hai tiêu cực sẽ là rất nhiều "ứng dụng và tự động hóa zombie" lơ lửng xung quanh. Các chương trình phần mềm được tạo ra và sau đó bị lãng quên, lang thang trong bóng tối, ăn tài nguyên và ám ảnh các tổ chức với các tác động bí ẩn vào thời điểm này và sau đó. Sẽ có một thị trường lớn cho các giải pháp cho khoảng trống "tầm nhìn" lớn này của Big Ops đang ngày càng phát triển. # Trí tuệ nhân tạo mở khóa cho lượng lớn nội dung và dữ liệu Một nghịch lý của lượng lớn nội dung và dữ liệu được tạo ra và thu thập trong hai thập kỷ qua là phần lớn nó không thể tiếp cận được. Tôi không nói rằng nó không thể tiếp cận được từ quan điểm phép màu (mặc dù hy vọng rằng đó là một yếu tố nơi nó nên được!). Tôi muốn nói rằng bạn đơn giản không thể tìm thấy nó, tiêu thụ nó, hoặc hiểu nó bởi vì có quá nhiều thứ. Về lý thuyết, nếu nó trên mạng, nó có thể được truy cập thông qua Google Search - Google Classic, tôi sẽ khuyên bảo lại. Nhưng thực tế, không ai sẽ bao giờ vượt qua trang đầu hoặc hai của kết quả tìm kiếm. Và thậm chí còn để bạn là con người phân tích các trang web bên kia những liên kết màu xanh đó, sắp xếp qua các trải nghiệm người dùng tồi tệ với nhiều nội dung hết hạn, không liên quan hoặc chỉ đơn giản là xấu. Tương tự, đa số dữ liệu trong kho dữ liệu của các công ty cũng vậy. Chúng giống như kho lớn trong cảnh cuối cùng của Raiders of the Lost Ark. Sự nỗ lực yêu cầu bởi một thực thể chỉ để tìm kiếm một cái gì đó trong vực sâu đó sẽ làm cho Kafka cũng sợ mất. Nhưng hiện nay, trí tuệ nhân tạo được trang bị bởi LLM như GPT-4 có thể dễ dàng tiêu thụ tất cả nội dung và dữ liệu đó, và sau đó - chỉ trong một phần nhỏ của một phút - trả lời gần như bất kỳ câu hỏi nào bạn hỏi. Nó đã thấm vào tất cả những nội dung dài dòng trên Internet. Và trong các phiên bản được điều chỉnh riêng tư, nó đã được lập chỉ mục các chiều sâu của kho dữ liệu của riêng bạn. Đây là lý do tại sao tác nhân trí tuệ nhân tạo mới sẽ thay thế các công cụ tìm kiếm truyền thống (Google Classic). Những đại lý AI mới này phục vụ "nhiệm vụ cần làm" - tìm nhanh một cái gì đó từ các tài liệu tri thức của con người - tốt hơn rất nhiều. Phần mềm thông tin doanh nghiệp cổ điển sẽ được biến đổi tương tự. Là một tác động cấp hai, phân tích sẽ được phổ cập rộng rãi. Phạm vi các câu hỏi mà bất kỳ ai trong một doanh nghiệp sẽ có thể tự phục vụ một câu trả lời sẽ là đáng kinh ngạc. Bởi vì quyền truy cập vào tất cả nội dung trên web mở sẽ được thương mại hóa bởi các mô hình cơ bản như GPT-4, lợi thế cạnh tranh sẽ thuộc về những người có dữ liệu độc quyền và độc đáo. Mọi người sẽ có cùng công cụ AI. Không phải ai cũng có cùng dữ liệu để cung cấp cho chúng. Sự tăng trưởng của họ sẽ phụ thuộc vào sự nuôi dưỡng hơn là tự nhiên. Hiệu ứng cấp hai của nhu cầu dữ liệu độc quyền này sẽ là cơ hội cho các nhà tiếp thị tiếp thị bằng cách cung cấp các bộ dữ liệu trên các hệ sinh thái tiếp thị của họ. Dữ liệu sẽ trở thành kênh tiếp thị hàng đầu. # Khi trí tuệ nhân tạo giúp chúng ta hoàn thành các nhiệm vụ kỹ thuật số, các dịch vụ số phát triển mạnh mẽ hơn Khi tôi viết câu này, các nhà phát triển trên khắp thế giới đang phát triển một loạt các trợ lý ảo AI mới kết hợp ChatGPT với khả năng thực hiện các nhiệm vụ. Tôi đã đề cập một vài cái trước đó. JARVIS là một cái khác đáng xem. Nó nhận yêu cầu từ người dùng, chia nhỏ chúng thành các nhiệm vụ rời rạc, tìm kiếm các mô hình học máy khác nhau trên cộng đồng nguồn mở AI HuggingFace, chọn mô hình tốt nhất cho mỗi nhiệm vụ, chạy chúng theo thứ tự, sau đó nối tất cả lại thành kết quả. Nếu bạn không ấn tượng - không mở rộng hàm mỉm cười ấn tượng - bạn không chú ý. Tất cả đều là các dự án hội chợ khoa học hiện tại, chưa sẵn sàng cho sự áp dụng chính thống. Nhưng với tốc độ phát triển của chúng, sẽ có một làn sóng các trợ lý ảo chất lượng tiêu dùng sẽ được triển khai trước khi năm nay kết thúc. Những tác động cấp bậc đầu tiên là tương đồng với những kích hoạt khác chúng ta đã thảo luận: số lượng các tự động hóa và thực hiện các tác vụ tự động trên thế giới sẽ tăng theo cấp số nhân. Điều này sẽ mang lại một sự đẩy mạnh lớn cho năng suất. Giao diện "Chat UX" sẽ xuất hiện khắp nơi, yêu cầu chúng ta cho bất cứ điều gì chúng ta muốn làm. Tác động cấp bậc thứ hai lớn nhất của điều này đối với các nhà tiếp thị sẽ là việc phục vụ các trợ lý ảo này trở thành một phần quan trọng của công việc của họ. Giúp AI giúp người mua sẽ là cách tốt nhất cho người bán giúp cho chính họ. Giống như chúng ta đã tối ưu hóa nội dung cho các công cụ tìm kiếm (SEO) để được tìm thấy bởi người mua, chúng ta sẽ tối ưu hóa dữ liệu và dịch vụ để tiêu thụ bởi những trợ Lý ảo AI này hoạt động thay mặt cho người mua. Giống như dữ liệu sẽ trở thành một kênh tiếp thị đẳng cấp đầu tiên, các dịch vụ API cũng sẽ trở thành một kênh tiếp thị đẳng cấp đầu tiên. Đây là cách chúng tôi sẽ phục vụ dữ liệu đúng cho các trợ lý ảo AI vào thời điểm thích hợp. Đó cũng là cách chúng ta sẽ cung cấp cho họ các cách tiếp cận dễ dàng để thực hiện các hành động với chúng ta. Hành động rõ ràng và thú vị nhất? Thực hiện mua hàng. Thương mại bot-to-bot - B2B mới? - sẽ trở thành một phần lớn của thương mại điện tử. Hai thập kỷ trước, cách mạng tiếp thị đến từ bên trong được khởi xướng. Giúp mọi người trả lời câu hỏi để giành được kinh doanh mới. Chúng ta hiện đang đứng trước cột mốc của một cuộc cách mạng tiếp thị đầu vào tạo ra nội dung đáp ứng yêu cầu từ các trợ lý ảo AI để giúp họ hoàn thành mục tiêu được giao bởi các điều khiển nhân vật của họ. Đối với cả người mua và người bán, điều này sẽ nâng cao rủi ro và độ phức tạp của Big Ops. Tổ chức và quản lý tất cả các tự động hóa và các trợ lý ảo tự động bên trong tổ chức của bạn, cũng như quản lý tất cả các trợ lý ảo AI tương tác với bạn từ khách hàng tiềm năng, khách hàng và đối tác, sẽ là một trách nhiệm vĩ đại. Cơ hội cho sự đổi mới với những tác động cấp bậc thứ hai này là rất lớn.
First real-world study shows generative AI boosted worker productivity by 14%
NEW YORK – Customer service workers at a Fortune 500 software firm who were given access to generative artificial intelligence (AI) tools became 14 per cent more productive on average than those who were not, with the least-skilled workers reaping the most benefit. That is according to a new study by researchers at Stanford University and the Massachusetts Institute of Technology (MIT) who tested the impact of generative AI tools on productivity at the company over the course of a year. The research marks the first time the impact of generative AI tools on work has been measured outside the lab. Prior studies have benchmarked the capabilities of large language models against tasks in fields such as law and medicine – showing that, for example, GPT-4 aces the Bar exam in the 90th percentile. Other research has tested the tech’s impact on workers’ performance of isolated writing tasks in small-scale laboratory settings. The results of some of these earlier experiments showed the potential, at times surprising, of large-language models in the workplace, said Mr Erik Brynjolfsson, director of the Digital Economy Lab at the Stanford Institute for Human-Centred AI. But until the tools are tested in the real world, he added, their impact remains mostly speculative. “Having people use it for over a year in this company, you get a much better sense of how that translates into real-world productivity,” Mr Brynjolfsson, one of the study’s co-authors, said in an interview. “As far as I know, this is the first time it’s been done in a real-world setting.” Mr Brynjolfsson, alongside MIT researchers Danielle Li and Lindsey Raymond, tracked the performance of more than 5,000 customer support agents, based primarily in the Philippines, across key metrics like how quickly and successfully workers were able to solve clients’ problems. The agents were divided into groups: Some were given access to the AI tools – trained on a large set of successful customer service conversations – and others were not. The name of the company, which specialises in enterprise software for small and medium-sized US businesses, was not disclosed in the report. Gains for low-skilled workers One of the study’s findings was that novice workers benefited most from the tech, the researchers said. With the assistance of AI, the firm’s least-skilled workers were able to get their work done 35 per cent faster. New workers’ performance also improved much more rapidly with the assistance of AI than without. According to the study, agents with two months of experience who were aided by AI performed just as well or better in many ways than agents with more than six months of experience who worked without AI. MORE ON THIS TOPIC GPT-4 could turn work into a hyper-productive hellscape Musk, experts urge pause on training of AI systems that can outperform GPT-4 The research suggests that the boost in low-skilled workers’ productivity and performance may come, in part, from the way that AI tools can absorb the tacit knowledge that makes the firm’s top performers excel – like knowing the best language to use to soothe an irate customer or what technical documentation would be most helpful to share in each situation – and then disseminate that knowledge to less-skilled or experienced workers through AI-generated suggested responses. These findings run counter to the prevailing notion that automation tends to hurt low-skilled workers most, as has played out over the last several decades of technological advances in manufacturing and other industries. The productivity gains – about 14 per cent on average – were less dramatic than in prior experiments, likely because real-world workplace processes are much more complex than one-off tasks. Still, the boost in productivity was significant. “This suggests that those laboratory studies were pointing in the right direction, and that they weren’t just mirages,” Mr Brynjolfsson said. Compensation questions The most highly skilled workers saw little to no benefit from the introduction of AI into their work. These top performers were likely already giving the responses at the same calibre that the AI was recommending, so there was less room for improvement – if anything, the prompts may have been a distraction, the researchers said. If AI does ultimately narrow the gap between low- and high-skilled workers, however, companies may need to fundamentally rethink the logic underpinning compensation choices. Top customer service agents had Excel spreadsheets where they collected phrases that they used often and that worked well, said MIT’s Ms Raymond. If the AI tool is indeed taking this tacit knowledge and distributing it to others, she said, “then these high-skilled workers are doing the additional service for the firm by providing these examples for the AI, but they’re not being compensated for it”. In fact, they may be worse off because their incentives were based on performance relative to their peers, which introduces a host of weighty policy questions about how workers should be compensated for the value of their data. Forward-thinking companies would be wise to recognise the expertise of their star employees, since their tacit knowledge and skill will likely form the basis of the AI tools that will power the rest of the organisation, said Mr Brynjolfsson. “Successful companies will have incentive and reward systems that recognise that these top performers – whether or not their performance with any given customer is demonstrably better than the less-skilled workers – create knowledge that the whole organisation depends on,” he added. “It wouldn’t be far-fetched for them to put even more of a premium on those people because now that kind of skill gets amplified and multiplied throughout the organisation. Now that top worker could change the whole organisation.” Of course, Mr Brynjolfsson noted that it is still early days in the study of generative AI, and this research is not the final word – much more is left to learn. Remaking the workplace Some of the observations yielded by the field experiment were not captured by the data, but point to dozens of other ways these tools may soon reshape workplaces. Anecdotally, managers at the firm were no longer spending 20 to 30 hours per week coaching employees, Ms Raymond said, likely because the AI served as a substitute of sorts. That could, in turn, change the employee-manager relationship since supervisors would then spend less time with direct reports and would instead take on larger teams. Still, the speed at which generative AI appears to be capable of transfiguring workplaces – seemingly overnight – is dizzying, especially relative to prior technological breakthroughs. “There’s a mountain of research that these transformative technologies – like electricity or the steam engine or computers – took decades before they really moved the dial on productivity. In the case of electricity, it was about 30 years between when it was introduced into factories and when you really saw significant productivity gains,” Mr Brynjolfsson said. “So there’s a concern, even an expectation, that this would play out over the period of many years or a decade or more,” he added. “But the fact that we’re already seeing it so quickly says something about the technology, and our ability to implement it and get practical results a lot faster than we did in the past.” In the light of these early results, Mr Brynjolfsson has advice for workers and executives: Embrace this technology. “Start experimenting with it and learn what it can do. Find out where it’s most effective and where it’s least effective,” he said. “Companies should have crash programmes to educate their workforce on them and really get up to speed.” BLOOMBERG
NEW YORK - Nhân viên dịch vụ khách hàng của một tập đoàn phần mềm hàng đầu Fortune 500 được cung cấp các công cụ trí tuệ nhân tạo (AI) tạo sinh đã trở nên hiệu quả hơn trung bình 14% so với những người không được cung cấp, với những nhân viên kém kỹ năng nhất được hưởng lợi nhiều nhất. Đó là theo một nghiên cứu mới của các nhà nghiên cứu tại Đại học Stanford và Viện công nghệ Massachusetts (MIT) đã thử nghiệm tác động của các công cụ AI sáng tạo đến năng suất của công ty trong vòng một năm. Nghiên cứu này đánh dấu lần đầu tiên tác động của các công cụ AI sáng tạo đến công việc đã được đo lường bên ngoài phòng thí nghiệm. Các nghiên cứu trước đó đã đánh giá năng lực của các mô hình ngôn ngữ lớn so với các nhiệm vụ trong lĩnh vực như luật và y khoa - cho thấy, ví dụ, GPT-4 đạt điểm cao nhất trong kỳ thi luật sử trong top 10% đạt điểm cao. Các nghiên cứu khác đã thử nghiệm tác động của công nghệ này đến hiệu suất làm việc của nhân viên về kỹ năng viết trong các môi trường phòng thí nghiệm quy mô nhỏ. Kết quả của một số thí nghiệm trước đó đã cho thấy tiềm năng, đôi khi là bất ngờ, của các mô hình ngôn ngữ lớn trong nơi làm việc, ông Erik Brynjolfsson, giám đốc Digital Economy Lab tại Viện AI tập trung vào con người của Đại học Stanford nói. Nhưng cho đến khi các công cụ được thử nghiệm trong thực tế, ông Brynjolfsson cho biết, tác động của chúng vẫn chủ yếu là giả thuyết. "Khi cho mọi người sử dụng nó trong hơn một năm tại công ty này, bạn sẽ có được một cái nhìn rõ hơn về cách đó dịch sang hiệu suất thực tế," ông Brynjolfsson, một trong những tác giả của nghiên cứu, nói trong một cuộc phỏng vấn. "Theo tôi biết, đây là lần đầu tiên nó được thực hiện trong một môi trường thực tế." Ông Brynjolfsson, cùng với các nhà nghiên cứu tại MIT Danielle Li và Lindsey Raymond, đã theo dõi hiệu suất của hơn 5.000 nhân viên hỗ trợ khách hàng ở Philippines, trên các chỉ số chính như tốc độ và thành công của nhân viên trong việc giải quyết vấn đề của khách hàng. Các nhân viên được chia thành các nhóm: một số được cung cấp các công cụ AI - được đào tạo trên một bộ dữ liệu lớn các cuộc trò chuyện dịch vụ khách hàng thành công - và những người khác không được cung cấp. Tên của công ty, chuyên về phần mềm doanh nghiệp cho các doanh nghiệp nhỏ và vừa ở Mỹ, không được tiết lộ trong báo cáo. Một trong những kết quả của nghiên cứu là nhân viên mới học được hưởng lợi lớn nhất từ công nghệ này, các nhà nghiên cứu cho biết. Với sự trợ giúp của AI, những nhân viên kém kỹ năng nhất của công ty đã có thể hoàn thành công việc của họ nhanh hơn 35%. Hiệu suất của nhân viên mới cũng cải thiện nhanh hơn rất nhiều với sự trợ giúp của AI hơn là không có. Theo nghiên cứu, các nhân viên có hai tháng kinh nghiệm được hỗ trợ bởi trí tuệ nhân tạo (AI) làm việc tốt hơn hoặc ngang bằng về nhiều mặt so với các nhân viên có hơn sáu tháng kinh nghiệm làm việc mà không có AI. Nghiên cứu này cho thấy sự nâng cao năng suất và hiệu suất của các nhân viên có kỹ năng thấp có thể đến, một phần, từ cách các công cụ AI có thể hấp thụ kiến thức ẩn của những người làm việc xuất sắc nhất của công ty - như biết ngôn ngữ tốt nhất để dỗ dành cho khách hàng tức giận hoặc tài liệu kỹ thuật nào sẽ hữu ích nhất để chia sẻ trong mỗi tình huống - và sau đó chuyển kiến thức đó cho các nhân viên kỹ năng thấp hoặc ít kinh nghiệm thông qua các phản hồi được đề xuất bởi AI. Những kết quả này ngược lại quan niệm phổ biến rằng tự động hóa có xu hướng làm tổn thương nhân viên kỹ năng thấp nhất, như đã diễn ra trong vài thập kỷ qua của các tiến bộ công nghệ trong sản xuất và các ngành công nghiệp khác. Những lợi ích về năng suất - khoảng 14% trung bình - ít nổi bật hơn so với các thí nghiệm trước đó, có lẽ vì các quy trình làm việc trong thực tế phức tạp hơn nhiều so với các nhiệm vụ đơn lẻ. Tuy nhiên, sự nâng cao về năng suất là đáng kể. "Điều này cho thấy rằng các nghiên cứu trong các phòng thí nghiệm đang chỉ đúng hướng, và chúng không chỉ là ảo tưởng," ông Brynjolfsson nói. Câu hỏi bồi thường Những nhân viên có kỹ năng cao nhất không thấy được lợi ích nhiều hoặc không thấy được lợi ích từ việc giới thiệu AI vào công việc của họ. Những người làm việc xuất sắc này có thể đã đưa ra các phản hồi với chất lượng tương đương với những gì AI đang đề xuất, vì vậy không có nhiều không gian để cải thiện - thậm chí prompt có thể làm phiền họ, các nhà nghiên cứu nói. Nếu AI cuối cùng thu hẹp khoảng cách giữa nhân viên kỹ năng thấp và cao, các công ty có thể cần phải suy nghĩ lại cách thức trả lương cho người lao động. Các nhân viên chăm sóc khách hàng hàng đầu có bảng tính Excel nơi họ thu thập các cụm từ mà họ sử dụng thường xuyên hiệu quả, theo bà Raymond của MIT. Nếu công cụ AI tìm ra và trao các kiến thức ẩn này cho những người khác, bà nói rằng "thì những người làm việc có kỹ năng cao này đang cung cấp dịch vụ bổ sung cho công ty bằng cách cung cấp các ví dụ này cho AI, nhưng họ không được trả công cho việc đó". Trên thực tế, tình trạng của họ có thể tệ hơn vì động lực của họ dựa trên hiệu suất so với đồng nghiệp, điều này đưa ra nhiều câu hỏi về cách trả lương cho nhân viên dựa trên giá trị của dữ liệu của họ. Các công ty có tầm nhìn tương lai nên nhận ra giá trị của kiến thức chuyên môn của các nhân viên xuất sắc của họ, vì kiến thức ẩn và kỹ năng của họ sẽ cung cấp dữ liệu cho các công cụ AI để hỗ trợ cho toàn bộ tổ chức, ông Brynjolfsson nói. "Các công ty thành công sẽ có hệ thống động lực và thưởng nhận ra rằng những người làm việc xuất sắc này - cho dù hiệu suất của họ với bất kỳ khách hàng nào có thể được chứng minh tốt hơn so với những người làm việc kỹ năng thấp hơn hay không - tạo ra kiến thức mà toàn bộ tổ chức phụ thuộc vào", ông nói thêm. "Không có gì quá phi lý khi họ đặt thêm một khoản thù lao cao hơn cho những người này vì bây giờ kỹ năng đó được tăng cường và nhân bản trên toàn tổ chức. Bây giờ, người lao động hàng đầu đó có thể thay đổi toàn bộ tổ chức". Tất nhiên, ông Brynjolfsson lưu ý rằng vẫn còn quá sớm trong việc nghiên cứu về AI sinh sản, và nghiên cứu này không phải là từ cuối cùng - còn nhiều điều cần học hỏi hơn nữa. Đổi mới nơi làm việc Một số quan sát của thí nghiệm trên thực địa không được ghi lại trong dữ liệu, nhưng chỉ ra hàng chục cách khác mà những công cụ này có thể sớm thay đổi cách thức làm việc của các nơi làm việc. Theo những câu chuyện phiếm, ban quản lý của công ty không còn dành 20 đến 30 giờ mỗi tuần để huấn luyện nhân viên nữa, bà Raymond nói, có lẽ vì trí tuệ nhân tạo đã đóng vai trò thay thế một phần. Điều đó có thể thay đổi quan hệ giữa nhân viên và quản lý vì giám sát viên sẽ dành ít thời gian hơn với báo cáo trực tiếp và thay vào đó sẽ quản lý các nhóm lớn hơn. Tuy nhiên, tốc độ mà trí tuệ nhân tạo có thể biến đổi nơi làm việc - dường như qua đêm - là chóng mặt, đặc biệt là so với các đột phá công nghệ trước đó. " Có một ngọn núi nghiên cứu cho thấy những công nghệ biến đổi này - như điện hay động cơ hơi hay máy tính - mất mấy thập kỷ trước khi thực sự có những bước tiến đáng kể về năng suất. Trong trường hợp của điện, nó kéo dài khoảng 30 năm kể từ khi nó được giới thiệu vào các nhà máy cho đến khi bạn thực sự nhìn thấy những lợi ích về năng suất đáng kể, " ông Brynjolfsson nói. "Vì vậy, có một lo ngại, thậm chí là một kỳ vọng, rằng điều này sẽ diễn ra trong quá trình nhiều năm hoặc một thập kỷ hoặc hơn thế nữa," ông Brynjolfsson thêm. "Nhưng việc chúng tôi đang thấy nó diễn ra rất nhanh chóng đã nói lên điều gì đó về công nghệ, và khả năng của chúng tôi để triển khai nó và đạt được kết quả thực tế nhanh hơn nhiều so với quá khứ." Dựa trên những kết quả sớm này, ông Brynjolfsson có lời khuyên cho người lao động và nhà quản lý: Hãy chào đón công nghệ này. "Hãy bắt đầu thử nghiệm với nó và tìm hiểu những gì nó có thể làm được. Tìm hiểu nơi nó hiệu quả nhất và nơi nó hiệu quả nhất," ông nói. "Các công ty nên có các chương trình khẩn cấp để giáo dục nhân lực của họ về chúng và thực sự nâng cao trình độ." BLOOMBERG # #
 
A guide to prompting AI (for what it is worth)
Whenever I open up Twitter, I am exposed to a new breed of hustle — the “prompt influencer” — promising me that 99% of people use GPT wrong and that they will provide the secret prompts that, if I use them in ChatGPT, will vanquish evil and make me a million dollars.
So I want to share my prompt secret with you, for free. Ready?
There are no secret prompts.
In fact, I think the emphasis on prompting as the key to using AI is a mistake for a number of reasons. But, I also have come to realize that there are some things people don’t understand about prompts¹, which can help make the task of using AI easier. So I do want to share those.
But first, why you shouldn’t take prompting that seriously:
Being “good at prompting” is a temporary state of affairs. The current AI systems are already very good at figuring out your intent, and they are getting better. Prompting is not going to be that important for that much longer. In fact, it already isn’t in GPT-4 and Bing. If you want to do something with AI, just ask it to help you do the thing. “I want to write a novel, what do you need to know to help me?” will get you surprisingly far.
A lot of prompting tips are more magic ritual than useful, repeatable tips. For example, many prompts include superlatives (“Act as the smartest person ever”) and expect that to matter. I tried a little experiment, telling GPT-4 to act as a genius writer or a great writer or just a writer, and, based on my unscientific Twitter polling, it didn’t seem to help to tell it that it was amazing. That doesn’t mean it can’t be useful in some circumstances, but a lot of the prompts passed around online are magical incantations, rather than useful programs. (There are a few exceptions, words that do seem to change behavior, but more on that soon)
The best way to use AI systems is not to craft the perfect prompt, but rather to use it interactively. Try asking for something. Then ask the AI to modify or adjust its output. Work with the AI, rather than trying to issue a single command that does everything you want. The more you experiment, the better off you are. Just use the AI a lot, and it will make a big difference - a lesson my class learned as they worked with the AI to create essays.
All of that being said, there are some ways of approaching prompting that might be helpful when starting your journey. But in the end, nothing beats practice.
Give the system context and constraints Large Language Models work by predicting the next word, or part of a word, that would come after your prompt, sort of like a sophisticated autocomplete function. Then they continue to add language from there, again predicting which word will come next. So the default output of many of these models can sound very generic, since they tend to follow similar patterns that are common in the written documents that the AI was trained on. By breaking the pattern, you can get much more useful and interesting outputs. The easiest way to do that is to provide context and constraints.
It can help to tell the system “who” it is, because that gives it a perspective. Act as a teacher of MBA students will result in different output than if you ask it to act as a circus clown. This isn’t magical — you can’t say Act as Bill Gates and get better business advice — but it can help make the tone and direction appropriate for your purposes.
The clown advice is pretty great, though. Then add additional constraints. You can add styles like write this in the style of the New Yorker or write this in casual way. You can tell it to avoid repetition or make it accessible to a 10th grader. You will find some of these approaches work better than others in different contexts, and it can be hard to know which things will work in advance, so experiment.
You should also provide whatever other data that you have as well. For ChatGPT-4, you can paste in quite a bit of information. For example. provide it a few paragraphs you have written and say using the style in the paragraphs below, can you write ___. Or you can paste in entire (copyright free, of course) sections of scientific articles for it to digest and work with, either to summarize or to build on.
You can paste a lot of text into ChatGPT You can use Bing (which, in creative mode, is GPT-4, but connected to the internet) to look up information by just asking Look up data about __ or First, search for ___. Bing’s Sidebar is also capable of reading the documents you are looking at in an Edge browser, so you can ask the Sidebar to reference what is in the browser. Again, you are helping shape the pathways the word prediction will take, and the results are likely to be much higher quality the more constraints you provide.
Programming in prose For slightly more advanced prompts, think about what you are doing as programming in English prose. You can give the AI instructions and it mostly-sort-of follows them. Mostly, because there is a lot of randomness associated with AI outputs, so you will not get the consistency of a standard computer program. But it can be worth thinking about how you can provide a very clear and logical prompt to the AI.
A lot of active research is happening around the best way to “program” an LLM, but one practical implication is that it can help to give the AI explicit instructions that go step-by-step through what you want. One approach, called Chain of Thought prompting, gives the AI an example of how you want it to reason before you make your request, as you can see in the illustration from the paper.
You can also provide step-by-step instructions that build on each other, making it easier to both check the output of each step (letting you refine the prompt later), and which will tend to make the output of your prompts more accurate. Here is an example: ChatGPT is generally really bad at creating interesting puzzles and scenarios to solve, either making things too easy or impossible. But if we are explicit and step-by-step about what we want, the results are much better:
You a game master. Your job is to come up with interesting challenges for the player to solve. Describe a challenging fantasy scenario, and enable me to solve it in an interesting way. You will use the following format to help create a series of responses.
Chain of thought:
[Step 1]: Decide on the the scenario, making it original and vivid and not standard fantasy. The scenario can involve combat, a trap, or a puzzle. The scenario must not involve riddles or the elements. Make sure there is a solution to the scenario. Make the solution require clever thinking. Include the solution in [] brackets
[Step 2]: Decide on the scene. Make sure that the player has the option to solve the scenario based on the descriptions. Make sure the solution is not clear, but requires clever reasoning based on the scene. Make sure there are very different false solutions that seem plausible. Include the detailed true solution and describe the false solutions, as well as how the player would find the true solution in [] brackets
[Step 3]: Describe the scenario and the scene, vividly and originally. Make sure there are clues to the solution and credible, but very different, false clues to the wrong answer in the description. Do not describe the solution or the problem directly. Do not describe how to solve the problem in this step. Do not describe the false clues as false.
Begin by introducing yourself and go through each step in order."
Image Again, there is no single template here. You need to experiment with your “program” multiple times to get a good answer, but there is an art to it that you can learn with time.
A little bit of magic Okay, I lied slightly about the “there-are-no-magic-words” thing. There are some phrases that seem to work universally across LLMs to provide better or different results, again, by changing the context of the answer. Some possible things to experiment with:
Be creative/make any assumptions you need. This will tend to remove some of the constraints of practicality around AI answers, and can be useful if you are trying to generate something novel.
Show your work/provide sources/go step-by-step. The AI will make up information that it does not have access to. There is some evidence that asking it to show its work, or its sources, reduces that risk somewhat. Even if it doesn’t, it can make checking work easier.
Write me code and tell me how to use it. If you can’t code, you might be able to now. AI can do some amazing things with Python programs, and tell you exactly how to run it. I don’t know coding, but I have written a dozen Python programs in the last month. If there are errors in the code, and there likely will be, just give them to the AI to correct.
Write a draft/provide an example. If the AI refuses to do something (“you should be creative and write your own novel, I can’t help”, sometimes asking it to provide something like a draft can get it to produce results.
The secret is practice. The best thing you can do to learn to prompt better is to practice prompting. Use AI. Use it a lot. Get to understand what it can do and what it can’t. Engage it in back-and-forth dialog to get it to do what you want.
Wait, that wasn’t as clear as I would like. Hold on a second. Bing, can you help?
Nice. As I was saying:
Prompting is a skill that can be learned and improved with practice. The best way to learn is to use AI as your partner and your teacher. Experiment with different types of prompts and see how the AI responds. Engage in a dialogue with the AI and ask it questions, give it feedback, and challenge it to do better. Find out what triggers the AI’s creativity and what limits it. You will soon develop your own style and technique that will make you a more effective prompter. And remember, the AI is always learning too, so keep up with the latest developments and innovations in the field. You never know what new possibilities you might discover. One more thing: don’t be discouraged if some prompts don’t work as expected. There is some randomness in the AI’s output, and sometimes you will need to use the “clear” button to start a new conversation. That’s part of the learning process too.
Whenever I open up Twitter, I am exposed to a new breed of hustle — the “prompt influencer” — promising me that 99% of people use GPT wrong and that they will provide the secret prompts that, if I use them in ChatGPT, will vanquish evil and make me a million dollars. So I want to share my prompt secret with you, for free. Ready? There are no secret prompts. In fact, I think the emphasis on prompting as the key to using AI is a mistake for a number of reasons. But, I also have come to realize that there are some things people don’t understand about prompts¹, which can help make the task of using AI easier. So I do want to share those. But first, why you shouldn’t take prompting that seriously: Being “good at prompting” is a temporary state of affairs. The current AI systems are already very good at figuring out your intent, and they are getting better. Prompting is not going to be that important for that much longer. In fact, it already isn’t in GPT-4 and Bing. If you want to do something with AI, just ask it to help you do the thing. “I want to write a novel, what do you need to know to help me?” will get you surprisingly far. A lot of prompting tips are more magic ritual than useful, repeatable tips. For example, many prompts include superlatives (“Act as the smartest person ever”) and expect that to matter. I tried a little experiment, telling GPT-4 to act as a genius writer or a great writer or just a writer, and, based on my unscientific Twitter polling, it didn’t seem to help to tell it that it was amazing. That doesn’t mean it can’t be useful in some circumstances, but a lot of the prompts passed around online are magical incantations, rather than useful programs. (There are a few exceptions, words that do seem to change behavior, but more on that soon) The best way to use AI systems is not to craft the perfect prompt, but rather to use it interactively. Try asking for something. Then ask the AI to modify or adjust its output. Work with the AI, rather than trying to issue a single command that does everything you want. The more you experiment, the better off you are. Just use the AI a lot, and it will make a big difference - a lesson my class learned as they worked with the AI to create essays. All of that being said, there are some ways of approaching prompting that might be helpful when starting your journey. But in the end, nothing beats practice. Give the system context and constraints Large Language Models work by predicting the next word, or part of a word, that would come after your prompt, sort of like a sophisticated autocomplete function. Then they continue to add language from there, again predicting which word will come next. So the default output of many of these models can sound very generic, since they tend to follow similar patterns that are common in the written documents that the AI was trained on. By breaking the pattern, you can get much more useful and interesting outputs. The easiest way to do that is to provide context and constraints. It can help to tell the system “who” it is, because that gives it a perspective. Act as a teacher of MBA students will result in different output than if you ask it to act as a circus clown. This isn’t magical — you can’t say Act as Bill Gates and get better business advice — but it can help make the tone and direction appropriate for your purposes. The clown advice is pretty great, though. Then add additional constraints. You can add styles like write this in the style of the New Yorker or write this in casual way. You can tell it to avoid repetition or make it accessible to a 10th grader. You will find some of these approaches work better than others in different contexts, and it can be hard to know which things will work in advance, so experiment. You should also provide whatever other data that you have as well. For ChatGPT-4, you can paste in quite a bit of information. For example. provide it a few paragraphs you have written and say using the style in the paragraphs below, can you write ___. Or you can paste in entire (copyright free, of course) sections of scientific articles for it to digest and work with, either to summarize or to build on. You can paste a lot of text into ChatGPT You can use Bing (which, in creative mode, is GPT-4, but connected to the internet) to look up information by just asking Look up data about __ or First, search for ___. Bing’s Sidebar is also capable of reading the documents you are looking at in an Edge browser, so you can ask the Sidebar to reference what is in the browser. Again, you are helping shape the pathways the word prediction will take, and the results are likely to be much higher quality the more constraints you provide. Programming in prose For slightly more advanced prompts, think about what you are doing as programming in English prose. You can give the AI instructions and it mostly-sort-of follows them. Mostly, because there is a lot of randomness associated with AI outputs, so you will not get the consistency of a standard computer program. But it can be worth thinking about how you can provide a very clear and logical prompt to the AI. A lot of active research is happening around the best way to “program” an LLM, but one practical implication is that it can help to give the AI explicit instructions that go step-by-step through what you want. One approach, called Chain of Thought prompting, gives the AI an example of how you want it to reason before you make your request, as you can see in the illustration from the paper. You can also provide step-by-step instructions that build on each other, making it easier to both check the output of each step (letting you refine the prompt later), and which will tend to make the output of your prompts more accurate. Here is an example: ChatGPT is generally really bad at creating interesting puzzles and scenarios to solve, either making things too easy or impossible. But if we are explicit and step-by-step about what we want, the results are much better: You a game master. Your job is to come up with interesting challenges for the player to solve. Describe a challenging fantasy scenario, and enable me to solve it in an interesting way. You will use the following format to help create a series of responses. Chain of thought: [Step 1]: Decide on the the scenario, making it original and vivid and not standard fantasy. The scenario can involve combat, a trap, or a puzzle. The scenario must not involve riddles or the elements. Make sure there is a solution to the scenario. Make the solution require clever thinking. Include the solution in [] brackets [Step 2]: Decide on the scene. Make sure that the player has the option to solve the scenario based on the descriptions. Make sure the solution is not clear, but requires clever reasoning based on the scene. Make sure there are very different false solutions that seem plausible. Include the detailed true solution and describe the false solutions, as well as how the player would find the true solution in [] brackets [Step 3]: Describe the scenario and the scene, vividly and originally. Make sure there are clues to the solution and credible, but very different, false clues to the wrong answer in the description. Do not describe the solution or the problem directly. Do not describe how to solve the problem in this step. Do not describe the false clues as false. Begin by introducing yourself and go through each step in order." Image Again, there is no single template here. You need to experiment with your “program” multiple times to get a good answer, but there is an art to it that you can learn with time. A little bit of magic Okay, I lied slightly about the “there-are-no-magic-words” thing. There are some phrases that seem to work universally across LLMs to provide better or different results, again, by changing the context of the answer. Some possible things to experiment with: Be creative/make any assumptions you need. This will tend to remove some of the constraints of practicality around AI answers, and can be useful if you are trying to generate something novel. Show your work/provide sources/go step-by-step. The AI will make up information that it does not have access to. There is some evidence that asking it to show its work, or its sources, reduces that risk somewhat. Even if it doesn’t, it can make checking work easier. Write me code and tell me how to use it. If you can’t code, you might be able to now. AI can do some amazing things with Python programs, and tell you exactly how to run it. I don’t know coding, but I have written a dozen Python programs in the last month. If there are errors in the code, and there likely will be, just give them to the AI to correct. Write a draft/provide an example. If the AI refuses to do something (“you should be creative and write your own novel, I can’t help”, sometimes asking it to provide something like a draft can get it to produce results. The secret is practice. The best thing you can do to learn to prompt better is to practice prompting. Use AI. Use it a lot. Get to understand what it can do and what it can’t. Engage it in back-and-forth dialog to get it to do what you want. Wait, that wasn’t as clear as I would like. Hold on a second. Bing, can you help? Nice. As I was saying: Prompting is a skill that can be learned and improved with practice. The best way to learn is to use AI as your partner and your teacher. Experiment with different types of prompts and see how the AI responds. Engage in a dialogue with the AI and ask it questions, give it feedback, and challenge it to do better. Find out what triggers the AI’s creativity and what limits it. You will soon develop your own style and technique that will make you a more effective prompter. And remember, the AI is always learning too, so keep up with the latest developments and innovations in the field. You never know what new possibilities you might discover. One more thing: don’t be discouraged if some prompts don’t work as expected. There is some randomness in the AI’s output, and sometimes you will need to use the “clear” button to start a new conversation. That’s part of the learning process too.
Mỗi khi mở Twitter là tôi lại đọc được một kiểu chào mời sử dụng GPT của các "prompt influencer" - hứa hẹn rằng 99% chúng ta sử dụng GPT sai và rằng họ sẽ tiết lộ các prompt bí mật, và nếu tôi sử dụng chúng trong ChatGPT, tôi sẽ đẩy lùi cái ác và trở thành triệu phú. Vì vậy, tôi muốn chia sẻ bí mật prompt của tôi với bạn, miễn phí. Sẵn sàng chưa? Không có bí quyết viết prompt nào cả. Trên thực tế, tôi nghĩ rằng việc tập trung vào prompting như là chìa khóa để sử dụng AI là một sai lầm vì nhiều lý do. Tuy nhiên, tôi cũng nhận ra rằng có một số điều về prompts mà mọi người không hiểu¹, khiến việc sử dụng AI chưa thành thạo. Vì vậy, tôi muốn chia sẻ những điều đó. Nhưng trước hết, tại sao bạn không nên quá quan tâm đến prompting: "Giỏi viết prompt" là một trạng thái tạm thời. Hệ thống AI hiện tại hiểu ý định của bạn khá tốt, và chúng đang ngày càng hoàn thiện hơn nữa. Prompting sẽ không còn quá quan trọng trong dài hạn. Trên thực tế, nó đã không còn quan trọng ở GPT-4 và Bing. Nếu bạn muốn AI làm gì, chỉ cần yêu cầu nó giúp bạn làm việc đó. "Tôi muốn viết một cuốn tiểu thuyết, bạn cần biết gì để giúp tôi?" sẽ giúp bạn đi rất xa. Nhiều lời khuyên về tạo prompt chỉ là thủ thuật hơn là những lời khuyên có ích và có thể tái sử dụng. Ví dụ, nhiều prompts bao gồm các từ nhập vai (“Hãy đóng vai là người thông minh nhất mọi thời đại”) và kỳ vọng rằng điều đó sẽ có ý nghĩa. Tôi đã thử một thí nghiệm nhỏ, yêu cầu GPT-4 đóng vai một nhà văn thiên tài hoặc một nhà văn xuất sắc hoặc chỉ là một nhà văn bình thường, và dựa trên các cuộc thăm dò Twitter của tôi, có vẻ như việc cho nó biết rằng nó tuyệt vời không giúp được gì nhiều. Điều đó không có nghĩa là nó không thể hữu ích trong một số trường hợp, nhưng rất nhiều prompts được chia sẻ trên mạng là những lời thần chú ma thuật, thay vì là các prompts hữu ích. (Có vài ngoại lệ, những từ mà có thể thay đổi hành vi của AI, chúng tôi sẽ nói thêm về điều đó bên dưới) Cách tốt nhất để sử dụng hệ thống AI không phải là tạo ra prompt hoàn hảo, mà là sử dụng nó theo cách tương tác. Hãy thử yêu cầu một cái gì đó. Sau đó, yêu cầu AI điều chỉnh hoặc sửa đổi đầu ra của nó. Tương tác với AI, thay vì cố gắng tạo ra một lệnh đơn lẻ làm mọi thứ bạn muốn. Bạn càng thực nghiệm nhiều, bạn sẽ càng thành thạo hơn. Chỉ cần sử dụng AI nhiều, và nó sẽ tạo ra sự khác biệt lớn - điều mà sinh viên của tôi đã học được khi họ dùng AI để viết các bài luận. Tuy nhiên có một số cách tiếp cận prompting có thể hữu ích khi mới tập viết prompt. Nhưng cuối cùng, không có gì tốt hơn là thực hành. Cung cấp ngữ cảnh và ràng buộc cho hệ thống Các mô hình Ngôn ngữ Lớn hoạt động bằng cách dự đoán từ tiếp theo, hoặc một phần của từ, sẽ xuất hiện sau prompt của bạn, giống như một chức năng cao cấp về tự động gợi ý từ. Sau đó, chúng tiếp tục tạo ra từ ngữ, tiếp tục dự đoán từ tiếp theo sẽ xuất hiện. Do đó, đầu ra mặc định của nhiều mô hình này có vè rất chung chung, vì chúng có xu hướng theo các mẫu tương tự phổ biến trong các tài liệu dùng để đào tạo AI. Bằng cách phá vỡ mẫu, bạn có thể có được đầu ra hữu ích và thú vị hơn nhiều. Cách đơn giản nhất để làm điều đó là cung cấp ngữ cảnh và ràng buộc. Nó có thể giúp cho hệ thống biết nó là "ai" vì điều đó cho nó góc nhìn. Đóng vai là giảng viên dạy MBA sẽ cho ra kết quả khác so với đóng vai một chú hề diễn xiếc. Điều này không phải là ma thuật - bạn không thể bảo nó đóng vai Bill Gates để nhận được lời khuyên kinh doanh tốt hơn - nhưng nó có thể giúp tạo văn phong và hướng đi phù hợp với mục đích của bạn. Lời khuyên về chú hề thật tuyệt vời. Sau đó, hãy bổ sung ràng buộc. Bạn có thể thêm các phong cách như viết theo phong cách của New Yorker hoặc viết theo phong cách thông thường. Bạn có thể yêu cầu nó tránh lặp lại hoặc viết bài phù hợp trình độ học sinh lớp 10. Bạn sẽ thấy một số phương pháp này hiệu quả hơn các phương pháp khác trong các ngữ cảnh khác nhau, và khó biết trước các nào sẽ hiệu quả, vì vậy hãy thực nghiệm. Bạn cũng nên cung cấp các dữ liệu khác mà bạn có. Đối với ChatGPT-4, bạn có thể cung cấp cho nó một số thông tin khá lớn. Ví dụ, cung cấp cho nó vài đoạn văn bạn đã viết và yêu cầu nó viết theo phong cách trong các đoạn văn dưới đây, bạn có thể viết ___. Hoặc bạn có thể đổ vào các đoạn văn bản (đương nhiên là không vi phạm bản quyền) của các bài báo khoa học để nó xử lý, ví dụ tóm tắt hoặc mở rộng. Bạn có thể dán nhiều văn bản vào ChatGPT. Bạn có thể sử dụng Bing (trong chế độ sáng tạo, đó là GPT-4, nhưng được kết nối với internet) để tìm kiếm thông tin bằng cách chỉ cần hỏi Tìm kiếm dữ liệu về __ hoặc Đầu tiên, tìm kiếm ___. Thanh Sidebarcủa Bing cũng có khả năng đọc các tài liệu mà bạn đang xem trên trình duyệt Edge, vì vậy bạn có thể yêu cầu thanh sidebar xử lý thông tin trong trình duyệt. Một lần nữa, bạn đang giúp định hướng cho phần mềm để nó dự đoán tốt hơn, và kết quả có thể sẽ tốt hơn nhiều nếu bạn cung cấp nhiều ràng buộc hơn. Lập trình bằng ngôn ngữ thông thường Đối với các prompt phức tạp hơn, hãy tưởng tượng bạn lập trình bằng tiếng Anh. Bạn có thể đưa ra các chỉ thị cho AI và trong nhiều trường hợp nó sẽ chấp nhận. Trong nhiều trường hợp chứ không phải mọi trường hợp vì có rất nhiều yếu tố ngẫu nhiên liên quan đến đầu ra của AI, vì vậy kết quả đầu ra có thể sẽ không nhất quán như dùng Excel. Điều đó đòi hỏi bạn viết prompt phải rất rõ ràng và logic cho AI hiểu. Trong các nghiên cứu về cách tốt nhất để "lập trình" một LLM, có một cách hiệu quả là đưa cho AI các câu lệnh rõ ràng và chi tiết từng bước về những điều bạn muốn thực hiện. Một phương pháp, được gọi là Chain of Thought prompting (chuỗi tư duy), cho AI một ví dụ về cách bạn muốn nó suy luận trước khi bạn đưa ra yêu cầu, như bạn có thể thấy trong hình minh họa từ bài báo. Bạn cũng có thể cung cấp hướng dẫn thực hiện từng bước, giúp bạn kiểm tra đầu ra của từng bước dễ dàng hơn (giúp bạn tinh chỉnh prompt sau này), và điều này giúp tạo đầu ra chính xác hơn. Đây là một ví dụ: ChatGPT thông thường rất tệ trong việc tạo ra các câu đố và kịch bản thú vị để đố vui, vì kết quả quá dễ hoặc quá khó. Nhưng nếu chúng ta viết yêu cầu rõ ràng và từng bước về những gì chúng ta muốn, kết quả sẽ tốt hơn nhiều: Bạn là một người chơi lão luyện. Nhiệm vụ của bạn là đưa ra những thử thách thú vị cho người chơi giải đáp. Hãy mô tả một tình huống giả tưởng đầy thử thách và thú vị để tôi giải quyết. Bạn sẽ sử dụng định dạng sau để giúp tạo ra một loạt các phản hồi. Chain of thought: [Bước 1]: Chọn tình huống, sáng tạo và sinh động và không dùng phong cách giả tưởng chung chung. Tình huống có thể liên quan đến chiến đấu, một cái bẫy, hoặc một câu đố xếp hình (puzzle). Tình huống không được liên quan đến đố vui (riddles). Yêu cầu phải có giải pháp cho tình huống. Để tìm ra giải pháp cần tư suy sáng tạo. Viết giải pháp trong ngoặc vuông [] [Bước 2]: Chọn cảnh. Người chơi cần có được khả năng giải quyết tình huống dựa trên các mô tả. Giải pháp phải không quá dễ đoán và đòi hỏi tư duy sáng tạo dựa trên cảnh. Hãy tạo ra nhiều giải pháp sai nhưng có vẻ hợp lý. Mô tả chi tiết giải pháp đúng và mô tả các giải pháp sai, cũng như cách tìm giải pháp đúng trong ngoặc vuông [] [Bước 3]: Mô tả tình huống và cảnh, sinh động và độc đáo. Phải có manh mối cho giải pháp và trong mô tả phải có các manh mối sai cho câu trả lời sai, các manh mối sai này phải có vẻ đáng tin cậy. Không mô tả giải pháp hoặc vấn đề trực tiếp. Không mô tả cách giải quyết vấn đề trong bước này. Không tiết lộ các manh mối sai là sai. Để bắt đầu hãy tự giới thiệu và đi qua từng bước theo thứ tự. Hình ảnh Một lần nữa, không có mẫu prompt duy nhất ở đây. Bạn cần thử nghiệm nhiều prompt nhiều lần để có được một câu trả lời tốt, nhưng có một nghệ thuật mà bạn có thể học nếu thực hành đủ lâu. Một chút ma thuật Thực ra tôi đã nói dối một chút về "không-có-prompt-thần-thánh". Có một số cụm từ dường như hiệu quả trên các LLM trong việc cung cấp kết quả tốt hơn hoặc khác nhau, một lần nữa, bằng cách thay đổi ngữ cảnh của câu trả lời. Một số điều có thể thử nghiệm: Sáng tạo / giả định bất kỳ điều gì bạn cần. Điều này sẽ giúp các mô hình AI trả lời sáng tạo hơn. Mô tả cách hoạt động / cung cấp nguồn / đi từng bước. AI sẽ bịa ra các thông tin mà nó truy cập được. Có một số bằng chứng cho thấy yêu cầu nó mô tả cách hoạt động của nó hoặc nguồn tin giúp giảm thiểu rủi ro đó một chút. Ngay cả khi không thể, điều này cũng giúp cho việc kiểm tra kết quả dễ dàng hơn. Viết mã cho tôi và cho tôi biết cách sử dụng nó. Nếu bạn không thể viết mã, bây giờ bạn có thể viết được. AI có thể làm một số điều kỳ diệu với các chương trình Python và cho bạn biết chính xác cách chạy nó. Tôi không biết lập trình, nhưng tôi đã viết mười hai chương trình Python trong tháng qua. Nếu có lỗi trong mã, và có thể sẽ có, hãy đưa cho AI sửa. Viết nháp / cho ví dụ. Nếu AI từ chối làm điều gì đó ("bạn nên tự viết tiểu thuyết của bạn, tôi không thể giúp đỡ"), đôi khi yêu cầu nó cung cấp một cái gì đó giống như bản nháp có thể khiến nó tạo ra kết quả. Bí mật là thực hành. Điều tốt nhất bạn có thể làm để học cách viết prompt tốt hơn là thực hành viết prompt. Hãy sử dụng AI. Hãy sử dụng thật nhiều. Hãy tìm hiểu những gì nó có thể làm và những gì nó không thể. Hãy đối thoại với AI để yêu cầu nó trả lời đúng ý bạn. Chờ đã, kết quả không rõ ràng như tôi muốn. Từ từ. Bing, bạn có thể giúp được không? Như tôi đã nói: Viết prompt là một kỹ năng có thể học và cải thiện qua thực hành. Cách tốt nhất để học là sử dụng AI làm đối tác và giáo viên của bạn. Thử nghiệm với các loại prompt khác nhau và xem AI phản hồi như thế nào. Đối thoại với AI và đặt câu hỏi, đưa cho nó phản hồi và thách nó làm tốt hơn. Tìm hiểu những gì kích hoạt sự sáng tạo của AI và những gì giới hạn của nó. Bạn sẽ sớm phát triển phong cách và kỹ thuật riêng của mình để làm cho bạn trở thành người tạo prompt hiệu quả hơn. Và hãy nhớ, AI đang học hỏi, vì vậy hãy cập nhật các thông tin và xu hướng mới nhất trong lĩnh vực này. Có nhiều điều mới mới mà bạn có thể khám phá. Một điều nữa: đừng nản lòng nếu một prompt không hiệu quả như mong đợi. Đầu ra của AI có một chút ngẫu nhiên , và đôi khi bạn sẽ cần sử dụng nút "xóa" để bắt đầu một cuộc trò chuyện mới. Đó cũng là một phần của quá trình học tập.
20 Jobs that AI is Expected to Generate:
No.
Job Title
Brief Description
1.
AI Trainer
Professionals who teach AI systems to perform tasks, understand context, and improve over time.
2.
AI Ethics Officer
Experts who ensure AI applications align with ethical and legal standards, and prevent biases.
3.
AI Data Analyst
Specialists in analyzing the large datasets used to train AI models and optimize their performance.
4.
AI Integration Specialist
Technicians who integrate AI solutions into existing systems and ensure seamless functionality.
5.
AI Security Expert
Professionals focused on safeguarding AI systems from cyber threats and ensuring data privacy.
6.
AI Hardware Engineer
Engineers who design and develop hardware components optimized for AI processing and performance.
7.
AI User Experience Designer
Designers who create intuitive and user-friendly interfaces for AI-driven products and services.
8.
AI Policy Advisor
Experts who advise governments and organizations on AI policies, regulations, and ethical considerations.
9.
AI Healthcare Specialist
Medical professionals who utilize AI tools for diagnostics, treatment planning, and personalized medicine.
10.
AI Content Creator
Creatives who use AI tools to generate written, visual, or audio content for various platforms.
11.
AI Customer Service Agent
Human agents who collaborate with AI chatbots to provide personalized and efficient customer support.
12.
AI Sales and Marketing Strategist
Professionals who leverage AI tools to optimize sales and marketing efforts, targeting, and personalization.
13.
AI Finance Analyst
Financial experts who use AI-driven insights to make investment decisions and optimize financial strategies.
14.
AI-powered Robot Technician
Technicians who maintain and repair AI-powered robots used in industries such as manufacturing or logistics.
15.
AI Education Specialist
Educators who use AI tools to create personalized learning experiences and improve educational outcomes.
16.
AI Transportation Planner
Urban planners who incorporate AI-driven solutions to optimize transportation infrastructure and systems.
17.
AI Legal Consultant
Legal experts who help clients navigate the complex landscape of AI-related regulations and intellectual property.
18.
AI Talent Acquisition Specialist
HR professionals who utilize AI tools to streamline recruitment processes and identify top candidates.
19.
AI Quality Assurance Tester
Testers who evaluate AI systems to ensure they meet performance, reliability, and safety standards.
20.
AI Research Scientist
Scientists who develop new AI algorithms, techniques, and applications across various industries.
Số
Chức danh
Mô tả
1.
Nhà đạo tạo AI
Chuyên gia giảng dạy cho các hệ thống AI thực hiện nhiệm vụ, hiểu ngữ cảnh và cải thiện hiệu suất làm việc cho AI.
2.
Chuyên viên Đạo đức AI
Chuyên gia đảm bảo ứng dụng AI tuân thủ đạo đức và tiêu chuẩn pháp lý, và ngăn ngừa thiên kiến.
3.
Chuyên gia phân tích dữ liệu AI
Chuyên gia phân tích các tập dữ liệu lớn được sử dụng để huấn luyện mô hình AI và tối ưu hiệu suất của chúng.
4.
Chuyên gia tích hợp AI
Kỹ thuật viên tích hợp các giải pháp AI vào các hệ thống hiện có và đảm bảo tính liên tục.
5.
Chuyên gia bảo mật AI
Chuyên gia tập trung bảo vệ các hệ thống AI khỏi các mối đe dọa mạng và đảm bảo quyền riêng tư của dữ liệu.
6.
Kỹ sư phần cứng AI
Kỹ sư thiết kế và phát triển các thành phần phần cứng được tối ưu hóa cho xử lý và hiệu suất AI.
7.
Nhà thiết kế Trải nghiệm người dùng AI
Nhà thiết kế tạo ra các giao diện trực quan và thân thiện với người dùng cho các sản phẩm và dịch vụ được điều khiển bởi AI.
8.
Cố vấn Chính sách AI
Chuyên gia cố vấn cho chính phủ và tổ chức về chính sách, quy định và những yếu tố đạo đức liên quan đến AI.
9.
Chuyên gia Y tế AI
Chuyên gia y tế sử dụng các công cụ AI cho chẩn đoán, lập kế hoạch điều trị và chăm sóc sức khỏe theo nhu cầu của từng cá nhân.
10.
Nhà sáng tạo Nội dung AI
Những người sáng tạo sử dụng các công cụ AI để tạo ra nội dung viết, hình ảnh hoặc âm thanh cho các nền tảng khác nhau.
11.
Nhân viên Chăm sóc khách hàng AI
Nhân trò chuyện chatbot AI để cung cấp hỗ trợ khách hàng hiệu quả và theo nhu cầu của từng cá nhân khách hàng.
12.
Chiến lược gia Bán hàng và Tiếp thị AI
Chuyên gia tận dụng các công cụ AI để tối ưu hóa việc bán hàng và tiếp thị, nhắm mục tiêu và cá nhân hóa.
13.
Chuyên gia Phân tích Tài chính AI
Chuyên gia tài chính sử dụng các thông tin do AI cung cấp để đưa ra quyết định đầu tư và tối ưu hóa các chiến lược tài chính.
14.
Kỹ thuật viên điều khiển Robot được trang bị AI
Kỹ thuật viên duy trì và sửa chữa các robot được trang bị AI được sử dụng trong các ngành như sản xuất hoặc logistics.
15.
Chuyên gia Giáo dục AI
Giáo viên sử dụng các công cụ AI để tạo ra các trải nghiệm học tập cá nhân hóa và cải thiện kết quả giáo dục.
16.
Kỹ sư Hoạch định Giao thông AI
Kỹ sư đô thị tích hợp các giải pháp được AI hỗ trợ để tối ưu hóa cơ sở hạ tầng và hệ thống giao thông.
17.
Tư vấn Luật AI
Chuyên gia pháp lý giúp khách hàng xử lý các tình huống phức tạp về pháp lý liên quan đến AI và sở hữu trí tuệ.
18.
Chuyên gia Tuyển dụng AI
Chuyên gia nhân sự sử dụng các công cụ AI để tối ưu hóa quy trình tuyển dụng và xác định ứng viên chất lượng.
19.
Kiểm định Chất lượng AI
Người kiểm tra đánh giá các hệ thống AI để đảm bảo chúng đáp ứng các tiêu chuẩn về hiệu suất, độ tin cậy và an toàn.
20.
Nhà khoa học Nghiên cứu AI
Các nhà khoa học phát triển các thuật toán, kỹ thuật và ứng dụng AI mới trong nhiều ngành công nghiệp khác nhau.
 
ChatGPT destroying jobs is a good thing
For the first time, all labor market echelons simultaneously fear losing their jobs due to a new technology, and not just a small minority of “luddites.” The good news is that this offers humanity the chance to enter a new vision for daily life, where toiling in the workplace is consigned to history textbooks. The key is getting politics right: the fruits of this new expansive technology must be shared with everyone, though not necessarily equally.
For the latest headlines, follow our Google News channel online or via the app.
In medieval Europe, around 90 percent of the population was employed in farming. Moreover, these jobs were objectively horrible: long hours, zero sick leave, a high likelihood of workplace injuries, and mind-numbing tasks. The only virtue was working outside – assuming the weather was good. To cap it off, laboring in the fields all day was still insufficient for avoiding starvation, as the threat of failed harvests and exploitative landlords always loomed large.
Today, thanks to dramatic technological improvements, the European agricultural sector accounts for less than five percent of the workforce, and there’s more than enough food for every mouth. The descendants of the wretches who toiled from dawn until dusk now have wonderful jobs – relatively speaking – whether in terms of wages or task quality. While extreme poverty persists today, the average 21st century person lives a much better life than arguably even a medieval baron, let alone a typical serf.
The point of this vignette is that everyone losing their job due to technological progress is potentially a great thing as long as two conditions are met. First, the technology has to be productivity-enhancing, meaning that we can produce more goods and services to consume. Second, virtually everyone ends up better off than under the old system.
In the case of ChatGPT, everyone is staring down the barrel: doctors, lawyers, management consultants, programmers, data scientists, and so on. We could witness a transition as stunning as the slow-baked agricultural revolution witnessed over the last five centuries, whereby only a small fraction of existing jobs persists into the future.
Crucially, this development will be fundamentally productivity-improving: when a company lays off its salesperson or marketing executive because ChatGPT can do the job adequately, this means that we are producing approximately the same output as before in exchange for the small amount of electricity it takes to power the computer, and without the hours of human work. That’s basically a good thing.
You are probably asking yourself two questions: how will these people earn a living? And even if they secure a government handout, how will they derive meaning from life without a job? For the first, this is a political problem that we need to solve. Fortunately, it’s not too hard: the most intractable political conundrum are the ones that involve managing a shrinking pie, and seeing who will have to accept the biggest haircut.
Coming up with rules that ensure that everyone benefits from a growing pie is eminently feasible, if we can have a sensible societal dialogue. That means two groups of crazies must be kept at bay.
First, the insatiable narcissists who might be in a position to appropriate all of the benefits of artificial intelligence and want to exclude the masses as part of a grand social Darwinism purge. They must learn to accept that everyone deserves to live a dignified life.
Second, the hyper-egalitarians who would rather burn the entire system down than let a few people get super rich, even if everyone else is still way better off than before. We must be mature enough to control our primitive sense of envy.
However, an effective system of redistributive taxation may be insufficient for social harmony if we can’t find jobs for the 95 percent made redundant by ChatGPT, as they are forced to suffer the indignity of living off government handouts in perpetuity. There are two ways of dealing with this threat.
The first is that we might find jobs for them, just like we did for all of the serfs who used to literally break their backs working on 13th century farms. Lots of labor-saving technologies in the past have spawned new jobs: ATMs transformed bank tellers into financial advisors, and telecommunications transformed messengers into phone technicians.
Should ChatGPT terminally end the need for jobs, we can take the second path, which is to learn to get meaning from life without having a job. Humans have an innate need to feel productive, but does it really need to be the eight-hour job that most of us hate? With a guaranteed minimum income, we are free to volunteer for the causes we are passionate about, to produce expressive art, to socialize, to pray, to read, and so on. We can even spend more time with our children! To me, the prospect of being free is thrilling. Life is about the relationships we build, not the computers we stare at to make sure we have food on our tables.
A final neurosis is the fear that the oligarchs who control these advanced technologies might enslave the rest of humanity. I don’t think this is realistic because if technology is good enough to make us all lose our jobs, it won’t even be worth subjugating humans. Androids will be able to deliver every service that a human could desire, with higher quality, and without the need to worry about coercing the human and keeping them in line.
As an illustration, we can enslave virtually every animal. When our technology was primitive, beasts of burden were forced into labor, pulling plows, and transporting humans. Now, unless you are a veritable equinophile, the effort it takes to get a horse to be your steed is too high compared to the cost of hailing a taxi or buying a car, and so the horse is free from your bondage.
It may seem demeaning to think that your labor is so inferior in quality to a robot’s that it’s not even worth forcing you to work against your will, but that still sounds better than the job that most of us have at present. We should learn to cherish our freedom, like the animals we sneer at. The development of ChatGPT may be the biggest act of emancipation humans ever experience.
 
For the first time, all labor market echelons simultaneously fear losing their jobs due to a new technology, and not just a small minority of “luddites.” The good news is that this offers humanity the chance to enter a new vision for daily life, where toiling in the workplace is consigned to history textbooks. The key is getting politics right: the fruits of this new expansive technology must be shared with everyone, though not necessarily equally. For the latest headlines, follow our Google News channel online or via the app. In medieval Europe, around 90 percent of the population was employed in farming. Moreover, these jobs were objectively horrible: long hours, zero sick leave, a high likelihood of workplace injuries, and mind-numbing tasks. The only virtue was working outside – assuming the weather was good. To cap it off, laboring in the fields all day was still insufficient for avoiding starvation, as the threat of failed harvests and exploitative landlords always loomed large. Today, thanks to dramatic technological improvements, the European agricultural sector accounts for less than five percent of the workforce, and there’s more than enough food for every mouth. The descendants of the wretches who toiled from dawn until dusk now have wonderful jobs – relatively speaking – whether in terms of wages or task quality. While extreme poverty persists today, the average 21st century person lives a much better life than arguably even a medieval baron, let alone a typical serf. The point of this vignette is that everyone losing their job due to technological progress is potentially a great thing as long as two conditions are met. First, the technology has to be productivity-enhancing, meaning that we can produce more goods and services to consume. Second, virtually everyone ends up better off than under the old system. In the case of ChatGPT, everyone is staring down the barrel: doctors, lawyers, management consultants, programmers, data scientists, and so on. We could witness a transition as stunning as the slow-baked agricultural revolution witnessed over the last five centuries, whereby only a small fraction of existing jobs persists into the future. Crucially, this development will be fundamentally productivity-improving: when a company lays off its salesperson or marketing executive because ChatGPT can do the job adequately, this means that we are producing approximately the same output as before in exchange for the small amount of electricity it takes to power the computer, and without the hours of human work. That’s basically a good thing. You are probably asking yourself two questions: how will these people earn a living? And even if they secure a government handout, how will they derive meaning from life without a job? For the first, this is a political problem that we need to solve. Fortunately, it’s not too hard: the most intractable political conundrum are the ones that involve managing a shrinking pie, and seeing who will have to accept the biggest haircut. Coming up with rules that ensure that everyone benefits from a growing pie is eminently feasible, if we can have a sensible societal dialogue. That means two groups of crazies must be kept at bay. First, the insatiable narcissists who might be in a position to appropriate all of the benefits of artificial intelligence and want to exclude the masses as part of a grand social Darwinism purge. They must learn to accept that everyone deserves to live a dignified life. Second, the hyper-egalitarians who would rather burn the entire system down than let a few people get super rich, even if everyone else is still way better off than before. We must be mature enough to control our primitive sense of envy. However, an effective system of redistributive taxation may be insufficient for social harmony if we can’t find jobs for the 95 percent made redundant by ChatGPT, as they are forced to suffer the indignity of living off government handouts in perpetuity. There are two ways of dealing with this threat. The first is that we might find jobs for them, just like we did for all of the serfs who used to literally break their backs working on 13th century farms. Lots of labor-saving technologies in the past have spawned new jobs: ATMs transformed bank tellers into financial advisors, and telecommunications transformed messengers into phone technicians. Should ChatGPT terminally end the need for jobs, we can take the second path, which is to learn to get meaning from life without having a job. Humans have an innate need to feel productive, but does it really need to be the eight-hour job that most of us hate? With a guaranteed minimum income, we are free to volunteer for the causes we are passionate about, to produce expressive art, to socialize, to pray, to read, and so on. We can even spend more time with our children! To me, the prospect of being free is thrilling. Life is about the relationships we build, not the computers we stare at to make sure we have food on our tables. A final neurosis is the fear that the oligarchs who control these advanced technologies might enslave the rest of humanity. I don’t think this is realistic because if technology is good enough to make us all lose our jobs, it won’t even be worth subjugating humans. Androids will be able to deliver every service that a human could desire, with higher quality, and without the need to worry about coercing the human and keeping them in line. As an illustration, we can enslave virtually every animal. When our technology was primitive, beasts of burden were forced into labor, pulling plows, and transporting humans. Now, unless you are a veritable equinophile, the effort it takes to get a horse to be your steed is too high compared to the cost of hailing a taxi or buying a car, and so the horse is free from your bondage. It may seem demeaning to think that your labor is so inferior in quality to a robot’s that it’s not even worth forcing you to work against your will, but that still sounds better than the job that most of us have at present. We should learn to cherish our freedom, like the animals we sneer at. The development of ChatGPT may be the biggest act of emancipation humans ever experience.
Đây là ần đầu tiên, tất cả các ngành nghề thị trường lao động đều sợ mất việc do công nghệ mới, chứ không chỉ một số nhỏ những "luddites" (thợ dệt thủ công thế kỷ 19 đập phá máy dệt). Tin tốt là điều này mang lại cơ hội cho nhân loại có cái nhìn mới về cuộc sống hàng ngày nơi cuộc vật lộn mưu sinh sẽ đi vào sách giáo khoa lịch sử. Chìa khóa của cuộc cách mạng là có chính sách đúng đắn: tất cả mọi người phải được hưởng thành quả của công nghệ mới này nhưng không nhất thiết phải đều như nhau. Ở châu Âu thời trung cổ, khoảng 90% dân số đã làm việc trong nông nghiệp. Đây là những công việc cơ cực: giờ làm việc dài, ốm đau không có ngày nghỉ, dễ bị thương tích khi làm việc và công việc nhàm chán. Điều duy nhất có giá trị là làm việc ngoài trời - nếu thời tiết đẹp. Tuy vậy, làm việc trên cánh đồng cả ngày vẫn chưa đủ để hết đói, vì luôn rình rập nguy cơ mất mùa và địa chủ bóc lột. Ngày nay, nhờ tiến bộ công nghệ đầy ấn tượng, ngành nông nghiệp châu Âu chỉ chiếm dưới 5% lực lượng lao động, mà vẫn tạo ra đủ thực phẩm cho mọi người. Con cháu của những người nông dân khốn khổ làm việc như trâu ngựa sớm khuya rên cách đồng bây giờ có các công việc tuyệt vời - nói một cách so sánh - về mức lương hoặc chất lượng công việc. Mặc dù tình trạng đói nghèo vẫn tồn tại ngày nay, ở thế kỷ 21 một người có thu nhập trung bình có thể có một cuộc sống tốt hơn nhiều so với một quý tộc thời trung cổ, chứ chưa nói đến một nông dân bình thường. Mục đích của câu chuyện lịch sử này là mất việc làm do tiến bộ công nghệ có thể là một điều tuyệt vời nếu thỏa mãn hai điều kiện sau đây. Thứ nhất, công nghệ phải nâng cao năng suất lao động, có nghĩa là chúng ta có thể sản xuất nhiều hàng hóa và dịch vụ để tiêu thụ. Thứ hai, hầu hết mọi người đều được hưởng lợi hơn so với hệ thống cũ. Trong trường hợp của ChatGPT, tất cả mọi người đều đang đối mặt với nguy cơ bị thay thế: bác sĩ, luật sư, nhà tư vấn quản lý, lập trình viên, nhà khoa học dữ liệu... Chúng ta có thể chứng kiến một cuộc chuyển dịch đáng kinh ngạc như cuộc cách mạng nông nghiệp diễn ra từ từ trong suốt năm thế kỷ qua, trong đó chỉ một phần nhỏ các công việc hiện nay sẽ còn được duy trì trong tương lai. Vấn đề quan trọng là sự phát triển này sẽ cải thiện năng suất một cách triệt để: khi một công ty sa thải nhân viên bán hàng hoặc giám đốc tiếp thị vì ChatGPT có khả năng làm việc này tốt, điều này có nghĩa là kết quả như trước nhưng chi phí thấp hơn (điện năng cho máy tính, và không cần lao động của con người). Đó thực sự là điều tốt. Bạn có thể tự hỏi hai câu hỏi: những người này sẽ kiếm sống như thế nào? Và ngay cả khi họ có được tiền trợ cấp từ chính phủ, họ sẽ tìm thấy ý nghĩa cuộc sống như thế nào nếu không có việc làm? Đối với câu hỏi đầu tiên, đây là một vấn đề chính trị cần giải quyết. May mắn thay, điều này không quá khó: các câu hỏi chính trị khó giải quyết nhất là những câu hỏi liên quan đến việc chia một chiếc bánh bị thu nhỏ, và tìm ra ai sẽ phải chấp nhận thua thiệt. Việc đưa ra các quy tắc đảm bảo mọi người được hưởng lợi từ một chiếc bánh lớn hơn là hoàn toàn khả thi, nếu chúng ta có thể có một cuộc đối thoại xã hội hợp lý. Điều đó có nghĩa là hai nhóm người sau đây phải được canh chừng. Đầu tiên, những kẻ ích kỷ tham lam vô độ muốn giành lấy tất cả lợi ích của trí tuệ nhân tạo và loại bỏ những người khác trong một cuộc thanh lọc kiểu Darwin xã hội trên quy mô lớn. Những người này phải học cách chấp nhận rằng mọi người đều xứng đáng được sống một cuộc sống có phẩm giá. Thứ hai, những người theo chủ nghĩa bình đẳng cực đoan muốn thiêu hủy toàn bộ hệ thống thay vì để sót một vài người giàu, ngay cả khi tất cả mọi người khác vẫn có cuộc sống tốt hơn trước đây. Chúng ta phải đủ trưởng thành để kiểm soát cảm giác ghen tị bản năng của mình. Tuy nhiên, một hệ thống chính sách tái phân phối thu nhập có thể không đủ để đảm bảo sự hài hòa xã hội nếu chúng ta không thể tìm được việc làm cho 95% người bị ChatGPT thay thế, khi họ bị buộc phải chịu đựng sự nhục nhã do mãi mãi sống dựa vào trợ cấp chính phủ. Có hai cách để đối phó với mối đe dọa này. Thứ nhất là chúng ta có thể tìm được việc làm cho họ, giống như chúng ta đã làm với tất cả những nông nô làm như trâu ngựa trong các trang trại thế kỷ 13. Nhiều công nghệ tiết kiệm sức lao động trong quá khứ đã tạo ra các công việc mới: máy rút tiền tự động biến nhân viên ngân hàng thành nhà tư vấn tài chính, và viễn thông biến người làm nghề mõ thành kỹ thuật viên điện thoại. Nếu ChatGPT hoàn toàn triệt tiêu nhu cầu tuyển lao động, chúng ta có thể lựa chọn con đường thứ hai, đó là học cách tìm được ý nghĩa trong cuộc sống mà không cần phải có việc làm. Nhu cầu bẩm sinh của con người là lao động, nhưng chúng ta có thật sự cần phải làm điều hầu hết chúng ta chán ghét đó là làm việc tám giờ mỗi ngày? Với một thu nhập tối thiểu được đảm bảo, chúng ta có thể tự do theo đuổi đam mê, sáng tạo nghệ thuật, giao tiếp, cầu nguyện, đọc sách, và nhiều hơn nữa. Chúng ta có thể dành thời gian nhiều cho con cái! Đối với tôi, triển vọng được sống tự do làm điều mình muốn là một điều sung sướng. Cuộc sống là xây dựng các mối quan hệ không phải là những chiếc máy tính để đau đáu chờ nó mang thức ăn tới. Cuối cùng là nỗi sợ rằng các ông chủ kiểm soát các công nghệ tiên tiến này có thể biến phần còn lại của nhân loại thành nô lệ. Tôi nghĩ điều này là không thực tế vì nếu công nghệ tốt đến mức làm thay việc của chúng ta, thì việc biến con người thành nô lệ là nhằm mục đích gì? Robot sẽ có thể cung cấp mọi dịch vụ mà con người mong muốn, với chất lượng cao hơn, và không cần phải lo lắng về việc áp chế con người. Hãy tưởng tượng chúng ta có thể biến gần như tất cả các loài động vật thành nô lệ. Khi công nghệ còn nguyên thủy, các loài thú bị ép buộc lao động, kéo cày và vận chuyển con người. Bây giờ, trừ khi bạn là một người thích cưỡi ngựa, chi phí mua một con ngựa để cưỡi vượt quá xa so với chi phí gọi taxi hoặc mua một chiếc ô tô, vì vậy con ngựa được giải phóng khỏi chế độ nô lệ của bạn. Có thể có vẻ như là sỉ nhục khi nghĩ rằng lao động của bạn thấp hơn chất lượng của một robot đến nỗi không đáng để cưỡng bách bạn làm việc, nhưng có vẻ vẫn tốt hơn công việc mà hầu hết chúng ta đang làm hiện nay. Chúng ta nên học cách trân trọng sự tự do của mình, giống như những con vật chúng ta khinh thường. Phát triển của ChatGPT có thể là cách mạng giải phóng lớn nhất mà con người từngcó trong lịch sử.
Automation to create not destroy jobs, say firms
 
EY can boast of hiring more data scientists than Google in 2016. The move by a traditional professional services firm to take on staff with a skillset more commonly found in Silicon Valley comes as new technologies — including artificial intelligence — begin to reshape the way companies are audited. But fears that automation of the audit process will lead to big staff cuts in the future — and even the death of the accountant — are unfounded, says Mark Weinberger, EY’s global chairman and chief executive. Instead, it may attract a new type of tech-savvy auditor, versed in data analytics or computer science. “In the short term, the rate of hiring might slow down,” he says. “But in the long term, with more technologies to operate, it will pick up.” As a result, the Big Four — among the largest employers of graduates globally — are building relationships with both the tech world and academia in an attempt to target the right staff. “Firms are spending a lot on this, they are gearing up to this and starting to change their in-house training and their employment base,” says Rachel Grimes, president at International Federation of Accountants. EY says it is visiting campuses of the world’s top universities for engineering to seek out graduates. PwC, which hired its first “artificial intelligence leader” in May, will this year open applications for a four-year technology apprenticeship where students will work at the business and undertake a computer science degree at Birmingham or Leeds university. Deloitte has hired new types of employees from larger tech players, but also smaller start-ups, says Katie Houldsworth, audit partner at the firm. Much of the repetitive administrative work that tends to be given to entry-level employees will eventually be automated. But there is some concern that these tasks help junior staff to understand the business better. Staff will probably spend less time out on site with clients in future, says Ms Houldsworth. “This learning process today is the most likely area to get replaced by technology,” says Jon Andrews, head of technology and investments at PwC in the UK. In response, firms will have to develop new intense training environments.
EY có thể tự hào về việc thuê nhiều nhà khoa học dữ liệu hơn Google vào năm 2016. Việc một công ty dịch vụ chuyên nghiệp truyền thống thuê nhân viên với kỹ năng thường được tìm thấy ở Silicon Valley diễn ra khi các công nghệ mới, bao gồm trí tuệ nhân tạo, bắt đầu thay đổi phương pháp kiểm toán các công ty. Nhưng các lo ngại rằng việc tự động hóa quá trình kiểm toán sẽ dẫn đến việc cắt giảm nhân sự lớn trong tương lai - và thậm chí là đánh dấu chấm hết nghề kế toán - là không có cơ sở, theo Mark Weinberger, chủ tịch và giám đốc điều hành toàn cầu của EY. Thay vào đó, nó có thể thu hút một loại kiểm toán viên mới, thông thạo phân tích dữ liệu hoặc khoa học máy tính. “Trong thời gian ngắn, tốc độ tuyển dụng có thể chậm lại,” ông nói. “Nhưng trong dài hạn, khi cần sử dụng nhiều công nghệ như cầu sẽ tăng lên.” Do đó, Big Four - thuộc nhóm các nhà tuyển dụng sinh viên tốt nghiệp lớn nhất trên toàn cầu - đang xây dựng mối quan hệ với cả thế giới công nghệ và giới học thuật nhằm mục tiêu tìm kiếm nhân sự phù hợp. “Các công ty đang chi nhiều tiền để chuẩn bị cho việc này và bắt đầu thay đổi chương trình đào tạo nội bộ và nhân sự của họ”, Rachel Grimes, chủ tịch Liên đoàn Kế toán Thế giới nói. EY nói rằng họ đang tiếp cận các trường đại học hàng đầu thế giới về kỹ thuật để tìm kiếm sinh viên vừa tốt nghiệp. PwC đã thuê nhân sự "lãnh đạo trí tuệ nhân tạo" đầu tiên của mình vào tháng 5. Công ty sẽ nhận ứng viên cho chương trình thực tập bốn năm về công nghệ trong đó sinh viên sẽ làm việc tại doanh nghiệp và theo học chương trình đào tạo khoa học máy tính tại Đại học Birmingham hoặc Leeds. Deloitte đã thuê nhân viên mới từ các công ty công nghệ lớn và cả các công ty khởi nghiệp nhỏ, Katie Houldsworth, đối tác kiểm toán tại công ty cho biết. Hầu hết các công việc hành chính lặp đi lặp lại vốn được giao cho nhân viên mới sẽ được tự động hóa. Nhưng có một số quan ngại rằng những nhiệm vụ này giúp nhân viên mới hiểu về doanh nghiệp tốt hơn. Trong tương lai nhân viên kiểm toán sẽ có thể sẽ ít làm việc tại công ty khách hàng , bà Houldsworth nói. "Giai đoạn học việc này là mảng có khả năng bị thay thế bởi công nghệ," Jon Andrews, trưởng phòng công nghệ và đầu tư của PwC tại Vương quốc Anh nói. Để bù đắp việc này, các công ty sẽ phải tạo ra môi trường đào tạo mới.
The end of coding as we know it
ChatGPT has come for software developers
When ChatGPT was released to the world in November, most of us marveled at its ability to write rap lyrics and cover letters and high-school English essays. But Adam Hughes, a software developer, was intrigued by artificial intelligence's much-ballyhooed aptitude for writing code. So he signed up for an account and asked ChatGPT to program a modified tic-tac-toe game, giving the game some weird rules so the bot couldn't just copy code that another human had already written. Then he quizzed it with the kind of coding questions he asks candidates in job interviews.
Whatever he threw at it, Hughes found that ChatGPT came back with something he wasn't prepared for: very good code. It didn't take him long to wonder what this meant for a career he loved — one that had thus far provided him with not only a good living and job security, but a sense of who he is. "I never thought I would be replaced in my job, ever, until ChatGPT," he says. "I had an existential crisis right then and there. A lot of the knowledge that I thought was special to me, that I had put seven years into, just became obsolete."
Coding, as an occupation, has long been considered a haven from the relentless advance of technology. Even as new gizmos replaced other jobs, the people who wrote the instructions for the machines felt untouchable. Universities rushed to expand their computer-science programs. Policymakers scrambling to futureproof the workforce stuck to one unwavering message: Learn to code! But in recent weeks, behind closed doors, I've heard many coders confess to a growing anxiety over the sudden advent of generative AI. Those who have been doing the automating fear they will soon be automated themselves. And if programmers aren't safe, who is?
Much has been written about how AI is coming for white-collar jobs. Researchers at OpenAI, which created ChatGPT, recently examined the degree to which large language models could perform the 19,000 tasks that make up the 1,000 occupations across the US economy. Their conclusion: 19% of workers hold jobs in which at least half their tasks could be completed by AI. The researchers also noted two patterns among the most vulnerable jobs: They require more education and come with big salaries. "We didn't think that would be the case," says Ethan Mollick, a professor of management at Wharton who studies innovation. "AI was always supposed to automate dangerous, dirty tasks — not the things we want to do."
But one white-collar skill set, the study found, is especially at risk for being automated: computer programming. The reason? Large language models like the one powering ChatGPT have been trained on huge repositories of code. Researchers at Microsoft and its subsidiary GitHub recently divided software developers into two groups — one with access to an AI coding assistant, and another without. Those assisted by AI were able to complete tasks 56% faster than the unassisted ones. "That's a big number," Mollick says. By comparison, the introduction of the steam engine in the mid-1800s boosted productivity at large factories by only 15%.
Tech companies have rushed to embrace generative AI, recognizing its ability to turbocharge programming. Amazon has built its own AI coding assistant, CodeWhisperer, and is encouraging its engineers to use it. Google is also asking its developers to try out new coding features in Bard, its ChatGPT competitor. Given the tech industry's rush to deploy AI, it's not hard to envision a near future in which we'll need half as many engineers as we have today — or, down the line, one-tenth or one-hundredth (Emad Mostaque, the CEO of Stability AI, has gone as far as predicting "there's no programmers in five years."). For better or worse, the rise of AI effectively marks the end of coding as we know it.
Now, before we dive into this doomsday scenario, let's pause for a moment and consider the case for optimism. Perhaps, as the industry's sunnier forecasts are predicting, there's enough of a demand for coding to employ both humans and AI. Sure, the arrival of the tractor threw a lot of farmers out of work. But coding isn't like farming. "There's only so much food that 7 billion people can eat," says Zachary Tatlock, a professor of computer science at the University of Washington. "But it's unclear if there's any cap on the amount of software that humanity wants or needs. One way to think about it is that for the past 50 years, we have been massively underproducing. We haven't been meeting software demand." AI, in other words, may help humans write code faster, but we'll still want all the humans around because we need as much software as they can build, as fast as they can build it. In the rosiest outlook, all the productivity gains from AI will turbocharge the demand for software, making the coders of the future even more sought after than they are today.
Another argument from the optimists: Even as AI takes over the bulk of coding, human coders will find new ways to make themselves useful by focusing on what AI can't do. Consider what happened to bank tellers after the widespread adoption of ATMs. You'd think ATMs would have destroyed the profession, but surprisingly, the number of bank tellers actually grew between 1980 and 2010. Why? Because bank tellers, one analysis found, became less like checkout clerks and more like salespeople, building relationships with customers and selling them on additional services like credit cards and loans. Similarly, Tatlock envisions a future for software engineers that involves less writing of code and more verifying of all the cheap and potentially dangerous code the machines will be generating. "You probably don't need to formally verify a widget on your website," Tatlock says, "but you probably do want to formally verify code that goes into your driving assistant in your car or manages your insulin pump." If today's programmers are writers, the thinking goes, their future counterparts will be editors and fact-checkers.
So maybe, long term, human coders will survive in some new, as-yet-to-be-determined role. But even in the best-case scenario, the optimists concede, the transition will be painful. "It is going to be the case that some people's lives are upended by this," Tatlock says. "This happens with every technological change." Some coders will inevitably be displaced, unable to adapt to the new way of doing things. And those who make the transition to the AI-driven future will find themselves performing tasks that are radically different from the ones they do today.
There's only so much food that 7 billion people can eat. But it's unclear if there's any cap on the amount of software that humanity wants or needs. Zachary Tatlock, University of Washington The first question is: In this evolutionary battle for survival, who is best positioned to adapt, and who's going to get left behind? Intuitively, you would think seasoned veterans — those who already spend less time coding and more time on abstract, higher-order, strategic thinking — would be less vulnerable to AI than someone straight out of college tasked with writing piecemeal code. But in the GitHub study, it was actually the less experienced engineers who benefited more from using AI. The new technology essentially leveled the playing field between the newbies and the veterans. In a world where experience matters less, senior engineers may be the ones who lose out, because they won't be able to justify their astronomical salaries.
Then there's the issue of job quality. The optimists assume that AI will enable us to outsource a lot of the boring, repetitive stuff to the bots, leaving us to concentrate on more intellectually stimulating work. But what if the opposite ends up happening, and AI takes on all the fun stuff? No disrespect to my colleagues in the research department, who do vital work, but I'm a writer because I love writing; I don't want my job to morph into one of fact-checking the hallucinogenic and error-prone tendencies of ChatGPT. What feels unnerving about generative AI is its capacity to perform the kind of highly skilled tasks that people enjoy most. "I really love programming," says Hughes, the software developer. "I feel like I'm one of the few people who can say for sure that I'm in the career I want to be in. That's why it's scary to see it at risk."
But the greatest glitch in the "it'll be OK" scenario is something the optimists themselves admit: It's predicated on the assumption that generative AI will keep serving as a complement to human labor, not as an outright replacement. When ATMs came along, bank tellers were able to adapt because there were still things they could do better than the machines. But go back a few decades, and you'll find a technology that obliterated what was one of the most common jobs for young women: the mechanical switching of telephones. Placing your own calls on a rotary-dial phone was way faster and easier than going through a human switchboard operator. Many of the displaced operators dropped out of the workforce altogether — and if they kept working, they ended up in lower-paying occupations. Their fate raises the question: At what point does AI get so good at coding that there's nothing left for a human programmer to do?
The fact we need to ask that question underscores one of the most glaring problems with AI research: Far too much of it is focused on replacing human labor rather than empowering it. Why are we deploying our best and brightest minds to get machines to do something humans can already do, instead of developing technology to help them do something entirely new? "It's a sad use of innovation," says Katya Klinova, the head of AI, labor, and the economy at the nonprofit Partnership on AI. There are plenty of dire problems in the world that need solving, she points out, like the urgent need for more sources of clean energy. The question we should be asking about AI isn't how well it can perform existing human tasks, and how much money that automation will save businesses — it's whether the technology is doing what we, as a society, would like it to do.
In the meantime, on an individual level, the best thing coders can do is to study the new technology and to focus on getting better at what AI can't do. "I really think everybody needs to be doing their work with ChatGPT as much as they can, so they can learn what it does and what it doesn't," Mollick says. "The key is thinking about how you work with the system. It's a centaur model: How do I get more work out of being half person, half horse? The best advice I have is to consider the bundle of tasks that you're facing and ask: How do I get good at the tasks that are less likely to be replaced by a machine?"
Mollick adds that he's watched people try ChatGPT for a minute, find themselves underwhelmed by its abilities, and then move on, comforted by their superiority over AI. But he thinks that's dangerously shortsighted, given how quickly the technology is improving. When ChatGPT, powered by the 3.5 model of GPT, took the bar exam, for instance, it scored in the 10th percentile. But less than a year later, when GPT 4 took the test, it scored in the 90th percentile. "Assuming that this is as good as it gets strikes me as a risky assumption," Mollick says.
"The best advice I have is to consider the bundle of tasks that you're facing and ask: How do I get good at the tasks that are less likely to be replaced by a machine?" Hughes has seen the same head-in-the-sand reaction from his fellow coders. After ChatGPT aced his tic-tac-toe challenge, he was scared to look at his phone, for fear of seeing yet another headline about the tool's human-like capabilities. Then, as an act of catharsis, he wrote a long post on his Medium blog — a step-by-step, worst-case scenario of how he thought AI could replace programmers over the next decade. The response was telling: Developers flooded the comments section with impassioned critiques, some of them so aggressive and toxic that Hughes felt forced to delete them. In post after post, they listed all the ways they thought they were still better coders than ChatGPT. "You are a really bad software developer if you don't understand the number of AI limitations," one seethed. AI, they were confident, won't replace what they bring to the job anytime soon.
Reading the comments, I found myself thinking the critics were missing the point. AI is still in its infancy. Which means, much as with a newborn human, we need to start thinking about how it will affect our lives and our livelihoods now, before its needs outstrip our ability to keep up. For the moment, we still have time to shape the future we actually want. Sooner or later, there may come a day when we no longer do.
When ChatGPT was released to the world in November, most of us marveled at its ability to write rap lyrics and cover letters and high-school English essays. But Adam Hughes, a software developer, was intrigued by artificial intelligence's much-ballyhooed aptitude for writing code. So he signed up for an account and asked ChatGPT to program a modified tic-tac-toe game, giving the game some weird rules so the bot couldn't just copy code that another human had already written. Then he quizzed it with the kind of coding questions he asks candidates in job interviews. Whatever he threw at it, Hughes found that ChatGPT came back with something he wasn't prepared for: very good code. It didn't take him long to wonder what this meant for a career he loved — one that had thus far provided him with not only a good living and job security, but a sense of who he is. "I never thought I would be replaced in my job, ever, until ChatGPT," he says. "I had an existential crisis right then and there. A lot of the knowledge that I thought was special to me, that I had put seven years into, just became obsolete." Coding, as an occupation, has long been considered a haven from the relentless advance of technology. Even as new gizmos replaced other jobs, the people who wrote the instructions for the machines felt untouchable. Universities rushed to expand their computer-science programs. Policymakers scrambling to futureproof the workforce stuck to one unwavering message: Learn to code! But in recent weeks, behind closed doors, I've heard many coders confess to a growing anxiety over the sudden advent of generative AI. Those who have been doing the automating fear they will soon be automated themselves. And if programmers aren't safe, who is? Much has been written about how AI is coming for white-collar jobs. Researchers at OpenAI, which created ChatGPT, recently examined the degree to which large language models could perform the 19,000 tasks that make up the 1,000 occupations across the US economy. Their conclusion: 19% of workers hold jobs in which at least half their tasks could be completed by AI. The researchers also noted two patterns among the most vulnerable jobs: They require more education and come with big salaries. "We didn't think that would be the case," says Ethan Mollick, a professor of management at Wharton who studies innovation. "AI was always supposed to automate dangerous, dirty tasks — not the things we want to do." But one white-collar skill set, the study found, is especially at risk for being automated: computer programming. The reason? Large language models like the one powering ChatGPT have been trained on huge repositories of code. Researchers at Microsoft and its subsidiary GitHub recently divided software developers into two groups — one with access to an AI coding assistant, and another without. Those assisted by AI were able to complete tasks 56% faster than the unassisted ones. "That's a big number," Mollick says. By comparison, the introduction of the steam engine in the mid-1800s boosted productivity at large factories by only 15%. Tech companies have rushed to embrace generative AI, recognizing its ability to turbocharge programming. Amazon has built its own AI coding assistant, CodeWhisperer, and is encouraging its engineers to use it. Google is also asking its developers to try out new coding features in Bard, its ChatGPT competitor. Given the tech industry's rush to deploy AI, it's not hard to envision a near future in which we'll need half as many engineers as we have today — or, down the line, one-tenth or one-hundredth (Emad Mostaque, the CEO of Stability AI, has gone as far as predicting "there's no programmers in five years."). For better or worse, the rise of AI effectively marks the end of coding as we know it. Now, before we dive into this doomsday scenario, let's pause for a moment and consider the case for optimism. Perhaps, as the industry's sunnier forecasts are predicting, there's enough of a demand for coding to employ both humans and AI. Sure, the arrival of the tractor threw a lot of farmers out of work. But coding isn't like farming. "There's only so much food that 7 billion people can eat," says Zachary Tatlock, a professor of computer science at the University of Washington. "But it's unclear if there's any cap on the amount of software that humanity wants or needs. One way to think about it is that for the past 50 years, we have been massively underproducing. We haven't been meeting software demand." AI, in other words, may help humans write code faster, but we'll still want all the humans around because we need as much software as they can build, as fast as they can build it. In the rosiest outlook, all the productivity gains from AI will turbocharge the demand for software, making the coders of the future even more sought after than they are today. Another argument from the optimists: Even as AI takes over the bulk of coding, human coders will find new ways to make themselves useful by focusing on what AI can't do. Consider what happened to bank tellers after the widespread adoption of ATMs. You'd think ATMs would have destroyed the profession, but surprisingly, the number of bank tellers actually grew between 1980 and 2010. Why? Because bank tellers, one analysis found, became less like checkout clerks and more like salespeople, building relationships with customers and selling them on additional services like credit cards and loans. Similarly, Tatlock envisions a future for software engineers that involves less writing of code and more verifying of all the cheap and potentially dangerous code the machines will be generating. "You probably don't need to formally verify a widget on your website," Tatlock says, "but you probably do want to formally verify code that goes into your driving assistant in your car or manages your insulin pump." If today's programmers are writers, the thinking goes, their future counterparts will be editors and fact-checkers. So maybe, long term, human coders will survive in some new, as-yet-to-be-determined role. But even in the best-case scenario, the optimists concede, the transition will be painful. "It is going to be the case that some people's lives are upended by this," Tatlock says. "This happens with every technological change." Some coders will inevitably be displaced, unable to adapt to the new way of doing things. And those who make the transition to the AI-driven future will find themselves performing tasks that are radically different from the ones they do today. There's only so much food that 7 billion people can eat. But it's unclear if there's any cap on the amount of software that humanity wants or needs. Zachary Tatlock, University of Washington The first question is: In this evolutionary battle for survival, who is best positioned to adapt, and who's going to get left behind? Intuitively, you would think seasoned veterans — those who already spend less time coding and more time on abstract, higher-order, strategic thinking — would be less vulnerable to AI than someone straight out of college tasked with writing piecemeal code. But in the GitHub study, it was actually the less experienced engineers who benefited more from using AI. The new technology essentially leveled the playing field between the newbies and the veterans. In a world where experience matters less, senior engineers may be the ones who lose out, because they won't be able to justify their astronomical salaries. Then there's the issue of job quality. The optimists assume that AI will enable us to outsource a lot of the boring, repetitive stuff to the bots, leaving us to concentrate on more intellectually stimulating work. But what if the opposite ends up happening, and AI takes on all the fun stuff? No disrespect to my colleagues in the research department, who do vital work, but I'm a writer because I love writing; I don't want my job to morph into one of fact-checking the hallucinogenic and error-prone tendencies of ChatGPT. What feels unnerving about generative AI is its capacity to perform the kind of highly skilled tasks that people enjoy most. "I really love programming," says Hughes, the software developer. "I feel like I'm one of the few people who can say for sure that I'm in the career I want to be in. That's why it's scary to see it at risk." But the greatest glitch in the "it'll be OK" scenario is something the optimists themselves admit: It's predicated on the assumption that generative AI will keep serving as a complement to human labor, not as an outright replacement. When ATMs came along, bank tellers were able to adapt because there were still things they could do better than the machines. But go back a few decades, and you'll find a technology that obliterated what was one of the most common jobs for young women: the mechanical switching of telephones. Placing your own calls on a rotary-dial phone was way faster and easier than going through a human switchboard operator. Many of the displaced operators dropped out of the workforce altogether — and if they kept working, they ended up in lower-paying occupations. Their fate raises the question: At what point does AI get so good at coding that there's nothing left for a human programmer to do? The fact we need to ask that question underscores one of the most glaring problems with AI research: Far too much of it is focused on replacing human labor rather than empowering it. Why are we deploying our best and brightest minds to get machines to do something humans can already do, instead of developing technology to help them do something entirely new? "It's a sad use of innovation," says Katya Klinova, the head of AI, labor, and the economy at the nonprofit Partnership on AI. There are plenty of dire problems in the world that need solving, she points out, like the urgent need for more sources of clean energy. The question we should be asking about AI isn't how well it can perform existing human tasks, and how much money that automation will save businesses — it's whether the technology is doing what we, as a society, would like it to do. In the meantime, on an individual level, the best thing coders can do is to study the new technology and to focus on getting better at what AI can't do. "I really think everybody needs to be doing their work with ChatGPT as much as they can, so they can learn what it does and what it doesn't," Mollick says. "The key is thinking about how you work with the system. It's a centaur model: How do I get more work out of being half person, half horse? The best advice I have is to consider the bundle of tasks that you're facing and ask: How do I get good at the tasks that are less likely to be replaced by a machine?" Mollick adds that he's watched people try ChatGPT for a minute, find themselves underwhelmed by its abilities, and then move on, comforted by their superiority over AI. But he thinks that's dangerously shortsighted, given how quickly the technology is improving. When ChatGPT, powered by the 3.5 model of GPT, took the bar exam, for instance, it scored in the 10th percentile. But less than a year later, when GPT 4 took the test, it scored in the 90th percentile. "Assuming that this is as good as it gets strikes me as a risky assumption," Mollick says. "The best advice I have is to consider the bundle of tasks that you're facing and ask: How do I get good at the tasks that are less likely to be replaced by a machine?" Hughes has seen the same head-in-the-sand reaction from his fellow coders. After ChatGPT aced his tic-tac-toe challenge, he was scared to look at his phone, for fear of seeing yet another headline about the tool's human-like capabilities. Then, as an act of catharsis, he wrote a long post on his Medium blog — a step-by-step, worst-case scenario of how he thought AI could replace programmers over the next decade. The response was telling: Developers flooded the comments section with impassioned critiques, some of them so aggressive and toxic that Hughes felt forced to delete them. In post after post, they listed all the ways they thought they were still better coders than ChatGPT. "You are a really bad software developer if you don't understand the number of AI limitations," one seethed. AI, they were confident, won't replace what they bring to the job anytime soon. Reading the comments, I found myself thinking the critics were missing the point. AI is still in its infancy. Which means, much as with a newborn human, we need to start thinking about how it will affect our lives and our livelihoods now, before its needs outstrip our ability to keep up. For the moment, we still have time to shape the future we actually want. Sooner or later, there may come a day when we no longer do.
Trong tháng 11, khi ChatGPT được phát hành ra thế giới, hầu hết chúng ta đã ngạc nhiên vì khả năng của nó trong việc viết lời rap, thư xin việc và các bài tiểu luận tiếng Anh trung học. Nhưng Adam Hughes, một nhà phát triển phần mềm, đã thấy hứng thú với tài năng được quảng cáo rầm rộ của trí tuệ nhân tạo trong việc viết mã. Vì vậy, anh đăng ký tài khoản và yêu cầu ChatGPT lập trình một trò chơi tic-tac-toe được sửa đổi, đưa ra một số quy tắc kỳ quặc để bot không thể sao chép mã mà một con người khác đã viết trước đó. Sau đó, anh kiểm tra bằng các câu hỏi lập trình mà anh thường hỏi ứng viên trong phỏng vấn tuyển dụng. Dù anh đưa ra bất cứ điều gì, Hughes đã phát hiện ra rằng ChatGPT trả lại cho anh một thứ gì đó mà anh không chuẩn bị cho: mã rất tốt. Không lâu sau đó, anh tự hỏi điều này có nghĩa gì đối với một sự nghiệp anh yêu thích - một sự nghiệp mà cho đến nay đã cung cấp cho anh không chỉ một sinh kế tốt và sự an toàn trong công việc, mà còn là một cảm giác về bản thân. "Tôi chưa bao giờ nghĩ rằng tôi sẽ bị thay thế trong công việc của mình, cho đến khi có ChatGPT," anh nói. "Tôi đã trải qua một cuộc khủng hoảng tồn tại ngay lúc đó. Rất nhiều kiến thức mà tôi nghĩ là đặc biệt, mà tôi đã đóng góp bảy năm vào đó, đều trở nên lỗi thời." Lập trình, như một nghề nghiệp, đã được coi là một nơi trú ẩn khỏi sự tiến bộ không ngừng của công nghệ. Ngay cả khi các thiết bị mới thay thế các công việc khác, những người viết hướng dẫn cho máy tính cảm thấy không thể động chạm. Các trường đại học đã vội vàng mở rộng các chương trình khoa học máy tính của họ. Các nhà quyền lực đang cố gắng bảo vệ sự hỗ trợ cho lực lượng lao động trong tương lai: Học lập trình! Nhưng trong những tuần gần đây, sau cánh cửa đóng kín, tôi đã nghe nhiều lập trình viên thú nhận về lo lắng ngày càng tăng vì sự xuất hiện đột ngột của trí tuệ nhân tạo tạo sinh. Những người đã thực hiện tự động hóa sợ rằng họ sẽ sớm bị tự động hóa. Và nếu các lập trình viên không an toàn, thì ai sẽ an toàn? Rất nhiều điều đã được viết về việc trí tuệ nhân tạo đang tìm cách chiếm đoạt các công việc trắng áo. Các nhà nghiên cứu tại OpenAI, người đã tạo ra ChatGPT, gần đây đã xem xét mức độ mà các mô hình ngôn ngữ lớn có thể thực hiện 19.000 nhiệm vụ của 1.000 nghề trong nền kinh tế Mỹ. Kết luận của họ: 19% công nhân có công việc mà ít nhất một nửa các nhiệm vụ của họ có thể được hoàn thành bởi trí tuệ nhân tạo. Các nhà nghiên cứu cũng lưu ý hai xu hướng trong các công việc dễ bị tổn thương nhất: Chúng yêu cầu nhiều hơn về giáo dục và đi kèm với mức lương cao. "Chúng tôi không nghĩ rằng điều đó sẽ xảy ra," Ethan Mollick, một giáo sư quản lý tại Wharton nghiên cứu về đổi mới, nói. "Trí tuệ nhân tạo luôn được cho là tự động hóa các nhiệm vụ nguy hiểm, bẩn thỉu - không phải những điều chúng ta muốn làm." Nhưng một bộ kỹ năng trắng áo, theo nghiên cứu, đặc biệt dễ bị tự động hóa: lập trình máy tính. Lý do? Các mô hình ngôn ngữ lớn như một trong những mô hình đang điều khiển ChatGPT đã được huấn luyện trên các kho lưu trữ mã lớn. Các nhà nghiên cứu tại Microsoft và công ty con của nó, GitHub, gần đây chia nhóm các nhà phát triển phần mềm thành hai nhóm - một nhóm có trợ lí lập trình trí tuệ nhân tạo, và một nhóm không có. Những người được trợ lí bởi trí tuệ nhân tạo đã hoàn thành các nhiệm vụ nhanh hơn 56% so với những người chưa được trợ giúp. "Đó là một con số lớn," Mollick nói. So sánh với việc giới thiệu động cơ hơi nước vào giữa thế kỷ 19, giúp tăng năng suất tại các nhà máy lớn chỉ tăng 15%. Các công ty công nghệ đã vội vàng đón nhận trí tuệ nhân tạo tạo sinh, nhận ra khả năng của nó trong việc tăng tốc lập trình. Amazon đã xây dựng trợ lí lập trình trí tuệ nhân tạo riêng của mình, CodeWhisperer, và đang khuyến khích các kỹ sư của mình sử dụng nó. Google cũng đang yêu cầu các nhà phát triển của mình thử các tính năng lập trình mới trong Bard, đối thủ cạnh tranh của ChatGPT. Với sự vội vàng của ngành công nghệ trong việc triển khai trí tuệ nhân tạo, không khó để tưởng tượng một tương lai gần trong đó chúng ta sẽ cần nửa số lượng kỹ sư mà chúng ta có hôm nay - hoặc, trong tương lai, mười phần một hoặc một trăm phần một (Emad Mostaque, CEO của Stability AI, đã đi xa hơn bằng cách dự đoán "không có lập trình viên trong năm năm tới."). Tốt hay xấu, sự trỗi dậy của trí tuệ nhân tạo đánh dấu sự kết thúc của lập trình như chúng ta biết nó. Trước khi chúng ta bàn đến kịch bản tận thế này, hãy dừng lại một chút và xem xét khả năng lạc quan. Có thể, như dự báo tươi sáng của ngành công nghiệp, có đủ nhu cầu cho lập trình để thuê cả con người và trí tuệ nhân tạo. Chắc chắn, sự xuất hiện của máy kéo đã khiến rất nhiều nông dân mất việc. Nhưng lập trình không giống như việc làm nông. "Chỉ có giới hạn đến đâu đó cho 7 tỷ người ăn", như Zachary Tatlock, giáo sư khoa học máy tính tại Đại học Washington, nói. "Nhưng không rõ liệu có giới hạn nào trong số lượng phần mềm mà nhân loại muốn hoặc cần. Một cách để nghĩ về nó là trong 50 năm qua, chúng ta đã sản xuất dưới quy mô lớn. Chúng ta chưa đáp ứng được nhu cầu phần mềm". Trí tuệ nhân tạo, nói cách khác, có thể giúp con người viết mã nhanh hơn, nhưng chúng ta vẫn muốn giữ lại tất cả con người xung quanh vì chúng ta cần nhiều phần mềm mà họ có thể xây dựng, nhanh như họ có thể xây dựng nó. Trong tầm nhìn tươi sáng nhất, tất cả các lợi ích về năng suất từ trí tuệ nhân tạo sẽ tăng tốc nhu cầu về phần mềm, khiến cho những lập trình viên trong tương lai trở nên quan trọng hơn họ là hôm nay. Một lập luận khác của những người lạc quan: Ngay cả khi trí tuệ nhân tạo đảm nhận phần lớn công việc lập trình, các lập trình viên sẽ tìm cách để tự làm mình hữu ích bằng cách tập trung vào những gì mà trí tuệ nhân tạo không thể làm được. Hãy xem điều gì đã xảy ra với nhân viên ngân hàng sau khi ATM được áp dụng rộng rãi. Bạn sẽ nghĩ rằng ATM sẽ phá hủy nghề nghiệp, nhưng bất ngờ là số lượng nhân viên ngân hàng thực tế đã tăng từ năm 1980 đến năm 2010. Tại sao? Vì nhân viên ngân hàng, một phân tích tìm thấy, trở nên ít giống như nhân viên bán hàng và nhiều hơn là xây dựng mối quan hệ với khách hàng và bán cho họ các dịch vụ bổ sung như thẻ tín dụng và khoản vay. Tương tự, Tatlock mường tượng một tương lai cho kỹ sư phần mềm liên quan đến việc viết mã ít hơn và xác minh các mã rẻ tiền và tiềm năng nguy hiểm mà các máy sẽ tạo ra. "Bạn có thể không cần xác minh một widget trên trang web của bạn một cách hình thức", Tatlock nói, "nhưng bạn có thể muốn xác minh mã điều khiển lái xe trợ giúp lái xe trong ô tô của bạn hoặc quản lý bơm insulin của bạn." Nếu như các lập trình viên hiện nay là những nhà văn, suy nghĩ điều đó, người kế nhiệm của họ trong tương lai sẽ là biên tập viên và kiểm chứng viên. Vậy có thể, trong dài hạn, các lập trình viên con người sẽ sống sót trong một vai trò mới chưa được xác định. Nhưng ngay cả trong trường hợp tốt nhất, những người lạc quan thừa nhận, quá trình chuyển đổi sẽ đau đớn. "Sẽ có những người bị đảo lộn cuộc sống bởi điều này," Tatlock nói. "Điều này xảy ra với mọi thay đổi công nghệ." Một số lập trình viên sẽ tất yếu bị thay thế, không thể thích nghi với cách làm mới. Và những người chuyển sang tương lai do trí tuệ nhân tạo thúc đẩy sẽ thấy mình thực hiện các nhiệm vụ hoàn toàn khác biệt so với những gì họ làm hôm nay. "Chỉ có giới hạn đến đâu đó cho 7 tỷ người ăn. Nhưng không rõ liệu có giới hạn nào trong số lượng phần mềm mà nhân loại muốn hoặc cần." Zachary Tatlock, Đại học Washington Câu hỏi đầu tiên là: Trong cuộc chiến tiến hóa này, ai được vị trí tốt nhất để thích nghi, và ai sẽ bị bỏ lại phía sau? Theo cách suy nghĩ, những người giàu kinh nghiệm - những người đã dành ít thời gian hơn để lập trình và nhiều thời gian hơn để suy nghĩ trừu tượng, cao cấp, chiến lược - sẽ ít dễ bị tổn thương hơn bởi trí tuệ nhân tạo so với một người mới ra trường được giao nhiệm vụ viết mã rời rạc. Nhưng trong nghiên cứu GitHub, thực tế là những kỹ sư ít kinh nghiệm hơn là những kỹ sư giàu kinh nghiệm đã được hưởng lợi nhiều hơn từ việc sử dụng trí tuệ nhân tạo. Công nghệ mới này về cơ bản đã làm cho sân chơi bình đẳng giữa những người mới và những người già. Trong một thế giới nơi kinh nghiệm ít quan trọng, các kỹ sư già có thể là những người thua cuộc vì họ sẽ không thể bào chữa lương cao của họ. Sau đó là vấn đề về chất lượng công việc. Những người lạc quan cho rằng trí tuệ nhân tạo sẽ cho phép chúng ta giao phần lớn công việc nhàm chán, lặp đi lặp lại cho bot, để chúng ta tập trung vào công việc kích thích trí não hơn. Nhưng nếu điều ngược lại xảy ra và trí tuệ nhân tạo đảm nhận tất cả những việc thú vị? Không có ý xúc phạm đến đồng nghiệp của tôi ở phòng nghiên cứu, những người làm công việc cần thiết, nhưng tôi là một nhà văn vì tôi yêu viết; Tôi không muốn công việc của mình biến thành một trong những công việc kiểm tra sự ảo giác và xu hướng sai lầm của ChatGPT. Điều khiến cho trí tuệ nhân tạo đang tự động hóa các nhiệm vụ chuyên môn cao nhất mà con người thích nhất là sự bất an. "Tôi thật sự yêu lập trình," nhà phát triển phần mềm Hughes nói. "Tôi cảm thấy mình là một trong số ít những người có thể khẳng định rằng tôi đang ở trong sự nghiệp mà tôi muốn. Đó là lý do tại sao nó đáng sợ khi nó đang bị đe dọa." Nhưng sự cố lớn nhất trong kịch bản "mọi thứ sẽ ổn" là điều mà những người lạc quan thừa nhận: Nó dựa trên giả định rằng trí tuệ nhân tạo sẽ tiếp tục phục vụ như một bổ sung cho lao động của con người, không phải là một sự thay thế hoàn toàn. Khi các máy ATM xuất hiện, nhân viên ngân hàng có thể thích nghi vì vẫn còn những điều họ có thể làm tốt hơn máy móc. Nhưng trở lại vài thập kỷ trước, bạn sẽ tìm thấy một công nghệ đã xóa bỏ được một trong những công việc phổ biến nhất đối với phụ nữ trẻ: việc chuyển đổi cơ khí của điện thoại. Tự mình gọi điện trên điện thoại quay số nhanh và dễ dàng hơn nhiều so với việc thông qua một nhân viên điều phối trung gian. Nhiều nhân viên đã bị thay thế không còn làm việc nữa - và nếu họ tiếp tục làm việc, họ sẽ rơi vào các nghề có mức lương thấp hơn. Vận mệnh của họ đặt ra câu hỏi: Khi trí tuệ nhân tạo trở nên tốt đến mức không còn việc gì cho một lập trình viên con người làm nữa? Sự thật là chúng ta cần hỏi câu hỏi đó nhấn mạnh một trong những vấn đề nghiêm trọng nhất của nghiên cứu trí tuệ nhân tạo: Quá nhiều công sức của nó tập trung vào việc thay thế lao động của con người thay vì nâng cao năng lực của con người. Tại sao chúng ta lại triển khai những tài năng tốt nhất và sáng brightest của chúng ta để cho máy móc làm điều gì mà con người đã có thể làm được, thay vì phát triển công nghệ để giúp họ làm điều mới hoàn toàn? "Đó là một cách sử dụng đau lòng của sự đổi mới," Katya Klinova, trưởng phòng trí tuệ nhân tạo, lao động và kinh tế của tổ chức phi lợi nhuận Partnership on AI nói. Cô nhấn mạnh rằng có rất nhiều vấn đề nguy hiểm trên thế giới cần giải quyết, như nhu cầu cấp bách của năng lượng sạch. Câu hỏi chúng ta nên đặt về trí tuệ nhân tạo không phải là nó có thể thực hiện các nhiệm vụ con người hiện tại như thế nào và tiết kiệm được bao nhiêu tiền cho doanh nghiệp - mà là công nghệ có làm điều chúng ta, như một xã hội, muốn nó làm hay không. Trong khi đó, ở mức độ cá nhân, điều tốt nhất mà các lập trình viên có thể làm là nghiên cứu công nghệ mới và tập trung vào cải thiện những gì mà trí tuệ nhân tạo không thể làm được. "Tôi thật sự nghĩ rằng mọi người cần phải làm việc của họ với ChatGPT càng nhiều càng tốt, để họ có thể tìm hiểu những gì nó làm được và không làm được," Mollick nói. "Chìa khóa là suy nghĩ về cách bạn làm việc với hệ thống. Đó là một mô hình centaur: Làm thế nào tôi có được nhiều công việc hơn từ việc trở thành một nửa con người, một nửa ngựa? Lời khuyên tốt nhất của tôi là xem xét gói nhiệm vụ mà bạn đang đối mặt và hỏi: Làm thế nào để tôi trở nên giỏi những nhiệm vụ mà ít có khả năng bị máy móc thay thế?" Mollick thêm rằng anh đã xem người ta thử ChatGPT trong một phút, cảm thấy không hài lòng với khả năng của nó, và sau đó tiếp tục đi tiếp, an ủi bởi sự vượt trội của họ so với trí tuệ nhân tạo. Nhưng anh ta nghĩ rằng điều đó là ngắn nhìn nguy hiểm, bởi vì công nghệ đang cải thiện nhanh chóng. Khi ChatGPT, được cung cấp bởi mô hình GPT 3.5, thi bằng luật sư, ví dụ, nó đạt điểm ở phân vị 10. Nhưng chưa đầy một năm sau, khi GPT 4 thi bài kiểm tra, nó đạt điểm ở phân vị 90. "Giả định rằng đây là tốt nhất có thể giúp cho tôi có một quan điểm nguy hiểm," Mollick nói. "Lời khuyên tốt nhất của tôi là xem xét gói nhiệm vụ mà bạn đang đối mặt và hỏi: Làm thế nào để tôi trở nên giỏi những nhiệm vụ mà ít có khả năng bị máy móc thay thế?" Hughes đã thấy một phản ứng không khá khó chịu từ các lập trình viên đồng nghiệp của mình. Sau khi ChatGPT đạt được thử thách tic-tac-toe của anh ta, anh ta sợ nhìn vào điện thoại của mình, vì sợ thấy thêm một tiêu đề nào đó về khả năng giống con người của công cụ. Sau đó, như một hành động giải tỏa, anh ta đã viết một bài đăng dài trên blog Medium của mình - một kịch bản tình huống xấu nhất bước từng bước về cách anh ta nghĩ AI có thể thay thế các lập trình viên trong thập kỷ tới. Phản hồi cho thấy: Các nhà phát triển tràn ngập phần bình luận với những lời phê bình đam mê, một số trong số đó quá khích và độc hại đến mức Hughes phải xóa chúng. Trong bài viết sau bài viết, họ liệt kê tất cả các cách mà họ nghĩ rằng họ vẫn là những lập trình viên tốt hơn ChatGPT. "Bạn là một nhà phát triển phần mềm thực sự tồi nếu bạn không hiểu được số lượng giới hạn của trí tuệ nhân tạo," một người đã nói. Họ tự tin rằng AI sẽ không thay thế những gì mà họ đem lại cho công việc trong thời gian sớm. Đọc các bình luận, tôi thấy mình đang nghĩ rằng những người phê bình đã bỏ lỡ điểm chính. Trí tuệ nhân tạo vẫn còn non trẻ. Điều đó có nghĩa là, giống như với một đứa trẻ sơ sinh, chúng ta cần bắt đầu suy nghĩ về cách nó sẽ ảnh hưởng đến cuộc sống và sinh kế của chúng ta bây giờ, trước khi nhu cầu của nó vượt quá khả năng của chúng ta để theo kịp. Trong lúc này, chúng ta vẫn còn thời gian để tạo hình cho tương lai mà chúng ta thực sự muốn. Sớm hay muộn, có thể đến một ngày chúng ta không còn làm được.
What Is The Artificial Intelligence Of Things? When AI Meets IoT
Individually, the Internet of Things (IoT) and Artificial Intelligence (AI) are powerful technologies. When you combine AI and IoT, you get AIoT—the artificial intelligence of things. You can think of internet of things devices as the digital nervous system while artificial intelligence is the brain of a system.
What Is The Artificial Intelligence Of Things? When AI Meets IoT What Is The Artificial Intelligence Of Things? When AI Meets IoTADOBE STOCK What is AIoT?
To fully understand AIoT, you must start with the internet of things. When “things” such as wearable devices, refrigerators, digital assistants, sensors and other equipment are connected to the internet, can be recognized by other devices and collect and process data, you have the internet of things. Artificial intelligence is when a system can complete a set of tasks or learn from data in a way that seems intelligent. Therefore, when artificial intelligence is added to the internet of things it means that those devices can analyze data and make decisions and act on that data without involvement by humans.
These are "smart" devices, and they help drive efficiency and effectiveness. The intelligence of AIoT enables data analytics that is then used to optimize a system and generate higher performance and business insights and create data that helps to make better decisions and that the system can learn from.
Practical Examples of AIoT
The combo of internet of things and smart systems makes AIoT a powerful and important tool for many applications. Here are a few:
Smart Retail
In a smart retail environment, a camera system equipped with computer vision capabilities can use facial recognition to identify customers when they walk through the door. The system gathers intel about customers, including their gender, product preferences, traffic flow and more, analyzes the data to accurately predict consumer behavior and then uses that information to make decisions about store operations from marketing to product placement and other decisions. For example, if the system detects that the majority of customers walking into the store are Millennials, it can push out product advertisements or in-store specials that appeal to that demographic, therefore driving up sales. Smart cameras could identify shoppers and allow them to skip the checkout like what happens in the Amazon Go store.
MORE FOR YOU Today’s ‘Quordle’ Answers And Clues For Friday, April 28 First Attack On Artwork In The United States At National Gallery In Washington Why New IPhone Will Ring Up Apple Shares Drone Traffic Monitoring
In a smart city, there are several practical uses of AIoT, including traffic monitoring by drones. If traffic can be monitored in real-time and adjustments to the traffic flow can be made, congestion can be reduced. When drones are deployed to monitor a large area, they can transmit traffic data, and then AI can analyze the data and make decisions about how to best alleviate traffic congestion with adjustments to speed limits and timing of traffic lights without human involvement.
Forbes Daily: Our best stories, exclusive reporting and Forbes perspectives on the day’s top news, plus the inside scoop on the world's most important entrepreneurs.
Email address Sign Up You may opt out any time. By signing up for this newsletter, you agree to the Terms and Conditions and Privacy Policy The ET City Brain, a product of Alibaba Cloud, optimizes the use of urban resources by using AIoT. This system can detect accidents, illegal parking, and can change traffic lights to help ambulances get to patients who need assistance faster.
Office Buildings
Another area where artificial intelligence and the internet of things intersect is in smart office buildings. Some companies choose to install a network of smart environmental sensors in their office building. These sensors can detect what personnel are present and adjust temperatures and lighting accordingly to improve energy efficiency. In another use case, a smart building can control building access through facial recognition technology. The combination of connected cameras and artificial intelligence that can compare images taken in real-time against a database to determine who should be granted access to a building is AIoT at work. In a similar way, employees wouldn't need to clock in, or attendance for mandatory meetings wouldn't have to be completed, since the AIoT system takes care of it.
Fleet Management and Autonomous Vehicles
AIoT is used to in fleet management today to help monitor a fleet's vehicles, reduce fuel costs, track vehicle maintenance, and to identify unsafe driver behavior. Through IoT devices such as GPS and other sensors and an artificial intelligence system, companies are able to manage their fleet better thanks to AIoT.
Another way AIoT is used today is with autonomous vehicles such as Tesla's autopilot systems that use radars, sonars, GPS, and cameras to gather data about driving conditions and then an AI system to make decisions about the data the internet of things devices are gathering.
Autonomous Delivery Robots
Similar to how AIoT is used with autonomous vehicles, autonomous delivery robots are another example of AIoT in action. Robots have sensors that gather information about the environment the robot is traversing and then make moment-to-moment decisions about how to respond through its onboard AI platform.
Follow me on Twitter or LinkedIn. Check out my website or some of my other work here. Bernard Marr Bernard Marr
Độc lập, Internet of Things (IoT) và Trí tuệ nhân tạo (AI) là các công nghệ mạnh mẽ. Khi kết hợp AI và IoT lại với nhau, bạn sẽ có AIoT - trí tuệ nhân tạo của các vật. Bạn có thể xem các thiết bị internet of things như hệ thống thần kinh kỹ thuật số trong khi trí tuệ nhân tạo là bộ não của một hệ thống.
AIoT là gì?
Để hiểu rõ hơn về AIoT, bạn phải bắt đầu với internet of things. Khi "các vật" như thiết bị đeo tay, tủ lạnh, trợ lý kỹ thuật số, cảm biến và thiết bị khác được kết nối với internet, có thể được nhận dạng bởi các thiết bị khác và thu thập và xử lý dữ liệu, bạn có internet of things. Trí tuệ nhân tạo là khi một hệ thống có thể hoàn thành một tập hợp các nhiệm vụ hoặc học từ dữ liệu một cách thông minh. Do đó, khi trí tuệ nhân tạo được thêm vào internet of things, điều đó có nghĩa là các thiết bị đó có thể phân tích dữ liệu và đưa ra quyết định và hành động dựa trên dữ liệu đó mà không cần sự tham gia của con người.
Đây là những thiết bị "thông minh" và chúng giúp đẩy mạnh hiệu suất. Trí tuệ của AIoT cho phép phân tích dữ liệu được sử dụng để tối ưu hệ thống và tạo ra hiệu suất và hiểu biết kinh doanh cao hơn và tạo dữ liệu giúp đưa ra quyết định tốt hơn và hệ thống có thể học hỏi từ đó.
Các ví dụ thực tế của AIoT
Sự kết hợp giữa internet of things và các hệ thống thông minh làm cho AIoT trở thành một công cụ mạnh mẽ và quan trọng cho nhiều ứng dụng. Dưới đây là một số ví dụ:
Bán lẻ thông minh
Trong một môi trường bán lẻ thông minh, một hệ thống camera được trang bị khả năng thị giác máy tính có thể sử dụng nhận dạng khuôn mặt để xác định khách hàng khi họ bước vào cửa hàng. Hệ thống thu thập thông tin về khách hàng, bao gồm giới tính, sở thích sản phẩm, thông lượng giao thông và nhiều hơn nữa, phân tích dữ liệu để dự đoán hành vi của người tiêu dùng một cách chính xác và sau đó sử dụng thông tin đó để đưa ra quyết định về hoạt động của cửa hàng từ tiếp thị đến đặt sản phẩm và các quyết định khác. Ví dụ, nếu hệ thống phát hiện ra rằng đa số khách hàng bước vào cửa hàng đều là thế hệ millennial, nó có thể đẩy quảng cáo sản phẩm hoặc các ưu đãi trong cửa hàng phù hợp với đối tượng này, do đó tăng doanh số bán hàng. Các camera thông minh có thể xác định người mua hàng và cho phép họ bỏ qua việc thanh toán như những gì xảy ra trong cửa hàng Amazon Go.
Giám sát giao thông bằng máy bay không người lái
Trong một thành phố thông minh, có nhiều ứng dụng thực tế của AIoT, bao gồm giám sát giao thông bằng máy bay không người lái. Nếu giao thông có thể được giám sát theo thời gian thực và điều chỉnh lưu lượng giao thông có thể được thực hiện, kẹt xe có thể được giảm bớt. Khi máy bay không người lái được triển khai để giám sát một khu vực lớn, chúng có thể truyền dữ liệu giao thông, sau đó AI có thể phân tích dữ liệu và ra quyết định về cách giảm tắc đường tốt nhất với các điều chỉnh về giới hạn tốc độ và thời gian đèn giao thông mà không cần sự tham gia của con người.
Tòa nhà văn phòng
Một lĩnh vực khác mà trí tuệ nhân tạo và internet of things giao nhau là các tòa nhà văn phòng thông minh. Một số công ty chọn cài đặt một mạng lưới các cảm biến môi trường thông minh trong tòa nhà văn phòng của họ. Các cảm biến này có thể phát hiện nhân viên có mặt và điều chỉnh nhiệt độ và ánh sáng tương ứng để cải thiện hiệu quả năng lượng. Trong một trường hợp sử dụng khác, một tòa nhà thông minh có thể kiểm soát quyền truy cập vào tòa nhà thông qua công nghệ nhận dạng khuôn mặt. Sự kết hợp giữa các camera được kết nối và trí tuệ nhân tạo có thể so sánh các hình ảnh được chụp theo thời gian thực với cơ sở dữ liệu để xác định ai nên được cấp quyền truy cập vào một tòa nhà làm việc. Trong cùng một cách, nhân viên không cần phải đăng ký đến công ty hay tham dự các cuộc họp bắt buộc, vì hệ thống AIoT sẽ quản lý nó.
Quản lý đội xe và xe tự lái
AIoT được sử dụng trong quản lý đội xe ngày nay để giúp giám sát các phương tiện của đội, giảm chi phí nhiên liệu, theo dõi bảo trì xe và xác định hành vi lái xe không an toàn. Thông qua các thiết bị IoT như GPS và các cảm biến khác và một hệ thống trí tuệ nhân tạo, các công ty có thể quản lý đội xe của họ tốt hơn nhờ vào AIoT.
Một cách khác mà AIoT được sử dụng ngày nay là với các phương tiện tự lái như các hệ thống tự lái của Tesla sử dụng radar, sóng siêu âm, GPS và camera để thu thập dữ liệu về điều kiện lái xe và sau đó một hệ thống trí tuệ nhân tạo để đưa ra quyết định về dữ liệu mà các thiết bị internet of things đang thu thập.
Robot Giao hàng tự động
Tương tự như cách AIoT được sử dụng với các phương tiện tự lái, các robot giao hàng tự động là một ví dụ khác về AIoT trong hành động. Robot có các cảm biến thu thập thông tin về môi trường mà robot đang di chuyển và sau đó đưa ra quyết định từng giây về cách phản ứng thông qua nền tảng AI trên tàu.
Theo dõi tôi trên Twitter hoặc LinkedIn. Kiểm tra trang web của tôi hoặc một số công việc khác của tôi ở đây. Bernard Marr Bernard Marr
The current web page context provides a few benefits of AIoT. AIoT adds value to IoT through machine learning capabilities and improved decision-making processes, while IoT adds value to AI through connectivity, signaling and data exchange¹. Incorporating AI and IoT technologies comes from the rise of many diverse applications and flexibility in use. AIoT promotes and provides actionable options. While IoT can give you information about the devices, you can predict decisions and outcomes by applying machine learning algorithms, which are a part of AI³. In addition, AIoT can monitor employee productivity, safety, and compliance with regulations in the workplace². Intelligent algorithms can actively monitor for suspicious activity or unauthorized access on IoT devices⁴.
5 lợi ích của Trí tuệ Nhân tạo IoT
Cả Trí tuệ Nhân tạo (AI) và Internet of Things (IoT) đều là những công nghệ gây nhiều tranh cãi, nhưng kết hợp chúng lại với nhau để tạo thành AIoT, bạn sẽ có thể giải quyết được rất nhiều thách thức kinh doanh, như Emily Newton viết.
Ngày 24 tháng 4 năm 2023
Machine learning và các thiết bị IoT đã làm việc gần nhau trong nhiều trường hợp sử dụng. IoT cung cấp dữ liệu mà các mô hình machine learning cần để cung cấp thông tin chính xác. AIoT còn đi xa hơn bằng cách đưa phân tích AI vào điểm cuối IoT thay vì phân tích nó trong một môi trường riêng biệt. Tổ hợp đó có những lợi thế ấn tượng.
1. Phân tích nhanh hơn
Kết hợp AI và IoT giúp dữ liệu có khoảng cách ngắn hơn trước khi bạn có thể sử dụng nó. Điều này có ích vì nhiều trung tâm dữ liệu lớn nhất có thể được đặt ở một lãnh thổ khác với bạn. Kết quả là thông tin của bạn phải đi qua rất nhiều địa điểm giữa nguồn gốc, xử lý và ứng dụng của nó, dẫn đến vấn đề độ trễ.
Tổ hợp IoT và AI loại bỏ khoảng cách đó. Các thiết bị thông minh có thể phân tích thông tin của chính mình mà không cần gửi nó đến một trung tâm dữ liệu ở phía bên kia thế giới, cho phép tốc độ nhanh hơn và độ trễ thấp hơn.
Những cải tiến đó, lần lượt, làm cho nhiều ứng dụng machine learning và IoT tiện lợi hơn.
Việc giảm độ trễ này có thể cho phép xe tự lái, ví dụ, nhận diện chướng ngại vật chỉ trong một phần của giây, giúp đảm bảo an toàn giao thông. Những người đứng đầu chuỗi cung ứng có thể nhận được cảnh báo về những sự cố sắp xảy ra khi dữ liệu cho thấy một thay đổi. Bất kể chi tiết cụ thể, phân tích nhanh hơn có nghĩa là ra quyết định nhanh hơn, điều đó rất có lợi cho bất kỳ ngành nghề nào.
2. Cải thiện an ninh mạng
Trí tuệ nhân tạo cũng có thể giải quyết một số thách thức lớn nhất của IoT, lỗi an ninh mạng là phổ biến nhất. Hệ thống IoT thông thường khó bảo mật, do thiết bị thiếu các biện pháp bảo mật tích hợp và cách chúng tăng diện tích tấn công. Kết quả là chỉ trong nửa đầu năm 2022, đã có 57 triệu cuộc tấn công phần mềm độc hại IoT, nhưng AIoT đưa ra một giải pháp.
Các thuật toán thông minh có thể theo dõi hoạt động đáng ngờ hoặc truy cập trái phép trên các thiết bị IoT. Nhiều công ty đã sử dụng AI để giám sát liên tục trong các mạng IoT, nhưng AIoT đưa quá trình này gần hơn với điểm cuối.
Với độ trễ thấp hơn và tốc độ nhanh hơn, các thuật toán này có thể bắt được các cuộc tấn công tiềm năng sớm hơn, giảm thiểu thiệt hại. Các phản ứng nhanh từ AI đã tiết kiệm được trung bình 3,05 triệu đô la trong việc vi phạm dữ liệu, vì vậy những cải tiến này rất đáng kể.
3. Tự động hóa linh hoạt
Kết hợp machine learning và IoT cũng có thể làm cho tự động hóa linh hoạt hơn. Một trong những điểm yếu lớn nhất của robot ngày nay là khó khăn để thích nghi với các tình huống thay đổi. Bạn có thể vượt qua vấn đề đó bằng cách cho phép chúng giao tiếp với nhau và nhận ra những thay đổi.
Robot được kết nối IoT có thể gửi dữ liệu về quy trình làm việc của họ - bao gồm bất kỳ tình huống bất thường nào họ gặp phải - cho nhau. Các bot với chức năng AI có thể giải thích thông tin đó để hiểu cách thích nghi với môi trường thay đổi của họ.
Những thích nghi này sẽ làm cho tự động hóa linh hoạt hơn và xử lý sự cố tốt hơn. Sau đó, bạn có thể mở rộng tự động hóa lên những tầm cao mới hoặc đầu tư an toàn vào robot để đáp ứng những đợt tăng nhu cầu mùa khi lao động thiếu.
4. Tăng tính mở rộng
Đưa AI vào IoT có thể làm cho cả hai công nghệ trở nên dễ tiếp cận và mở rộng hơn. Các thiết bị IoT chỉ hữu ích nếu bạn có khả năng phân tích dữ liệu của chúng và AI chỉ hữu ích nếu bạn có đủ thông tin để nghiên cứu. Do đó, kết hợp hai công nghệ này mang lại kết quả tốt hơn so với sử dụng riêng biệt.
Các thuật toán AI có thể chọn ra dữ liệu IoT quan trọng nhất và tóm tắt nó trước khi gửi đến các thiết bị khác. Việc nén này giảm yêu cầu mạng, làm cho môi trường IoT quy mô lớn hơn. Mạng có thể phân phối khối lượng công việc thông qua tính toán cạnh, giảm thiết bị phần cứng cho phân tích AI tiên tiến.
Ít nhất 70% các công ty sẽ sử dụng AI dưới một hình thức nào đó vào năm 2030. Những người không tận dụng công nghệ này có thể tụt lại phía sau đối thủ cạnh tranh, và AIoT làm cho nó dễ tiếp cận hơn, cho phép sự chuyển đổi đó cho các doanh nghiệp nhỏ hơn.
5. Giảm sai sót của con người
Kết hợp machine learning và công nghệ IoT cũng sẽ giúp các doanh nghiệp giảm thiểu sai sót. Trong nhiều quy trình làm việc hiện đại, bạn phải lấy dữ liệu từ các hệ thống IoT và di chuyển nó đến một vị trí khác để phân tích AI. Tuy nhiên, di chuyển phân tích đó gần hơn với thông tin sẽ giảm thiểu sự tham gia của con người trong quá trình này, giảm khả năng xảy ra sai sót.
Dữ liệu phải trải qua nhiều giai đoạn hoặc địa điểm để di chuyển gặp nhiều điểm mà có thể xảy ra lỗi nhập liệu. AIoT loại bỏ rủi ro này bằng cách phân tích thông tin tại nơi nó phát sinh. Việc giảm thiểu di chuyển và ít thay đổi hơn có nghĩa là ít khả năng xảy ra sai sót hơn.
Theo Forbes, các doanh nghiệp mất hàng triệu đô la hàng năm do lỗi của con người, và khi dữ liệu trở nên quan trọng hơn, những sai sót này có thể trở nên đắt đỏ hơn. Xem xét những con số đó, khả năng giảm thiểu lỗi của AIoT là không thể bỏ qua.
Để kết luận, AI và IoT đều là những công nghệ đột phá trong lĩnh vực của chúng. Nếu bạn muốn tận dụng tối đa chúng, bạn phải kết hợp chúng lại với nhau. Kết hợp machine learning và IoT sẽ mở khóa tiềm năng của cả hai công nghệ. Điều này sẽ trở thành tiêu chuẩn mới cho các tổ chức dữ liệu-driven khi xu hướng phát triển và công nghệ tiến bộ. Sự chuyển đổi đó sẽ thay đổi cảnh quan kinh doanh cho tốt hơn.
ChatGPT Will See You Now: Doctors Using AI to Answer Patient Questions; Pilot program aims to see if AI will cut time that medical staff spend replying to online inquiries
Behind every physician's medical advice is a wealth of knowledge, but soon, patients across the country might get advice from a different source: artificial intelligence.
In California and Wisconsin, OpenAI's "GPT" generative artificial intelligence is reading patient messages and drafting responses from their doctors. The operation is part of a pilot program in which three health systems test if the AI will cut the time that medical staff spend replying to patients' online inquiries.
UC San Diego Health and UW Health began testing the tool in April. Stanford Health Care aims to join the rollout early next week. Altogether, about two dozen healthcare staff are piloting this tool.
Marlene Millen, a primary care physician at UC San Diego Health who is helping lead the AI test, has been testing GPT in her inbox for about a week. Early AI-generated responses needed heavy editing, she said, and her team has been working to improve the replies. They are also adding a kind of bedside manner: If a patient mentioned returning from a trip, the draft could include a line that asked if their travels went well. "It gives the human touch that we would," Dr. Millen said.
There is preliminary data that suggests AI could add value. ChatGPT scored better than real doctors at responding to patient queries posted online, according to a study published Friday in the journal JAMA Internal Medicine, in which a panel of doctors did blind evaluations of posts.
Stanford Health Care aims to join the rollout of the AI program soon. PHOTO: Ian Bates for The Wall Street Journal
As many industries test ChatGPT as a business tool, hospital administrators and doctors are hopeful that the AI-assist will ease burnout among their staff, a problem that skyrocketed during the pandemic. The crush of messages and health-records management is a contributor , among administrative tasks, according to the American Medical Association.
Epic, the company based in Verona, Wis., that built the "MyChart" tool through which patients can message their healthcare providers, saw logins more than double from 106 million in the first quarter of 2020 to 260 million in the first quarter of 2023. Epic's software enables hospitals to store patient records electronically .
Earlier this month, Epic and Microsoft announced that health systems would have access to OpenAI's GPT through Epic's software and Microsoft's Azure cloud service. Microsoft has invested in OpenAI and is building artificial intelligence tools into its products . Hospitals are piloting GPT-3, a version of the large language model that is powering ChatGPT.
ChatGPT has mystified computer scientists for its skill in responding to medical queries—though it is known to make things up —including its ability to pass the U.S. Medical Licensing Exam. OpenAI's language models haven't been specifically trained on medical data sets, according to Eric Boyd, Microsoft's corporate vice president of AI Platform, though medical studies and medical information were included in the vast data set that taught it to spot patterns.
"Doctors working with ChatGPT may be the best messenger," said John Ayers, a computational epidemiologist at the University of California, San Diego, and an author of the JAMA study.
The AI pilot has some healthcare staff buzzing, said Dr. Millen. "Doctors are so burnt out that they are looking for any kind of hope." That hospital system saw patient messages jump from 50,000 messages a month before the pandemic, to over 80,000 a month after, with more than 140,000 messages in some pandemic months, Dr. Millen said.
Doctors and their teams are struggling to accommodate the extra load, she said. "I don't get time on my schedule. My staff is really busy, too."
Now when Dr. Millen clicks on a message from a patient, the AI instantly displays a draft reply. In doing so, the AI consults information in the patient's message as well as an abbreviated version of their electronic medical history, said Seth Hain, senior vice president of research and development at Epic. Medical data is protected in compliance with federal laws requiring patient privacy, he added.
There is an option to start with the draft—and edit or send the message as-is, if it is correct—or start with a blank reply. The AI drafts reference the patient's medical record when it proposes a response, for example, mentioning their existing medication or the last time they were seen by their physician. "It is helping us get it started," she said, saving several seconds that would be spent pulling up the patient's chart.
For now, the San Diego team has stopped the AI from answering any query that seeks medical advice. Similarly in Wisconsin, the 10 doctors at UW Health have enabled AI responses to a limited set of patient questions, including prescription requests and asks for documentation or paperwork, according to Chero Goswami, chief information officer at UW Health.
Administrators and doctors say the tool could be transformative—but only if it works. If the drafts require too much fact-checking or modification or demand too much time, then doctors will lose trust in it, said Patricia Garcia, a gastroenterologist at Stanford Health Care who is part of the team that aims to begin trialing GPT for messages next week. "They are only going to use this as long as it is making their life easier."
According to one team of doctors, the version of ChatGPT used in the study is significantly better than physicians at answering medical questions posted online. In the new JAMA Internal Medicine study, the study authors scoured the Reddit forum r/askDocs, where people post questions about their health and illnesses. Medical providers verified by Reddit moderators post replies.
For the study, the authors pulled 195 questions and the responses from doctors that were posted in October to this forum. They then posed the medical question to ChatGPT, and logged the AI's response.
A team of five medical professionals graded the AI responses for quality and empathy against those written by doctors on Reddit. Without knowing who wrote which, the evaluators gave "good" or "very good" ratings to four times as many ChatGPT responses as physician posts. Also, only 4.6% of doctors' posts were graded as "empathetic" or "very empathetic," compared with 45%—10 times as many—ChatGPT posts.
Christopher Longhurst, chief digital officer and chief medical officer at UC San Diego Health, who is an author on the study, said the data in the study persuaded him to give the AI pilot a try. "There is now research showing that this is going to help—well, let's see if we can translate this into practice," he said.
Write to Nidhi Subbaraman at nidhi.subbaraman@wsj.com
Credit: By Nidhi Subbaraman
Behind every physician's medical advice is a wealth of knowledge, but soon, patients across the country might get advice from a different source: artificial intelligence. In California and Wisconsin, OpenAI's "GPT" generative artificial intelligence is reading patient messages and drafting responses from their doctors. The operation is part of a pilot program in which three health systems test if the AI will cut the time that medical staff spend replying to patients' online inquiries. UC San Diego Health and UW Health began testing the tool in April. Stanford Health Care aims to join the rollout early next week. Altogether, about two dozen healthcare staff are piloting this tool. Marlene Millen, a primary care physician at UC San Diego Health who is helping lead the AI test, has been testing GPT in her inbox for about a week. Early AI-generated responses needed heavy editing, she said, and her team has been working to improve the replies. They are also adding a kind of bedside manner: If a patient mentioned returning from a trip, the draft could include a line that asked if their travels went well. "It gives the human touch that we would," Dr. Millen said. There is preliminary data that suggests AI could add value. ChatGPT scored better than real doctors at responding to patient queries posted online, according to a study published Friday in the journal JAMA Internal Medicine, in which a panel of doctors did blind evaluations of posts. Stanford Health Care aims to join the rollout of the AI program soon. PHOTO: Ian Bates for The Wall Street Journal As many industries test ChatGPT as a business tool, hospital administrators and doctors are hopeful that the AI-assist will ease burnout among their staff, a problem that skyrocketed during the pandemic. The crush of messages and health-records management is a contributor , among administrative tasks, according to the American Medical Association. Epic, the company based in Verona, Wis., that built the "MyChart" tool through which patients can message their healthcare providers, saw logins more than double from 106 million in the first quarter of 2020 to 260 million in the first quarter of 2023. Epic's software enables hospitals to store patient records electronically . Earlier this month, Epic and Microsoft announced that health systems would have access to OpenAI's GPT through Epic's software and Microsoft's Azure cloud service. Microsoft has invested in OpenAI and is building artificial intelligence tools into its products . Hospitals are piloting GPT-3, a version of the large language model that is powering ChatGPT. ChatGPT has mystified computer scientists for its skill in responding to medical queries—though it is known to make things up —including its ability to pass the U.S. Medical Licensing Exam. OpenAI's language models haven't been specifically trained on medical data sets, according to Eric Boyd, Microsoft's corporate vice president of AI Platform, though medical studies and medical information were included in the vast data set that taught it to spot patterns. "Doctors working with ChatGPT may be the best messenger," said John Ayers, a computational epidemiologist at the University of California, San Diego, and an author of the JAMA study. The AI pilot has some healthcare staff buzzing, said Dr. Millen. "Doctors are so burnt out that they are looking for any kind of hope." That hospital system saw patient messages jump from 50,000 messages a month before the pandemic, to over 80,000 a month after, with more than 140,000 messages in some pandemic months, Dr. Millen said. Doctors and their teams are struggling to accommodate the extra load, she said. "I don't get time on my schedule. My staff is really busy, too." Now when Dr. Millen clicks on a message from a patient, the AI instantly displays a draft reply. In doing so, the AI consults information in the patient's message as well as an abbreviated version of their electronic medical history, said Seth Hain, senior vice president of research and development at Epic. Medical data is protected in compliance with federal laws requiring patient privacy, he added. There is an option to start with the draft—and edit or send the message as-is, if it is correct—or start with a blank reply. The AI drafts reference the patient's medical record when it proposes a response, for example, mentioning their existing medication or the last time they were seen by their physician. "It is helping us get it started," she said, saving several seconds that would be spent pulling up the patient's chart. For now, the San Diego team has stopped the AI from answering any query that seeks medical advice. Similarly in Wisconsin, the 10 doctors at UW Health have enabled AI responses to a limited set of patient questions, including prescription requests and asks for documentation or paperwork, according to Chero Goswami, chief information officer at UW Health. Administrators and doctors say the tool could be transformative—but only if it works. If the drafts require too much fact-checking or modification or demand too much time, then doctors will lose trust in it, said Patricia Garcia, a gastroenterologist at Stanford Health Care who is part of the team that aims to begin trialing GPT for messages next week. "They are only going to use this as long as it is making their life easier." According to one team of doctors, the version of ChatGPT used in the study is significantly better than physicians at answering medical questions posted online. In the new JAMA Internal Medicine study, the study authors scoured the Reddit forum r/askDocs, where people post questions about their health and illnesses. Medical providers verified by Reddit moderators post replies. For the study, the authors pulled 195 questions and the responses from doctors that were posted in October to this forum. They then posed the medical question to ChatGPT, and logged the AI's response. A team of five medical professionals graded the AI responses for quality and empathy against those written by doctors on Reddit. Without knowing who wrote which, the evaluators gave "good" or "very good" ratings to four times as many ChatGPT responses as physician posts. Also, only 4.6% of doctors' posts were graded as "empathetic" or "very empathetic," compared with 45%—10 times as many—ChatGPT posts. Christopher Longhurst, chief digital officer and chief medical officer at UC San Diego Health, who is an author on the study, said the data in the study persuaded him to give the AI pilot a try. "There is now research showing that this is going to help—well, let's see if we can translate this into practice," he said. Write to Nidhi Subbaraman at nidhi.subbaraman@wsj.com Credit: By Nidhi Subbaraman
Đằng sau các lời khuyên y tế của mỗi bác sĩ là một kho tàng kiến thức, nhưng sớm thôi, bệnh nhân trên khắp đất nước có thể nhận được lời khuyên từ một nguồn khác: trí tuệ nhân tạo. Ở California và Wisconsin, trí tuệ nhân tạo tạo ra "GPT" của OpenAI đang đọc các tin nhắn của bệnh nhân và soạn thảo phản hồi từ bác sĩ của họ. Hoạt động này là một phần của chương trình thử nghiệm trong đó ba hệ thống chăm sóc sức khỏe kiểm tra xem trí tuệ nhân tạo có giảm thời gian mà nhân viên y tế phải dành để trả lời các câu hỏi trực tuyến của bệnh nhân hay không. UC San Diego Health và UW Health đã bắt đầu kiểm thử công cụ này từ tháng 4. Stanford Health Care dự kiến sẽ tham gia vào việc triển khai vào đầu tuần tới. Tất cả cùng khoảng hai chục nhân viên y tế đang thử nghiệm công cụ này. Marlene Millen, một bác sĩ chăm sóc sức khỏe cơ sở tại UC San Diego Health đang giúp dẫn dắt thử nghiệm trí tuệ nhân tạo, đã thử nghiệm GPT trong hộp thư đến của mình khoảng một tuần. Phản hồi ban đầu được tạo ra bởi trí tuệ nhân tạo cần phải được chỉnh sửa nhiều, và nhóm của bà đã làm việc để cải thiện các câu trả lời. Họ cũng đang thêm một loại thái độ như thể nằm trong tay bệnh nhân: nếu bệnh nhân đã đề cập đến việc trở về từ một chuyến đi, bản dự thảo có thể bao gồm một dòng hỏi xem chuyến đi của họ đã đi tốt chưa. "Nó mang lại sự chạm vào con người mà chúng tôi muốn", bác sĩ Millen nói. Có dữ liệu sơ bộ cho thấy trí tuệ nhân tạo có thể thêm giá trị. ChatGPT đã đạt điểm số cao hơn các bác sĩ thật khi trả lời các câu hỏi của bệnh nhân đăng trực tuyến, theo một nghiên cứu được công bố vào thứ Sáu trên tạp chí y tế JAMA Internal Medicine, trong đó một nhóm bác sĩ đã đánh giá mù quáng các bài đăng. Khi nhiều ngành công nghiệp thử nghiệm ChatGPT như một công cụ kinh doanh, các quản trị viện và bác sĩ hy vọng trợ giúp của trí tuệ nhân tạo sẽ giảm thiểu sự kiệt sức giữa nhân viên y tế của họ, một vấn đề tăng vọt trong đại dịch. Theo Hiệp hội Y khoa Mỹ, sự đè nén của các tin nhắn và quản lý hồ sơ sức khỏe là một trong những nguyên nhân, ngoài các nhiệm vụ hành chính khác. Epic, công ty có trụ sở tại Verona, Wisconsin, đã xây dựng công cụ "MyChart" thông qua đó bệnh nhân có thể nhắn tin cho nhà cung cấp dịch vụ chăm sóc sức khỏe của mình, đã thấy số lần đăng nhập tăng hơn gấp đôi từ 106 triệu lượt trong quý đầu tiên năm 2020 lên 260 triệu lượt trong quý đầu tiên năm 2023. Phần mềm của Epic cho phép các bệnh viện lưu trữ hồ sơ bệnh nhân điện tử. Vào đầu tháng này, Epic và Microsoft đã thông báo rằng các hệ thống chăm sóc sức khỏe sẽ có quyền truy cập vào GPT của OpenAI thông qua phần mềm của Epic và dịch vụ đám mây Azure của Microsoft. Microsoft đã đầu tư vào OpenAI và đang xây dựng các công cụ trí tuệ nhân tạo vào sản phẩm của mình. Các bệnh viện đang thử nghiệm GPT-3, một phiên bản của mô hình ngôn ngữ lớn đang cung cấp năng lượng cho ChatGPT. ChatGPT đã khiến các nhà khoa học máy tính bị mê hoặc bởi kỹ năng trả lời các câu hỏi y tế - mặc dù nó được biết đến vì khả năng bịa đặt của nó - bao gồm khả năng vượt qua Kỳ thi cấp giấy phép Y tế Hoa Kỳ. Theo Eric Boyd, phó chủ tịch cấp cao của Nền tảng Trí tuệ nhân tạo của Microsoft, các mô hình ngôn ngữ của OpenAI chưa được đào tạo đặc biệt trên tập dữ liệu y tế, mặc dù các nghiên cứu y tế và thông tin y tế đã được bao gồm trong tập dữ liệu rộng lớn giúp nó nhận ra các mẫu. "Những bác sĩ làm việc với ChatGPT có thể là người truyền tin tốt nhất," John Ayers, một bác sĩ dịch tễ học tính toán tại Đại học California, San Diego và là tác giả của nghiên cứu JAMA nói. Phi công trình nhân tạo này đã khiến một số nhân viên y tế thích thú, bác sĩ Millen cho biết. "Các bác sĩ đã kiệt sức đến mức họ đang tìm kiếm bất kỳ niềm hy vọng nào". Hệ thống bệnh viện đó đã thấy số lượng tin nhắn của bệnh nhân tăng từ 50.000 tin nhắn một tháng trước đại dịch lên hơn 80.000 tin nhắn một tháng sau đó, với hơn 140.000 tin nhắn trong một số tháng đại dịch, bác sĩ Millen cho biết. Bác sĩ và nhóm của họ đang lâm vào khó khăn để đáp ứng thêm công việc, bà nói. "Tôi không có thời gian trong lịch của mình. Nhân viên của tôi cũng rất bận". Bây giờ khi bác sĩ Millen nhấp vào một tin nhắn từ bệnh nhân, trí tuệ nhân tạo ngay lập tức hiển thị một bản dự thảo trả lời. Để làm điều này, trí tuệ nhân tạo được tư vấn thông tin trong tin nhắn của bệnh nhân cũng như phiên bản rút gọn của lịch sử bệnh án điện tử của họ, Seth Hain, phó chủ tịch cấp cao của Epic cho phát triển nghiên cứu và phát triển. Dữ liệu y tế được bảo vệ để tuân thủ các luật liên bang yêu cầu bảo vệ quyền riêng tư của bệnh nhân, ông cho biết. Có một tùy chọn để bắt đầu với bản dự thảo - và chỉnh sửa hoặc gửi tin nhắn như đã đề xuất, nếu chính xác - hoặc bắt đầu với một câu trả lời trống. Các bản dự thảo của trí tuệ nhân tạo tham khảo hồ sơ bệnh án của bệnh nhân khi nó đề xuất một phản hồi, ví dụ như đề cập đến thuốc hiện tại của họ hoặc lần cuối cùng họ được bác sĩ điều trị. "Nó giúp chúng tôi bắt đầu," bà nói, tiết kiệm vài giây mà sẽ được dành cho việc kéo lên bảng của bệnh nhân. Hiện tại, nhóm San Diego đã ngừng cho trí tuệ nhân tạo trả lời bất kỳ câu hỏi nào yêu cầu lời khuyên y tế. Tương tự tại Wisconsin, 10 bác sĩ tại UW Health đã cho phép trả lời trí tuệ nhân tạo đối với một số câu hỏi giới hạn của bệnh nhân, bao gồm yêu cầu đơn thuốc và yêu cầu tài liệu hoặc giấy tờ, theo Chero Goswami, giám đốc thông tin chính tại UW Health. Các quản trị viên và bác sĩ cho biết công cụ này có thể làm thay đổi toàn diện nhưng chỉ khi nó hoạt động tốt. Nếu các bản dự thảo yêu cầu quá nhiều kiểm tra sự chính xác hoặc sửa đổi hoặc yêu cầu quá nhiều thời gian, thì các bác sĩ sẽ mất niềm tin vào nó, bác sĩ Patricia Garcia, một bác sĩ chuyên khoa tiêu hóa tại Stanford Health Care là một phần của đội ngũ nhóm mà đang cố gắng thử nghiệm GPT cho các tin nhắn vào tuần tới. "Họ chỉ sử dụng điều này khi nó làm cuộc sống của họ dễ dàng hơn". Theo một nhóm bác sĩ, phiên bản ChatGPT được sử dụng trong nghiên cứu này đáng kể tốt hơn các bác sĩ khi trả lời các câu hỏi y tế được đăng trực tuyến. Trong nghiên cứu mới của JAMA Internal Medicine, các tác giả nghiên cứu đã lục soát diễn đàn Reddit r/askDocs, nơi mọi người đăng câu hỏi về sức khỏe và bệnh tật của họ. Các nhà cung cấp dịch vụ y tế được xác minh bởi các nhà quản lý Reddit đăng các câu trả lời. Đối với nghiên cứu này, các tác giả đã thu thập 195 câu hỏi và phản hồi từ các bác sĩ được đăng lên diễn đàn này vào tháng 10. Sau đó, họ
The Secret History of AI, and a Hint at What's Next; Artificial intelligence is already a big part of our daily lives. 'We are at an inflection point.
If you're worried that artificial intelligence will transform your job, insinuate itself into your daily routines, or lead to wars fought with lethal autonomous systems, you're a little late—all of those things have already come to pass.
The AI revolution is here. Recent developments like AI chatbots are important, but serve mostly to highlight that AI has been profoundly affecting our lives for decades—and will continue to for many more.
What's unique about this moment is that new systems like text-generating AIs, such as ChatGPT , and image-generating AIs, like DALL·E 2 and Midjourney , are the first consumer applications of AI. They allow regular people to use AI to make things. That's awoken many of us to its potential.
As Cara LaPointe, co-director of the Johns Hopkins Institute for Assured Autonomy told me recently, "In terms of public consciousness of AI, we are at an inflection point."
In the past you had to have the resources of Google to create something useful with AI. Now anyone with an internet connection can. And this is just the beginning of the potential utility of these systems.
Microsoft co-founder Bill Gates said in a recent essay said we are now living in "the age of AI." He compared these systems to the first graphical user interfaces—that is, the first versions of the Windows and Macintosh operating systems. He outlined a not-too-far-fetched future in which talking with machines through natural language interfaces becomes the new, dominant way to interact with them.
In the meantime, artificial intelligence has been an essential tool for fighting our wars , protecting our finances, operating our capital markets , insuring our assets, targeting our advertisements and powering our search results—for more than a decade, and in some cases decades.
Most people don't know this history, says David MacInnis, vice president of analytics and actuarial modernization at insurer Allstate. For most of its history, AI was the sole purview of mathematicians and computer scientists, after all. And it wasn't called AI, because that term had fallen out of fashion . Instead, engineers talked about generalized linear models, generalized boosted models, or decision trees.
Later, broad classes of these algorithms were all grouped under "machine learning," and engineers started using artificial neural networks, inspired by neurons in the brain, in place of other mathematical techniques. In general, these systems were designed to recognize patterns and predict outcomes—giving them a significant overlap with another blanket term, "predictive analytics."
"Insurers have been doing really deep levels of predictive analytics for over two decades now," Dr. MacInnis says. The AI-powered prediction algorithms that decide which advertisements to deliver to your social feed with such uncanny accuracy that they have convinced millions of people their phones are listening to them? They leverage the same kind of math and algorithms insurers use to decide what to charge for a policy—and both systems are enabled by big data.
Dr. LaPointe calls our current era "learning-based AI." What characterizes this time is that computers—rather than humans—are now building the models that machines use to accomplish a task.
Even "generative" AI is a bit of a misnomer—ChatGPT is using many of the same prediction algorithms and related technologies AI scientists have been developing for years, but it uses them to predict which word to add next to a block of text, instead of, say, whether an image is of a cat.
These new generative AI systems, which pull together almost every trick cooked up by AI researchers since the turn of the millennium, are doing things no AI has ever done before. And that's why they're being integrated into search and productivity tools from Microsoft, Google, and countless startups in every field imaginable, from healthcare and logistics to tax prep and videogames .
But then, the last dozen or so new AI systems rolled out in the past couple of decades have also accomplished things no AI had ever done before. And, without most of us being fully cognizant of it, they've transformed whole industries, from retail and logistics to media and banking.
The AIs that did all that are all around us . We invoke them every time our speech is decoded by our smart assistants, we find what we are looking for on Google, we order something and it arrives the same day, our social media feed is sorted for us by Facebook or TikTok , we get an instant quote online from an insurance broker, or a cruise missile finds its target a thousand miles from where it was launched.
Much of what AI does for us on a daily basis is marked by its absence, and therefore invisible.
Part of the reason that people are so excited about AI right now is that when we see rapid progress in a field, we tend to project that into the future, says Adam Ozimek, chief economist at the Economic Innovation Group, a policy research organization in Washington, D.C. What we forget is that technology often progresses in fits and starts.
As with every new technology, one way to get a preview of the potential impacts of AI is to understand how it works, and what it's actually good for. Cal Newport, an assistant professor of computer science at Georgetown University, has written about as accessible an essay on how ChatGPT actually works as we're likely to get (it still clocks in at more than 4,000 words). He concludes that ChatGPT confuses otherwise sophisticated human thinkers into believing it's more capable than it is, because when they read its well-crafted prose, they mistakenly imagine the mind that would be required to generate such prose.
But ChatGPT has no mind. It has more in common with a search engine than even the most primitive of brains. If we are impressed by its abilities, we must remember that they are a product not of its intelligence, but its scale. ChatGPT required that its engineers cram into it more or less all the text on the entire open web, so that it would have enough reference material to be able to remix it in a way that seems like original thinking, but isn't. Dr. Newport concludes his essay in the New Yorker by saying that "a system like ChatGPT doesn't create, it imitates."
That doesn't exactly sound like the kind of AI that is about to attain sentience and decide it's better off without its pesky human overlords. When our machines do things that we once thought were the sole domain of humans—whether it's beating us at chess, or writing an essay—the general cultural and economic trend is that humans reassign themselves to the tasks the machines aren't nearly as good at, and become more productive in the process.
We have been here many times before. The financial incentives to hype a new technology never change, nor does our tendency to both fear and celebrate whatever is the newest, shiniest product of our civilization's ever-growing expenditure on research and development .
That doesn't mean that AI won't be transformative—clearly, it already has been.
Write to Christopher Mims at christopher.mims@wsj.com
For more WSJ Technology analysis, reviews, advice and headlines, sign up for our weekly newsletter .
Credit: By Christopher Mims
If you're worried that artificial intelligence will transform your job, insinuate itself into your daily routines, or lead to wars fought with lethal autonomous systems, you're a little late—all of those things have already come to pass. The AI revolution is here. Recent developments like AI chatbots are important, but serve mostly to highlight that AI has been profoundly affecting our lives for decades—and will continue to for many more. What's unique about this moment is that new systems like text-generating AIs, such as ChatGPT , and image-generating AIs, like DALL·E 2 and Midjourney , are the first consumer applications of AI. They allow regular people to use AI to make things. That's awoken many of us to its potential. As Cara LaPointe, co-director of the Johns Hopkins Institute for Assured Autonomy told me recently, "In terms of public consciousness of AI, we are at an inflection point." In the past you had to have the resources of Google to create something useful with AI. Now anyone with an internet connection can. And this is just the beginning of the potential utility of these systems. Microsoft co-founder Bill Gates said in a recent essay said we are now living in "the age of AI." He compared these systems to the first graphical user interfaces—that is, the first versions of the Windows and Macintosh operating systems. He outlined a not-too-far-fetched future in which talking with machines through natural language interfaces becomes the new, dominant way to interact with them. In the meantime, artificial intelligence has been an essential tool for fighting our wars , protecting our finances, operating our capital markets , insuring our assets, targeting our advertisements and powering our search results—for more than a decade, and in some cases decades. Most people don't know this history, says David MacInnis, vice president of analytics and actuarial modernization at insurer Allstate. For most of its history, AI was the sole purview of mathematicians and computer scientists, after all. And it wasn't called AI, because that term had fallen out of fashion . Instead, engineers talked about generalized linear models, generalized boosted models, or decision trees. Later, broad classes of these algorithms were all grouped under "machine learning," and engineers started using artificial neural networks, inspired by neurons in the brain, in place of other mathematical techniques. In general, these systems were designed to recognize patterns and predict outcomes—giving them a significant overlap with another blanket term, "predictive analytics." "Insurers have been doing really deep levels of predictive analytics for over two decades now," Dr. MacInnis says. The AI-powered prediction algorithms that decide which advertisements to deliver to your social feed with such uncanny accuracy that they have convinced millions of people their phones are listening to them? They leverage the same kind of math and algorithms insurers use to decide what to charge for a policy—and both systems are enabled by big data. Dr. LaPointe calls our current era "learning-based AI." What characterizes this time is that computers—rather than humans—are now building the models that machines use to accomplish a task. Even "generative" AI is a bit of a misnomer—ChatGPT is using many of the same prediction algorithms and related technologies AI scientists have been developing for years, but it uses them to predict which word to add next to a block of text, instead of, say, whether an image is of a cat. These new generative AI systems, which pull together almost every trick cooked up by AI researchers since the turn of the millennium, are doing things no AI has ever done before. And that's why they're being integrated into search and productivity tools from Microsoft, Google, and countless startups in every field imaginable, from healthcare and logistics to tax prep and videogames . But then, the last dozen or so new AI systems rolled out in the past couple of decades have also accomplished things no AI had ever done before. And, without most of us being fully cognizant of it, they've transformed whole industries, from retail and logistics to media and banking. The AIs that did all that are all around us . We invoke them every time our speech is decoded by our smart assistants, we find what we are looking for on Google, we order something and it arrives the same day, our social media feed is sorted for us by Facebook or TikTok , we get an instant quote online from an insurance broker, or a cruise missile finds its target a thousand miles from where it was launched. Much of what AI does for us on a daily basis is marked by its absence, and therefore invisible. Part of the reason that people are so excited about AI right now is that when we see rapid progress in a field, we tend to project that into the future, says Adam Ozimek, chief economist at the Economic Innovation Group, a policy research organization in Washington, D.C. What we forget is that technology often progresses in fits and starts. As with every new technology, one way to get a preview of the potential impacts of AI is to understand how it works, and what it's actually good for. Cal Newport, an assistant professor of computer science at Georgetown University, has written about as accessible an essay on how ChatGPT actually works as we're likely to get (it still clocks in at more than 4,000 words). He concludes that ChatGPT confuses otherwise sophisticated human thinkers into believing it's more capable than it is, because when they read its well-crafted prose, they mistakenly imagine the mind that would be required to generate such prose. But ChatGPT has no mind. It has more in common with a search engine than even the most primitive of brains. If we are impressed by its abilities, we must remember that they are a product not of its intelligence, but its scale. ChatGPT required that its engineers cram into it more or less all the text on the entire open web, so that it would have enough reference material to be able to remix it in a way that seems like original thinking, but isn't. Dr. Newport concludes his essay in the New Yorker by saying that "a system like ChatGPT doesn't create, it imitates." That doesn't exactly sound like the kind of AI that is about to attain sentience and decide it's better off without its pesky human overlords. When our machines do things that we once thought were the sole domain of humans—whether it's beating us at chess, or writing an essay—the general cultural and economic trend is that humans reassign themselves to the tasks the machines aren't nearly as good at, and become more productive in the process. We have been here many times before. The financial incentives to hype a new technology never change, nor does our tendency to both fear and celebrate whatever is the newest, shiniest product of our civilization's ever-growing expenditure on research and development . That doesn't mean that AI won't be transformative—clearly, it already has been. Write to Christopher Mims at christopher.mims@wsj.com For more WSJ Technology analysis, reviews, advice and headlines, sign up for our weekly newsletter . Credit: By Christopher Mims
Nếu bạn lo lắng rằng trí tuệ nhân tạo sẽ biến đổi công việc của bạn, xâm nhập vào thói quen hàng ngày của bạn, hoặc dẫn đến các cuộc chiến được chiến đấu với các hệ thống tự động gây tử vong, bạn đã muộn - tất cả những điều đó đã xảy ra. Cách mạng trí tuệ nhân tạo đã đến. Các tiến bộ gần đây như chatbot trí tuệ nhân tạo là quan trọng, nhưng chủ yếu là để làm nổi bật rằng trí tuệ nhân tạo đã ảnh hưởng mạnh đến cuộc sống của chúng ta trong nhiều thập kỷ và sẽ tiếp tục trong nhiều thập kỷ nữa. Những gì đặc biệt về thời điểm này là các hệ thống mới như trí tuệ nhân tạo tạo văn bản như ChatGPT và trí tuệ nhân tạo tạo hình ảnh như DALL·E 2 và Midjourney là các ứng dụng tiêu dùng đầu tiên của trí tuệ nhân tạo. Chúng cho phép người thường sử dụng trí tuệ nhân tạo để tạo ra những thứ. Điều đó đã đánh thức nhiều người về tiềm năng của nó. Bill Gates, đồng sáng lập Microsoft, nói trong một bài tiểu luận gần đây rằng chúng ta đang sống trong "thời đại trí tuệ nhân tạo". Ông so sánh những hệ thống này với các giao diện người dùng đồ họa đầu tiên - nghĩa là các phiên bản đầu tiên của hệ điều hành Windows và Macintosh. Trong tương lai không quá xa, ông mô tả một tương lai không quá xa trong đó việc nói chuyện với máy thông qua các giao diện ngôn ngữ tự nhiên trở thành cách tương tác mới, ưu tiên. Trí tuệ nhân tạo đã là công cụ thiết yếu để chiến đấu chống lại những cuộc chiến của chúng ta, bảo vệ tài chính của chúng ta, hoạt động thị trường vốn của chúng ta, bảo hiểm tài sản của chúng ta, nhắm mục tiêu quảng cáo của chúng ta và cung cấp các kết quả tìm kiếm của chúng ta trong hơn một thập kỷ và trong một số trường hợp là nhiều thập kỷ. Phần lớn người dân không biết về lịch sử này, David MacInnis, phó chủ tịch phân tích và hiện đại hóa hành vi ở công ty bảo hiểm Allstate cho biết. Trong phần lớn lịch sử của nó, trí tuệ nhân tạo là sự độc quyền của các nhà toán học và nhà khoa học máy tính. Và nó không được gọi là trí tuệ nhân tạo, vì thuật ngữ đó đã lỗi thời. Thay vào đó, kỹ sư đã nói về các mô hình tuyến tính tổng quát, các mô hình tăng cường tổng quát hoặc các cây quyết định. Về sau, các lớp rộng của các thuật toán này đã được nhóm lại dưới "học máy", và các kỹ sư đã bắt đầu sử dụng các mạng thần kinh nhân tạo, được truyền cảm hứng từ các tế bào thần kinh trong não, thay cho các kỹ thuật toán học khác. Nói chung, các hệ thống này được thiết kế để nhận ra các mẫu và dự đoán kết quả - cho phép chúng có một sự trùng lặp đáng kể với thuật toán dự đoán. Phần của lý do mà mọi người đang rất hào hứng về trí tuệ nhân tạo ngay bây giờ là khi chúng ta nhìn thấy tiến bộ nhanh chóng trong một lĩnh vực, chúng ta có xu hướng chiếu mạnh nó vào tương lai, Adam Ozimek, chuyên gia kinh tế trưởng tại Tổ chức Nghiên cứu Chính sách Tạo đột phá Kinh tế ở Washington, D.C. nói. Những gì chúng ta quên là công nghệ thường tiến triển bằng những bước nhảy vọt. Như với mọi công nghệ mới, một cách để xem trước các tác động tiềm năng của trí tuệ nhân tạo là hiểu cách nó hoạt động và những gì nó thực sự tốt. Cal Newport, giáo sư trợ giảng khoa học máy tính tại Đại học Georgetown, đã viết một bài tiểu luận dễ tiếp cận nhất về cách ChatGPT thực sự hoạt động như chúng tôi có thể nhận được (nó vẫn có hơn 4.000 từ). Anh kết luận rằng ChatGPT đánh lừa những nhà tư tưởng con người tinh vi khác vào tin rằng nó có khả năng hơn những gì nó là, vì khi họ đọc văn bản tốt của nó, họ vô tình tưởng tượng ra trí nhớ cần thiết để tạo ra văn bản như vậy. Nhưng ChatGPT không có trí nhớ. Nó có nhiều điểm chung hơn với một công cụ tìm kiếm hơn là thậm chí là bộ não ngay cả ở những bộ não ngay thụ đầu tiên. Nếu chúng ta ấn tượng với khả năng của nó, chúng ta phải nhớ rằng chúng là sản phẩm không phải của trí thông minh của nó, mà là quy mô của nó. ChatGPT yêu cầu các kỹ sư của nó đóng gói vào nó hầu hết tất cả văn bản trên toàn bộ web mở, để nó có đủ tài liệu tham khảo để có thể trộn lẫn nó một cách dường như là tư duy sáng tạo, nhưng không phải. Tiến sĩ Newport kết luận bài tiểu luận của mình trên tạp chí New Yorker bằng cách nói rằng "một hệ thống như ChatGPT không tạo ra, nó làm giả". Điều đó không chính xác giống như loại trí tuệ nhân tạo sắp đạt được sự tỉnh táo và quyết định rằng nó tốt hơn mà không cần sự kiểm soát của con người. Khi máy móc của chúng ta làm những việc mà chúng ta từng nghĩ là chỉ là lĩnh vực của con người - cho dù đó là đánh bại chúng ta trong cờ vua, hoặc viết một bài tiểu luận - xu hướng văn hóa và kinh tế chung là con người phân công lại cho mình những nhiệm vụ mà máy móc không thực sự tốt, và trở nên hiệu quả hơn trong quá trình đó. Chúng ta đã có rất nhiều lần trước đây. Các động lực tài chính để thổi phồng một công nghệ mới không bao giờ thay đổi, cũng như xu hướng của chúng ta để đồng thời sợ hãi và vinh danh bất cứ sản phẩm mới nhất, sáng bóng nào của chi phí nghiên cứu và phát triển của nền văn minh của chúng ta. Điều đó không có nghĩa là trí tuệ nhân tạo sẽ không có sự biến đổi - rõ ràng, nó đã làm như vậy. Viết cho Christopher Mims tại [christopher.mims@wsj.com](mailto:christopher.mims@wsj.com) Để biết thêm phân tích, đánh giá, lời khuyên và tiêu đề công nghệ WSJ, đăng ký nhận bản tin hàng tuần của chúng tôi. Credit: Bởi Christopher Mims
AI Tech Enables Industrial-Scale Intellectual-Property Theft, Say Critics
Grzegorz Rutkowski has studied the great masters of texture and light—Caravaggio, Rembrandt, Vermeer—and his ability to mimic their techniques has made him an in-demand painter of fantastical beasts and landscapes for the videogame industry.
But these days, instead of devoting all his time to painting in his sun-dappled studio near the picturesque medieval square in the town of Pieńsk, Poland, he's spending ever more of it on Zoom calls, talking to lawyers, artists and others about the strange reason he is suddenly far more famous than he ever thought possible.
It turns out that Mr. Rutkowski's distinctive style and choice of subject matter have made him among the most popular artists to copy using the kind of image-generating artificial-intelligence systems that have exploded in popularity in the past year. The two most prominent of these systems are Dall-E 2 , made by San Francisco-based startup OpenAI , and Stable Diffusion, created by Stability AI, though there are an ever-growing number of competitors.
The result is that images made by AI in Mr. Rutkowski's style are suddenly all over forums on the internet where users share works they have generated from text prompts. Mr. Rutkowski's name has become such a popular prompt in such AI art generators that he recently decided to join a federal lawsuit seeking class-action status against several of the companies involved.
For these algorithms to copy Mr. Rutkowski's style, the companies that built them first had to copy his work, and that of thousands of other artists, from the internet, and then use it to train their AIs. This is the basic mechanics of all so-called generative AI—first, a company finds or creates a big enough set of data, then uses various algorithms to train software to spit out specific text, images or code based on that data.
What worried Mr. Rutkowski most was that art generated using his work threatened to bury his own original works in the places in which it mattered, on Google's search index and in repositories of online art.
Mr. Rutkowski's story matters because it is, in many ways, representative of the way that generative AI has the potential to transform the production of all kinds of creative work , including novels, marketing copy, news articles, video, illustration and code.
We've all been dealing for years with kinds of AI that excel in pattern recognition, enabling functions like recognizing family members' faces in photo apps or flagging objectionable content before it reaches our social-media feeds.
The algorithms that power generative AIs go one step further. Both kinds of AI require large sets of training data, but generative AI can actually synthesize that data to produce new content, not just recognize what already exists.
Critics of these systems include artists, coders, legal experts, and even some of the engineers who build them. They argue that the systems that make this possible, including text-generating ChatGPT from OpenAI, Microsoft's GitHub Copilot for code, and art-generating AIs, all ingest content without securing permission from its creators. Then they use that content to create systems that actively compete with the individuals whose work they ingested. Without all that free content, gathered under what some argue are fair-use protections, these content-generating AIs could not exist.
Fans of these systems, including their builders, users and the usual menagerie of techno-optimists inclined to cheer any potentially disruptive innovation, argue that a generative AI is just doing some version of what a human does—it learns from existing works, then produces its own. They also say that, however one feels about how these systems accomplish it, this technology might be inevitable, since anyone with enough technical skill can build one.
Some who share that view are trying to create versions of the technology that incorporate ethical considerations. Musician, coder and academic Mathew Dryhurst has launched , with his wife, musician Holly Herndon, a service called Spawning that is designed to create AI art only using images from artists who have consented to the use of their work.
"This is not going away," Mr. Dryhurst says. "As a society, we have to digest that all media is now training data, and any style—even a timbre in music—is going to be a non-protectable thing."
Writers, coders and artists who embrace these systems can increase their productivity in the same way that automation has increased the productivity of countless workers in other fields since the dawn of the industrial revolution. Many, including novelists and coders, have already reported that AI can make them both more creative and more productive.
In addition, these systems can democratize the creation of content. People who can barely draw a circle can now have a hand in creating breathtaking works of art. Non-native speakers of a language can generate florid prose on any topic. And programmers who are under constant pressure to be more productive can generate chunks of working code with nothing but a short text prompt.
"Everyone is saying this is the end of the arts," says Mr. Dryhurst. "I don't think that's even close to the truth."
Those behind the systems are reluctant to speak openly about them, however, on account of court cases in the works against the companies that either help create this content or host it.
Those cases include the suit that Mr. Rutkowski joined as a plaintiff, against AI-art companies Midjourney and Stability AI, and DeviantArt, a popular forum for art that both hosts AI art and has created its own system for generating it. In that case, filed last month in U.S. District Court in San Francisco, the plaintiffs argue that these companies violated the copyright of tens of thousands of artists.
"The allegations in this suit represent a misunderstanding of how generative AI technology works and the law surrounding copyright," says a spokesman for Stability AI. "We intend to defend ourselves and the vast potential generative AI has to expand the creative power of humanity." DeviantArt and Midjourney did not respond to requests for comment.
Another proposed class-action suit , filed in November in the same federal court, targets Microsoft, its subsidiary GitHub, and OpenAI for their GitHub Copilot system. The plaintiffs argue that by producing code that doesn't give attribution to the original authors whose code is used to generate Copilot's results, the system violates various open-source licenses, as well as the Digital Millennium Copyright Act. The defendants have responded by asking the court to throw out the suit . Among their arguments: The plaintiffs—programmers who share their code on GitHub and elsewhere—haven't demonstrated that Copilot harms them in any real way.
more keywords
The stakes here could be high. As its proponents argue, generative AI might be the next big thing in tech, defining whole industries for decades. It also might be just another tool that makes people a bit more productive, and Microsoft's products marginally more useful. Microsoft plans to invest billions into OpenAI , creator of Dall-E, ChatGPT and the OpenAI Codex, which powers GitHub Copilot. Whether any of this technology, especially a potential chat-powered search engine, represents a real threat to Google is unclear. In any case, ChatGPT is on pace to reach 100 million users faster than TikTok or Instagram did, according to a just-released report from UBS.
The potential of this technology is the reason companies like Microsoft are rushing to invest in and roll out generative-AI systems despite the risks in doing so, says Joseph Saveri, the lawyer whose firm is leading both the case against Microsoft over GitHub Copilot and the case against various parties over Stability AI's AI-art generator, Stability Diffusion.
Mr. Saveri sees parallels between the anticompetitive behavior for which the U.S. Justice Department successfully sued Microsoft in the 1990s—like bundling its Internet Explorer web browser with its Windows operating system—and today. Now, as then, he sees Microsoft moving quickly to dominate a field it deems important to the next generation of the internet and computing.
Microsoft declined to comment specifically on the pending litigation over its Copilot service. But a spokesman for the company said that in general, the claims made about copyright infringement in the cases against generative-AI systems could apply to anyone who was trying to use AI or machine learning in their business processes. A decision in favor of the plaintiffs could "inhibit and chill a whole bunch of uses of these technologies by a whole bunch of players out there," he adds.
Part of what courts do when deciding matters of fair use is to weigh the potential harms of a new way of using content against its benefits, says Inyoung Cheong , a legal scholar at the University of Washington. It could take years for all of the cases against generative-AI companies to conclude, she adds.
Most of the ways generative AI is used might prove to be totally new, and in areas where before a person might not have paid a human to perform the same function, says the Microsoft spokesman. As in cases deciding the fate of new technologies that could be used to violate copyright in the past, but had other uses, such as the VCR, courts often decide in favor of the new technology on account of its many other potential uses, he adds.
As court cases proceed, Microsoft and many of the startups involved will continue to make ever-more-powerful models. The next generation of ChatGPT is already on its way, and Microsoft has promised to incorporate the company's technology into Word, Excel, Teams and other products. Stability AI in October raised $101 million, valuing the company at $1 billion in an investment climate most other startups have found unusually hostile. Other generative-AI startups are finding similar levels of enthusiasm among investors.
New legal precedents might curb these systems, or force their creators to change the contents of the databases they rely on, or push them to compensate the creators of the content without which these AIs could not exist. But whatever happens, it will come well after they are on their way to making a significant impact in the way content is created—and on who is able to make a living from it.
"AI right now is growing on the backs of artists," says Mr. Rutkowski, "and I feel like my back was being used a lot."
For more WSJ Technology analysis, reviews, advice and headlines, sign up for our weekly newsletter .
Write to Christopher Mims at christopher.mims@wsj.com
Credit: By Christopher Mims
Grzegorz Rutkowski has studied the great masters of texture and light—Caravaggio, Rembrandt, Vermeer—and his ability to mimic their techniques has made him an in-demand painter of fantastical beasts and landscapes for the videogame industry. But these days, instead of devoting all his time to painting in his sun-dappled studio near the picturesque medieval square in the town of Pieńsk, Poland, he's spending ever more of it on Zoom calls, talking to lawyers, artists and others about the strange reason he is suddenly far more famous than he ever thought possible. It turns out that Mr. Rutkowski's distinctive style and choice of subject matter have made him among the most popular artists to copy using the kind of image-generating artificial-intelligence systems that have exploded in popularity in the past year. The two most prominent of these systems are Dall-E 2 , made by San Francisco-based startup OpenAI , and Stable Diffusion, created by Stability AI, though there are an ever-growing number of competitors. The result is that images made by AI in Mr. Rutkowski's style are suddenly all over forums on the internet where users share works they have generated from text prompts. Mr. Rutkowski's name has become such a popular prompt in such AI art generators that he recently decided to join a federal lawsuit seeking class-action status against several of the companies involved. For these algorithms to copy Mr. Rutkowski's style, the companies that built them first had to copy his work, and that of thousands of other artists, from the internet, and then use it to train their AIs. This is the basic mechanics of all so-called generative AI—first, a company finds or creates a big enough set of data, then uses various algorithms to train software to spit out specific text, images or code based on that data. What worried Mr. Rutkowski most was that art generated using his work threatened to bury his own original works in the places in which it mattered, on Google's search index and in repositories of online art. Mr. Rutkowski's story matters because it is, in many ways, representative of the way that generative AI has the potential to transform the production of all kinds of creative work , including novels, marketing copy, news articles, video, illustration and code. We've all been dealing for years with kinds of AI that excel in pattern recognition, enabling functions like recognizing family members' faces in photo apps or flagging objectionable content before it reaches our social-media feeds. The algorithms that power generative AIs go one step further. Both kinds of AI require large sets of training data, but generative AI can actually synthesize that data to produce new content, not just recognize what already exists. Critics of these systems include artists, coders, legal experts, and even some of the engineers who build them. They argue that the systems that make this possible, including text-generating ChatGPT from OpenAI, Microsoft's GitHub Copilot for code, and art-generating AIs, all ingest content without securing permission from its creators. Then they use that content to create systems that actively compete with the individuals whose work they ingested. Without all that free content, gathered under what some argue are fair-use protections, these content-generating AIs could not exist. Fans of these systems, including their builders, users and the usual menagerie of techno-optimists inclined to cheer any potentially disruptive innovation, argue that a generative AI is just doing some version of what a human does—it learns from existing works, then produces its own. They also say that, however one feels about how these systems accomplish it, this technology might be inevitable, since anyone with enough technical skill can build one. Some who share that view are trying to create versions of the technology that incorporate ethical considerations. Musician, coder and academic Mathew Dryhurst has launched , with his wife, musician Holly Herndon, a service called Spawning that is designed to create AI art only using images from artists who have consented to the use of their work. "This is not going away," Mr. Dryhurst says. "As a society, we have to digest that all media is now training data, and any style—even a timbre in music—is going to be a non-protectable thing." Writers, coders and artists who embrace these systems can increase their productivity in the same way that automation has increased the productivity of countless workers in other fields since the dawn of the industrial revolution. Many, including novelists and coders, have already reported that AI can make them both more creative and more productive. In addition, these systems can democratize the creation of content. People who can barely draw a circle can now have a hand in creating breathtaking works of art. Non-native speakers of a language can generate florid prose on any topic. And programmers who are under constant pressure to be more productive can generate chunks of working code with nothing but a short text prompt. "Everyone is saying this is the end of the arts," says Mr. Dryhurst. "I don't think that's even close to the truth." Those behind the systems are reluctant to speak openly about them, however, on account of court cases in the works against the companies that either help create this content or host it. Those cases include the suit that Mr. Rutkowski joined as a plaintiff, against AI-art companies Midjourney and Stability AI, and DeviantArt, a popular forum for art that both hosts AI art and has created its own system for generating it. In that case, filed last month in U.S. District Court in San Francisco, the plaintiffs argue that these companies violated the copyright of tens of thousands of artists. "The allegations in this suit represent a misunderstanding of how generative AI technology works and the law surrounding copyright," says a spokesman for Stability AI. "We intend to defend ourselves and the vast potential generative AI has to expand the creative power of humanity." DeviantArt and Midjourney did not respond to requests for comment. Another proposed class-action suit , filed in November in the same federal court, targets Microsoft, its subsidiary GitHub, and OpenAI for their GitHub Copilot system. The plaintiffs argue that by producing code that doesn't give attribution to the original authors whose code is used to generate Copilot's results, the system violates various open-source licenses, as well as the Digital Millennium Copyright Act. The defendants have responded by asking the court to throw out the suit . Among their arguments: The plaintiffs—programmers who share their code on GitHub and elsewhere—haven't demonstrated that Copilot harms them in any real way. more keywords The stakes here could be high. As its proponents argue, generative AI might be the next big thing in tech, defining whole industries for decades. It also might be just another tool that makes people a bit more productive, and Microsoft's products marginally more useful. Microsoft plans to invest billions into OpenAI , creator of Dall-E, ChatGPT and the OpenAI Codex, which powers GitHub Copilot. Whether any of this technology, especially a potential chat-powered search engine, represents a real threat to Google is unclear. In any case, ChatGPT is on pace to reach 100 million users faster than TikTok or Instagram did, according to a just-released report from UBS. The potential of this technology is the reason companies like Microsoft are rushing to invest in and roll out generative-AI systems despite the risks in doing so, says Joseph Saveri, the lawyer whose firm is leading both the case against Microsoft over GitHub Copilot and the case against various parties over Stability AI's AI-art generator, Stability Diffusion. Mr. Saveri sees parallels between the anticompetitive behavior for which the U.S. Justice Department successfully sued Microsoft in the 1990s—like bundling its Internet Explorer web browser with its Windows operating system—and today. Now, as then, he sees Microsoft moving quickly to dominate a field it deems important to the next generation of the internet and computing. Microsoft declined to comment specifically on the pending litigation over its Copilot service. But a spokesman for the company said that in general, the claims made about copyright infringement in the cases against generative-AI systems could apply to anyone who was trying to use AI or machine learning in their business processes. A decision in favor of the plaintiffs could "inhibit and chill a whole bunch of uses of these technologies by a whole bunch of players out there," he adds. Part of what courts do when deciding matters of fair use is to weigh the potential harms of a new way of using content against its benefits, says Inyoung Cheong , a legal scholar at the University of Washington. It could take years for all of the cases against generative-AI companies to conclude, she adds. Most of the ways generative AI is used might prove to be totally new, and in areas where before a person might not have paid a human to perform the same function, says the Microsoft spokesman. As in cases deciding the fate of new technologies that could be used to violate copyright in the past, but had other uses, such as the VCR, courts often decide in favor of the new technology on account of its many other potential uses, he adds. As court cases proceed, Microsoft and many of the startups involved will continue to make ever-more-powerful models. The next generation of ChatGPT is already on its way, and Microsoft has promised to incorporate the company's technology into Word, Excel, Teams and other products. Stability AI in October raised $101 million, valuing the company at $1 billion in an investment climate most other startups have found unusually hostile. Other generative-AI startups are finding similar levels of enthusiasm among investors. New legal precedents might curb these systems, or force their creators to change the contents of the databases they rely on, or push them to compensate the creators of the content without which these AIs could not exist. But whatever happens, it will come well after they are on their way to making a significant impact in the way content is created—and on who is able to make a living from it. "AI right now is growing on the backs of artists," says Mr. Rutkowski, "and I feel like my back was being used a lot." For more WSJ Technology analysis, reviews, advice and headlines, sign up for our weekly newsletter . Write to Christopher Mims at [christopher.mims@wsj.com](mailto:christopher.mims@wsj.com) Credit: By Christopher Mims
"Các cáo buộc trong vụ kiện này đại diện cho sự hiểu lầm về cách hoạt động của công nghệ trí tuệ nhân tạo phát sinh và luật bản quyền", một người phát ngôn của Stability AI nói. "Chúng tôi dự định bảo vệ chính mình và tiềm năng rộng lớn của trí tuệ nhân tạo phát sinh để mở rộng sức mạnh sáng tạo của con người." DeviantArt và Midjourney không đưa ra bình luận phản hồi. Một vụ kiện tập thể đề xuất khác, được đệ trình vào tháng 11 trong cùng tòa án liên bang, nhắm vào Microsoft, công ty con của nó là GitHub và OpenAI cho hệ thống GitHub Copilot. Các đơn kiện cho rằng bằng cách sản xuất mã không đưa ra các tác giả gốc mà mã của họ được sử dụng để tạo ra kết quả của Copilot, hệ thống này vi phạm các giấy phép mã nguồn mở khác nhau, cũng như Đạo luật Bản quyền Thiên niên kỷ Kỹ thuật số. Các bị đơn đã đáp lại bằng cách yêu cầu tòa án bác bỏ vụ kiện. Trong số các lý lẽ của họ: các bị đơn - các lập trình viên chia sẻ mã của họ trên GitHub và nơi khác - chưa chứng minh rằng Copilot gây thiệt hại cho họ theo bất kỳ cách nào. Những cổ phần ở đây có thể rất cao. Như những người ủng hộ của nó lập luận, trí tuệ nhân tạo phát sinh có thể là thứ lớn tiếp theo trong công nghệ, định nghĩa các ngành công nghiệp trong nhiều thập kỷ. Nó cũng có thể chỉ là một công cụ khác giúp con người sản xuất nhiều hơn và sản phẩm của Microsoft hữu ích hơn. Microsoft dự định đầu tư hàng tỷ đô la vào OpenAI, nhà sáng lập Dall-E, ChatGPT và OpenAI Codex, cung cấp năng lượng cho GitHub Copilot. Liệu bất kỳ công nghệ nào, đặc biệt là một công cụ tìm kiếm được kích hoạt bởi trò chuyện, có đại diện cho một mối đe dọa thực sự đối với Google là chưa rõ. Dù sao, ChatGPT đang tiến tới đạt 100 triệu người dùng nhanh hơn cả TikTok hay Instagram, theo một báo cáo vừa được phát hành từ UBS. Tiềm năng của công nghệ này là lý do tại sao các công ty như Microsoft đang vội vàng đầu tư và triển khai các hệ thống trí tuệ nhân tạo phát sinh mặc dù có các rủi ro trong việc làm như vậy, Joseph Saveri, luật sư của công ty đang dẫn đầu cả hai vụ kiện đối với Microsoft về GitHub Copilot và vụ kiện đối với các bên khác về trình tạo nghệ thuật AI của Stability AI, Stability Diffusion, cho biết. Ông Saveri thấy có sự tương đồng giữa hành vi chống cạnh tranh mà Bộ Tư pháp Mỹ đã kiện thành công Microsoft vào những năm 1990 - như đóng gói trình duyệt web Internet Explorer của mình với hệ điều hành Windows - và hiện nay. Bây giờ, như lúc đó, ông thấy Microsoft đang di chuyển nhanh chóng để thống trị một lĩnh vực mà nó coi là quan trọng đối với thế hệ tiếp theo của internet và tính toán. Microsoft từ chối bình luận cụ thể về các kiện cáo đang đợi giải quyết về dịch vụ Copilot của mình. Nhưng một người phát ngôn của công ty cho biết rằng nói chung, những yêu sách về vi phạm bản quyền trong các vụ kiện đối với các hệ thống trí tuệ nhân tạo phát sinh có thể áp dụng cho bất kỳ ai đang cố gắng sử dụng AI hoặc học máy trong các quy trình kinh doanh của họ. Một quyết định thuận lợi cho các bị đơn có thể "gây ức chế và cản trở một loạt các ứng dụng của các công nghệ này bởi một loạt các cầu thủ ở ngoài kia," ông bổ sung. Một phần trong việc các tòa án quyết định về những vấn đề liên quan đến việc sử dụng hợp lý là cân nhắc các thiệt hại tiềm năng của một cách mới để sử dụng nội dung so với những lợi ích của nó, Inyoung Cheong, một học giả pháp lý tại Đại học Washington, cho biết. Có thể mất nhiều năm cho tất cả các vụ kiện đối với các công ty trí tuệ nhân tạo phát sinh kết thúc, cô bổ sung. Hầu hết các cách sử dụng của trí tuệ nhân tạo phát sinh có thể chứng tỏ là hoàn toàn mới, và ở các lĩnh vực mà trước đây một người có thể không phải trả tiền cho một con người để thực hiện chức năng tương tự, nhưng như trong các vụ kiện quyết định số phận của các công nghệ mới có thể được sử dụng để vi phạm bản quyền trong quá khứ, nhưng có các ứng dụng khác, như VCR, các tòa án thường quyết định ủng hộ công nghệ mới vì các tiềm năng sử dụng khác nhau của nó, người phát ngôn Microsoft kết luận. Trong khi các vụ kiện tiếp tục diễn ra, Microsoft và nhiều startup khác sẽ tiếp tục tạo ra các mô hình mạnh mẽ hơn. Thế hệ tiếp theo của ChatGPT đã đang trên đường đến, và Microsoft đã hứa sẽ tích hợp công nghệ của công ty vào Word, Excel, Teams và các sản phẩm khác. Stability AI đã gọi vốn 101 triệu đô la vào tháng 10, định giá công ty tại 1 tỷ đô la trong một môi trường đầu tư mà hầu hết các startup khác đã thấy là khó khăn vô cùng. Các startup trí tuệ nhân tạo phát sinh khác cũng đang tìm thấy các mức độ nhiệt tình tương tự từ các nhà đầu tư. Các tiền lệ pháp lý mới có thể kiềm chế các hệ thống này, hoặc buộc các nhà tạo ra chúng phải thay đổi nội dung của cơ sở dữ liệu mà chúng dựa trên, hoặc thúc đẩy họ bồi thường cho các nhà tạo nội dung mà không có họ, các AI này không thể tồn tại. Nhưng dù điều gì xảy ra, nó sẽ xảy ra sau khi chúng đang trên đường tới tạo ra một ảnh hưởng đáng kể đối với cách nội dung được tạo ra - và đối với ai có thể kiếm sống từ đó. "Trí tuệ nhân tạo đang phát triển trên lưng của các nghệ sĩ," ông Rutkowski nói, "và tôi cảm thấy như lưng tôi đã được sử dụng rất nhiều." Để biết thêm phân tích, đánh giá, lời khuyên và tiêu đề công nghệ WSJ, hãy đăng ký nhận bản tin hàng tuần của chúng tôi. Viết cho Christopher Mims tại christopher.mims@wsj.com Tín dụng: Bởi Christopher Mims Grzegorz Rutkowski đã nghiên cứu các bậc thầy về kết cấu và ánh sáng - Caravaggio, Rembrandt, Vermeer - và khả năng bắt chước kỹ thuật của họ đã khiến anh trở thành một họa sĩ được yêu cầu vẽ những sinh vật và cảnh đẹp phi thực tế cho ngành công nghiệp trò chơi điện tử. Nhưng những ngày này, thay vì dành toàn bộ thời gian của mình để vẽ tranh trong studio nắng ấm gần quảng trường cổ kính ở thị trấn Pieńsk, Ba Lan, anh đang dành nhiều thời gian hơn trên các cuộc gọi Zoom, nói chuyện với luật sư, nghệ sĩ và những người khác về lý do kỳ lạ anh trở nên nổi tiếng hơn bao giờ hết. Có vẻ như phong cách độc đáo của ông Rutkowski và sự lựa chọn chủ đề của ông đã khiến ông trở thành một trong những nghệ sĩ phổ biến nhất để sao chép bằng các hệ thống trí tuệ nhân tạo tạo hình ảnh mà đã bùng nổ trong năm qua. Hai hệ thống nổi bật nhất trong số này là Dall-E 2, do công ty khởi nghiệp OpenAI đặt tại San Francisco sản xuất, và Stable Diffusion, được tạo bởi Stability AI, mặc dù có ngày càng nhiều đối thủ cạnh tranh. Kết quả là hình ảnh được tạo ra bằng trí tuệ nhân tạo theo phong cách của ông Rutkowski đột nhiên xuất hiện trên các diễn đàn trên internet, nơi người dùng chia sẻ các tác phẩm mà họ đã tạo ra từ các yêu cầu văn bản. Tên của ông Rutkowski đã trở thành một yêu cầu phổ biến trong các bộ tạo nghệ thuật của trí tuệ nhân tạo như vậy, đến nỗi ông vừa quyết định tham gia một vụ kiện liên bang tìm kiếm tình trạng đơn vị đối đầu đa phần đối với một số công ty liên quan. Để sao chép phong cách của ông Rutkowski, các công ty đã xây dựng chúng trước tiên phải sao chép công việc của ông, và của hàng ngàn nghệ sĩ khác, từ internet, và sau đó sử dụng nó để đào tạo trí tuệ nhân tạo của họ. Đây là cơ chế cơ bản của tất cả các trí tuệ nhân tạo gọi là tạo ra - trước tiên, một công ty tìm hoặc tạo ra một tập dữ liệu đủ lớn, sau đó sử dụng các thuật toán khác nhau để đào tạo phần mềm để đưa ra văn bản, hình ảnh hoặc mã cụ thể dựa trên dữ liệu đó. Cái đáng lo ngại nhất đối với ông Rutkowski là tác phẩm được tạo ra bằng trí tuệ nhân tạo sử dụng công việc của ông đe dọa chôn vùi các tác phẩm gốc của ông tại những nơi quan trọng, trên chỉ số tìm kiếm của Google và trong kho lưu trữ nghệ thuật trực tuyến. Câu chuyện của ông Rutkowski quan trọng vì nó đại diện cho cách mà trí tuệ nhân tạo có tiềm năng biến đổi sản xuất mọi loại công việc sáng tạo, bao gồm tiểu thuyết, bản sao quảng cáo, bài báo tin tức, video, minh họa và mã. Chúng ta đã phải đối mặt với các loại trí tuệ nhân tạo về mặt mô hình nhận dạng trong nhiều năm, cho phép các chức năng như nhận dạng khuôn mặt của các thành viên gia đình trong các ứng dụng ảnh hoặc cảnh báo nội dung không đáng kể trước khi nó đến trang cấp dữ liệu xã hội của chúng ta. Các thuật toán điều khiển các trí tuệ nhân tạo tạo ra điều này một bước xa hơn. Cả hai loại trí tuệ nhân tạo đều yêu cầu một tập dữ liệu đào tạo lớn, nhưng trí tuệ nhân tạo tạo ra có thể tổng hợp dữ liệu đó để tạo ra nội dung mới, không chỉ nhận ra những gì đã tồn tại. Các nhà phê bình của các hệ thống này bao gồm các nghệ sĩ, các nhà lập trình, các chuyên gia pháp lý và ngay cả một số kỹ sư xây dựng chúng. Họ cho rằng các hệ thống làm điều này có thể, bao gồm ChatGPT tạo văn bản từ OpenAI, GitHub Copilot của Microsoft cho mã và trí tuệ nhân tạo tạo nghệ thuật, đều tiêu thụ nội dung mà không bảo vệ quyền sở hữu của người tạo ra nó. Sau đó, họ sử dụng nội dung đó để tạo ra các hệ thống cạnh tranh với các cá nhân mà công việc của họ đã được tiêu thụ. Mà không có tất cả các nội dung miễn phí đó, được thu thập dưới những gì mà một số người cho rằng là bảo vệ sử dụng hợp lý, những trí tuệ nhân tạo tạo nội dung này sẽ không thể tồn tại. Người ủng hộ những hệ thống này, bao gồm các nhà xây dựng, người dùng và các nhà quản trị công nghệ thường xuyên cổ vũ bất kỳ cách mới nào có thể gây rối, cho rằng một trí tuệ nhân tạo đang làm một phiên bản của những gì một con người làm - nó học từ những tác phẩm hiện có, sau đó tạo ra các tác phẩm của riêng mình. Họ cũng nói rằng, dù cho ai cảm thấy những hệ thống này hoạt động như thế nào, công nghệ này có thể là không thể tránh khỏi, vì bất kỳ ai có đủ kỹ năng kỹ thuật đều có thể xây dựng một cái. Một số người chia sẻ quan điểm đó đang cố gắng tạo ra các phiên bản của công nghệ đó tích hợp các yếu tố đạo đức. Nhạc sĩ, lập trình viên và học giả Mathew Dryhurst đã ra mắt, với vợ mình, nhạc sĩ Holly Herndon, dịch vụ gọi là Spawning được thiết kế để tạo ra nghệ thuật trí tuệ nhân tạo chỉ bằng cách sử dụng hình ảnh từ các nghệ sĩ đã đồng ý sử dụng công trình của họ. "Điều này không biến mất," ông Dryhurst nói. "Như một xã hội, chúng ta phải tiêu hóa rằng tất cả các phương tiện bây giờ đều là dữ liệu đào tạo, và bất kỳ phong cách nào - thậm chí là một timbre trong âm nhạc - sẽ là một thứ không thể bảo vệ được." Các nhà văn, lập trình viên và nghệ sĩ người ủng hộ những hệ thống này có thể tăng năng suất của họ theo cách mà tự động hóa đã tăng năng suất cho vô số người làm việc trong các lĩnh vực khác kể từ lúc cuộc cách mạng công nghiệp bắt đầu. Nhiều người, bao gồm các nhà thơ và lập trình viên, đã báo cáo rằng trí tuệ nhân tạo có thể khiến họ trở nên sáng tạo hơn và năng suất hơn. Ngoài ra, các hệ thống này có thể dân chủ hóa việc tạo nội dung. Những người chỉ có thể vẽ một vòng tròn giờ đây có thể tham gia vào việc tạo ra các tác phẩm nghệ thuật tuyệt đẹp. Người nói tiếng nước ngoài có thể tạo ra những đoạn văn xuôi tuyệt đẹp về bất kỳ chủ đề nào. Và các lập trình viên đang phải chịu áp lực để tăng năng suất có thể tạo ra các đoạn mã làm việc chỉ với một đoạn văn bản ngắn. "Tất cả mọi người đang nói rằng đây là cuối cùng của nghệ thuật," ông Dryhurst nói. "Tôi không nghĩ rằng điều đó gần như đúng." Những người đứng sau các hệ thống này đều không muốn nói một cách thẳng thắn về chúng, tuy nhiên, do các vụ kiện đang diễn ra chống lại các công ty đóng góp vào việc tạo ra nội dung này hoặc lưu trữ nó. Các trường hợp này bao gồm vụ kiện mà ông Rutkowski tham gia làm đương sự, chống lại các công ty nghệ thuật trí tuệ nhân tạo Midjourney và Stability AI, và DeviantArt, một diễn đàn nghệ thuật phổ biến cho cả nghệ thuật trí tuệ nhân tạo và đã tạo ra hệ thống riêng để tạo ra nó. Trong vụ kiện đó, được đệ trình vào tháng trước tại Tòa án Liên bang Hoa Kỳ tại San Francisco, các đương sự lập luận rằng các công ty này đã vi phạm bản quyền của hàng ngàn nghệ sĩ.
"Nhữ
AI use in advertising an ‘opportunity’ not a threat, says WPP chief
World’s largest advertising group already uses the technology in some areas The use of artificial intelligence for creative work in the advertising industry is more of an opportunity than a threat to traditional agencies, according to WPP chief executive Mark Read. The world’s biggest advertising group was already using AI to “amplify” its creative work, he said, pointing to examples of “work with clients, using the main AI platforms, in-market today”. Read told the Financial Times that WPP had been using AI and automation to improve media buying plans for clients for some years, but that the emergence of “generative AI” — using systems to help create campaigns — would be a “massive opportunity to optimise creative” work. He added that the best creative teams were embracing AI as a tool to use in their campaigns. The FT reported last week that Google was planning to launch generative AI tools that would allow advertisers to produce creative campaigns. Advertisers can feed information to the AI to “remix” into ad campaigns. Meta has announced similar plans. Coca-Cola is among advertisers testing consumer-facing generative AI. However, there are still concerns about plagiarism — given AI needs to rely on existing source material — and the accidental production of misinformation or problematic content. For advertising agencies, AI offers a means to cut costs and speed up processes but also offers a risk if more work shifts to low-cost, third-party AI platforms. WPP said that AI would be “fundamental” to its business. The company is already using AI to automate workflows, accelerate the creative process and produce innovative work for clients. In India, WPP worked with Cadbury’s to use AI to allow Bollywood superstar Shah Rukh Khan to produce personalised ads for local businesses. The group is working with technology from all the main AI companies, including Adobe, Google, IBM, Microsoft, Nvidia and OpenAI, while using its own platforms to help protect client information. It said that it also recognised the “challenges of AI to society and are committed to using it responsibly”. On Thursday, WPP reported an underlying rise in first-quarter revenue of 4.9 per cent to £3.5bn. Read said that the group had made “a positive start to the year, in line with expectations, reflecting continued spending by clients in communications, customer experience, commerce, data and technology to support their businesses and brands”. Big Tech is racing to claim its share of the generative AI market Read said that client spending remained resilient as consumer goods companies had sought to “invest behind brands” while often pushing through inflation-linked price rises. He added that companies had been surprised about the strength of their businesses despite these price increases. Even so, he acknowledged that there were “challenges for the global economy” during the rest of the year, saying that he had always “expected a long and bumpy landing” as economic growth tailed off. The company reported strong like-for-like sales growth in the UK of 7.4 per cent, although North America sales rose just 1.9 per cent given lower spending from clients in technology after the slump in valuations in the sector. China was also weaker for WPP, which Read blamed on the effect of the Covid-19 lockdowns but he predicted that its business in the country would bounce back later this year. Shares in the group were down 2 per cent in morning trading.
Giám đốc điều hành WPP, Mark Read, cho rằng sử dụng trí tuệ nhân tạo (AI) cho công việc sáng tạo trong ngành quảng cáo là cơ hội hơn là mối đe dọa đối với các công ty quảng cáo truyền thống. Ông cho biết tập đoàn quảng cáo lớn nhất thế giới đã sử dụng AI để "tăng cường" công việc sáng tạo của mình. Read cho biết WPP đã sử dụng AI và tự động hóa để cải thiện việc mua quảng cáo cho khách hàng trong một vài năm qua, nhưng sự xuất hiện của "AI tạo sinh" giúp tạo các chiến dịch quảng cáo - sẽ là "cơ hội lớn để tối ưu công việc sáng tạo". Ông nói thêm rằng các nhóm sáng tạo nhất đang sử dụng AI trong các chiến dịch của họ. FT đã đưa tin về việc Google đang lên kế hoạch tung ra các công cụ AI tạo sinh giúp các công ty có nhu cầu quảng cáo tạo các chiến dịch quảng cáo. Các công ty này có thể cung cấp thông tin cho AI để "trộn" thành các chiến dịch quảng cáo. Meta đã thông báo kế hoạch tương tự. Coca-Cola là một trong số những công ty đang thử nghiệm AI tạo sinh nhắm đến người tiêu dùng. Tuy nhiên, vẫn còn lo ngại về việc đạo văn - vì AI cần phải dựa vào tài liệu nguồn hiện có - và có thể vô tình tạo ra thông tin sai lệch hoặc nội dung gây rắc rối. Đối với các công ty quảng cáo, AI giúp cắt giảm chi phí và tiết kiệm thời gian nhưng cũng mang lại rủi ro cạnh tranh nếu các công ty chuyển sang thuê các nền tảng AI giá rẻ. WPP cho biết công ty sẽ coi AI là “nền tảng”. Công ty đã sử dụng AI để tự động hóa quy trình làm việc, tăng tốc quá trình sáng tạo và tạo các chiến dịch quảng cáo cho khách hàng. Tại Ấn Độ, WPP đã cùng Cadbury sử dụng AI để giúp siêu sao Bollywood Shah Rukh Khan tạo các quảng cáo cá nhân hóa. Tập đoàn quảng cáo WPP đang sử dụng các công nghệ của tất cả các công ty AI lớn như Adobe, Google, IBM, Microsoft, Nvidia và OpenAI và các nền tảng riêng để bảo vệ thông tin khách hàng. WPP cho biết rằng cũng ý thức được "thách thức của AI đối với xã hội và cam kết sử dụng AI một cách có trách nhiệm". Vào thứ Năm, WPP báo cáo lợi nhuận tăng trưởng thực trong quý đầu tiên đạt 4,9% lên 3,5 tỷ bảng Anh. Read cho biết tập đoàn đã có "một khởi đầu tích cực cho năm nay như kỳ vọng, phản ánh xu hướng tiếp tục chi tiêu của khách hàng trong các lĩnh vực truyền thông, trải nghiệm khách hàng, thương mại, dữ liệu và công nghệ để hỗ trợ kinh doanh và thương hiệu".
 
Read cho biết WPP đã sử dụng AI và tự động hóa để cải thiện việc mua quảng cáo cho khách hàng trong một vài năm qua, nhưng sự xuất hiện của "AI tạo sinh" giúp tạo các chiến dịch quảng cáo - sẽ là "cơ hội lớn để tối ưu công việc sáng tạo". Ông nói thêm rằng các nhóm sáng tạo nhất đang sử dụng AI trong các chiến dịch của họ. FT đã đưa tin về việc Google đang lên kế hoạch tung ra các công cụ AI tạo sinh giúp các công ty có nhu cầu quảng cáo tạo các chiến dịch quảng cáo. Các công ty này có thể cung cấp thông tin cho AI để "trộn" thành các chiến dịch quảng cáo. Meta đã thông báo kế hoạch tương tự. Coca-Cola là một trong số những công ty đang thử nghiệm AI tạo sinh nhắm đến người tiêu dùng. Tuy nhiên, vẫn còn lo ngại về việc đạo văn - vì AI cần phải dựa vào tài liệu nguồn hiện có - và có thể vô tình tạo ra thông tin sai lệch hoặc nội dung gây rắc rối. Đối với các công ty quảng cáo, AI giúp cắt giảm chi phí và tiết kiệm thời gian nhưng cũng mang lại rủi ro cạnh tranh nếu các công ty chuyển sang thuê các nền tảng AI giá rẻ. WPP cho biết công ty sẽ coi AI là “nền tảng”. Công ty đã sử dụng AI để tự động hóa quy trình làm việc, tăng tốc quá trình sáng tạo và tạo các chiến dịch quảng cáo cho khách hàng. Tại Ấn Độ, WPP đã cùng Cadbury sử dụng AI để giúp siêu sao Bollywood Shah Rukh Khan tạo các quảng cáo cá nhân hóa. Tập đoàn quảng cáo WPP đang sử dụng các công nghệ của tất cả các công ty AI lớn như Adobe, Google, IBM, Microsoft, Nvidia và OpenAI và các nền tảng riêng để bảo vệ thông tin khách hàng. WPP cho biết rằng cũng ý thức được "thách thức của AI đối với xã hội và cam kết sử dụng AI một cách có trách nhiệm". Vào thứ Năm, WPP báo cáo lợi nhuận tăng trưởng thực trong quý đầu tiên đạt 4,9% lên 3,5 tỷ bảng Anh. Read cho biết tập đoàn đã có "một khởi đầu tích cực cho năm nay như kỳ vọng, phản ánh xu hướng tiếp tục chi tiêu của khách hàng trong các lĩnh vực truyền thông, trải nghiệm khách hàng, thương mại, dữ liệu và công nghệ để hỗ trợ kinh doanh và thương hiệu".
 
Big Tech đang đua nhau chiếm phần thị phần cho thị trường AI tạo sinh. Read cho biết khách hàng vẫn mạnh tay chi tiêu. Các công ty hàng tiêu dùng "đầu tư cho thương hiệu" trong khi vẫn tăng giá bán để theo kịp tốc độ lạm phát. Ông nói thêm rằng các công ty đã bất ngờ vì mặc dù giá tăng doanh nghiệp của họ vẫn không bị ảnh hưởng. Tuy nhiên, ông nhận thấy rằng còn "những thách thức cho nền kinh tế toàn cầu" trong phần còn lại của năm, và nhận định tăng trưởng kinh tế sẽ giảm từ từ chứ không đột ngột. Công ty đã báo cáo mức tăng trưởng doanh số tương tự mạnh mẽ ở Vương Quốc Anh là 7,4%, trong khi doanh số Bắc Mỹ chỉ tăng 1,9% do chi tiêu của khách hàng trong ngành công nghệ giảm sau khi giá trị của ngành này giảm. Thị trường Trung Quốc của WPP cũng yếu hơn. Read cho rằng nguyên nhân do ảnh hưởng của các lệnh phong tỏa Covid-19, nhưng ông dự đoán rằng các doanh nghiệp Trung Quốc này sẽ hồi phục vào cuối năm nay. Cổ phiếu của nhóm giảm 2% trong phiên giao dịch sáng nay.
 
Google to deploy generative AI to create sophisticated ad campaigns
Big tech groups are racing to incorporate the groundbreaking new technology into their products
Google plans to introduce generative artificial intelligence into its advertising business over the coming months, as big tech groups rush to incorporate the groundbreaking technology into their products. According to an internal presentation to advertisers seen by the Financial Times, the Alphabet-owned company intends to begin using the AI to create novel advertisements based on materials produced by human marketers. “Generative AI is unlocking a world of creativity,” the company said in the presentation, titled “AI-powered ads 2023”. Google already uses AI in its advertising business to create simple prompts that encourage users to buy products. However, the integration of its latest generative AI, which also powers its Bard chatbot, means it will be able to produce far more sophisticated campaigns resembling those created by marketing agencies. According to the presentation, advertisers can supply “creative” content such as imagery, video and text relating to a particular campaign. The AI will then “remix” this material to generate ads based on the audience it aims to reach, as well as other goals such as sales targets. One person familiar with Google’s presentation said they were worried the tool could spread misinformation, because text produced by AI chatbots can confidently state falsehoods. “It is optimised to convert new customers and has no idea what the truth is,” the person said. Google told the FT it planned to put firm guardrails in place to prevent such errors, known as “hallucinations”, when it rolls out its new generative AI features in the coming months. The ads move comes as big tech companies race to capitalise on generative AI, which has swept to prominence in recent months by creating highly sophisticated material such as text and images in response to human inputs. Google last month launched Bard in a bid to take on Microsoft-backed OpenAI’s ChatGPT, which can write convincingly humanlike responses to questions and prompts. It has also recently integrated generative AI into its widely used productivity applications, such as Google Workspace, Google Docs and Gmail. The new technology will be embedded into Performance Max, a program Google has offered since 2020 that uses an algorithm to determine where ads should run and how marketing budgets should be spent, as well as producing simple ad copy. The advertising industry is facing significant headwinds, with businesses seeking to control costs and increased restrictions on using personal data for marketing purposes. Google’s advertising revenue slipped 4 per cent in the final quarter of last year, leaving its parent, Alphabet, with overall revenue growth of just 1 per cent. The largest social media platforms, which rely on advertising for the majority of their revenues, are seeking to use the latest automation technologies to draw in clients. Meta, which owns Facebook and Instagram, launched a similar offering to Performance Max last year called Advantage+. It also plans to use generative AI in its ads systems by the end of the year.
Big tech groups are racing to incorporate the groundbreaking new technology into their products Google plans to introduce generative artificial intelligence into its advertising business over the coming months, as big tech groups rush to incorporate the groundbreaking technology into their products. According to an internal presentation to advertisers seen by the Financial Times, the Alphabet-owned company intends to begin using the AI to create novel advertisements based on materials produced by human marketers. “Generative AI is unlocking a world of creativity,” the company said in the presentation, titled “AI-powered ads 2023”. Google already uses AI in its advertising business to create simple prompts that encourage users to buy products. However, the integration of its latest generative AI, which also powers its Bard chatbot, means it will be able to produce far more sophisticated campaigns resembling those created by marketing agencies. According to the presentation, advertisers can supply “creative” content such as imagery, video and text relating to a particular campaign. The AI will then “remix” this material to generate ads based on the audience it aims to reach, as well as other goals such as sales targets. One person familiar with Google’s presentation said they were worried the tool could spread misinformation, because text produced by AI chatbots can confidently state falsehoods. “It is optimised to convert new customers and has no idea what the truth is,” the person said. Google told the FT it planned to put firm guardrails in place to prevent such errors, known as “hallucinations”, when it rolls out its new generative AI features in the coming months. The ads move comes as big tech companies race to capitalise on generative AI, which has swept to prominence in recent months by creating highly sophisticated material such as text and images in response to human inputs. Google last month launched Bard in a bid to take on Microsoft-backed OpenAI’s ChatGPT, which can write convincingly humanlike responses to questions and prompts. It has also recently integrated generative AI into its widely used productivity applications, such as Google Workspace, Google Docs and Gmail. The new technology will be embedded into Performance Max, a program Google has offered since 2020 that uses an algorithm to determine where ads should run and how marketing budgets should be spent, as well as producing simple ad copy. The advertising industry is facing significant headwinds, with businesses seeking to control costs and increased restrictions on using personal data for marketing purposes. Google’s advertising revenue slipped 4 per cent in the final quarter of last year, leaving its parent, Alphabet, with overall revenue growth of just 1 per cent. The largest social media platforms, which rely on advertising for the majority of their revenues, are seeking to use the latest automation technologies to draw in clients. Meta, which owns Facebook and Instagram, launched a similar offering to Performance Max last year called Advantage+. It also plans to use generative AI in its ads systems by the end of the year.
Theo Financial Times, Google dự định sẽ đưa AI tạo sinh sản vào việc kinh doanh quảng cáo của họ trong những tháng tới, trong bối cảnh các công ty lớn về công nghệ đua nhau tích hợp công nghệ đột phá vào sản phẩm của họ. Theo bản trình bày nội bộ cho các nhà quảng cáo của Alphabet, công ty sẽ bắt đầu sử dụng trí tuệ nhân tạo để tạo ra các quảng cáo mới dựa trên các tài liệu do các marketer con người cung cấp. "Trí tuệ nhân tạo tạo sinh đang mở ra một thế giới sáng tạo", công ty cho biết trong bản trình bày có tựa đề "Quảng cáo dựa trên sức mạnh trí tuệ nhân tạo 2023". Google đã sử dụng trí tuệ nhân tạo trong công việc kinh doanh quảng cáo của họ để tạo ra các lời nhắc đơn giản khuyến khích người dùng mua sản phẩm. Tuy nhiên, việc tích hợp trí tuệ nhân tạo tạo sinh mới nhất, (cũng là nền tảng cho chatbot Bard của Google), có nghĩa là Google sẽ có thể tạo ra các chiến dịch quảng cáo phức tạp hơn giống như những chiến dịch được tạo ra bởi các công ty tiếp thị. Theo bản trình bày, các công ty cần quảng cáo có thể cung cấp nội dung "sáng tạo" như hình ảnh, video và văn bản liên quan đến một chiến dịch cụ thể. Trí tuệ nhân tạo sau đó sẽ "remix" nội dung này để tạo ra các quảng cáo dựa trên đối tượng mục tiêu, cũng như các mục tiêu khác như bán hàng. Một người nắm rõ nội dung bài trình bày của Google cho biết họ lo lắng công cụ này có thể lan truyền thông tin sai lệch, vì văn bản do chatbot AI tạo có thể cung cấp thông tin sai một cách tự tin. "Đây là công cụ được tối ưu hóa để chuyển đổi khách hàng mới và không có khái niệm sự thật là gì", người này nói. Google cho biết sẽ có biện pháp để ngăn ngừa các lỗi như "ảo giác" khi triển khai các tính năng trí tuệ nhân tạo tạo sinh trong những tháng tới. Tháng trước, Google đã tung Bard vào để đối đầu với ChatGPT do Microsoft chống lưng. Chatbot này có thể viết các câu trả lời thuyết phục giống như con người. Công ty cũng đã tích hợp AI tạo sinh vào các ứng dụng như Google Workspace, Google Docs và Gmail. Công nghệ mới sẽ được nhúng vào Performance Max, một chương trình mà Google đã cung cấp từ năm 2020 sử dụng thuật toán để xác định vị trí đặt quảng cáo và cách ngân sách tiếp thị, cũng như tạo ra các bài quảng cáo đơn giản. Ngành quảng cáo đang đối mặt với những cơn gió lớn, khi các doanh nghiệp tìm cách kiểm soát chi phí và đối mặt với các hạn chế sử dụng dữ liệu cá nhân cho mục đích tiếp thị. Doanh thu quảng cáo của Google giảm 4% trong quý cuối năm ngoái, khiến doanh thu chung của Alphabet chỉ tăng 1%. Các nền tảng truyền thông xã hội lớn nhất phụ thuộc phần lớn doanh thu vào quảng cáo. Họ đang tìm cách sử dụng các công nghệ tự động hóa mới nhất để thu hút khách hàng. Meta, công ty sở hữu Facebook và Instagram, đã tung ra một sản phẩm tương tự Performance Max vào năm ngoái mang tên Advantage+. Công ty cũng dự định sử dụng AI tạo sinh trong hệ thống quảng cáo của mình vào cuối năm nay.
AI wants to know what dove is
Robo-Fedwatchers are finally ready for the bigtime, says JPMorgan
The first instinct of a lot of academics, when given a natural language processor, is to feed it on something deeply unnatural. How else to explain the recent rash of research that pits AI against Fedspeak?
To be fair, there are very good reasons for wanting to ignore central bankers, and the desire to delegate the chore of listening to their strangulated equivocalities predates ChatGPT by at least a century. But it’s the possibility of automating the process that has been causing excitement recently — such as in papers here, here, here and here, as well as in an Alphaville post here.
Now it’s the subject of a flagship JPMorgan note that we can’t link to, so will summarise here. It opens with a big claim:
With central bank communications now at the frontlines of policy setting, everything from official policy statements to individual speeches are scrutinized for hints of policy guidance. It is against this backdrop that machine learning and natural language processing (NLP) find fertile ground.
The use of NLP to assess central bank communications has been around for some time. However, prior attempts failed to gain traction because they lacked the sophistication to generate actionable results. Simply put, the technology was not yet ready for primetime. This has changed. We believe NLP is ready for the successful application that many have long waited for.
Here’s what many have long waited for:
Y tho? If monetary policy guidance is of such fundamental importance, and if clear communication is the post-GFC prerequisite, why pass the job to an algorithm? JPMorgan suggests five reasons.
AI offers a second opinion to human economists; its interpretations are systematic and transparent; it’s quicker to reach a conclusion; it spits out metrics rather than essays; and its findings are invulnerable to retrospection. “While an economist can offer an informed judgment of a particular central bank speech, this assessment is often multi-dimensional and may be dependent on context which can be lost in a matter of weeks or even days,” JPMorgan says. “By contrast, the HDS is singular and permanent in the historical record, making it ideal for gauging how central bank thinking is changing over time and how it compares to past episodes.”
The HDS referred to above is the JPMorgan Hawk-Dove Score. It’s an upgrade of the bank’s 2019 attempt at Fedspeak processing using BERT, a language model developed by Google. The rebuild uses ChatGPT and in theory can make sense of any central bank on the planet, because it frames its whole world around three rules.
And here’s how it rates individual Federal Open Market Committee committee members, based on recent speeches, with positive numbers meaning hawkish and negative ones meaning dovish . . .
... which isn’t how humans see things at all. Bullard and Kashkari are generally considered the most hawkish, Cook is the dove and Barr stays in the middle of the pack next to Powell.
Luckily, because the FOMC is the world’s most micro-analysed committee, it’s reasonably easy to guess where garbage in has become garbage out:
One reason Governor Barr comes across as the most dovish member of the FOMC is that he is the vice chair for supervision and many of his speeches are less relevant to macro monetary policy while also having numerous references to financial stability—a concept that can be interpreted as dovish (though not always). [ . . . ] President Bullard is often noted for having a wide range of views that are hard to pin down. Moreover, because he often presents in slide-format without a speech, he is harder to quantify.
The hawk-dove ratios for the European Central Bank and Bank of England committees also need humans to add context.
Schnabel is probably too near the centre of the ECB because her most hawkish speeches have all been recent, so they haven’t yet moved the average. Broadbent probably over-indexes on dovishness because he speaks rarely and cagily. The opposite may be true of Pill and his unique presentation style. Etc.
Whether it’s possible to apply this level of granular analysis to less studied rate-setting committees is a question the paper does not investigate.
One interesting theme in JPMorgan’s hawk-dove study is that in all three committees examined, the chairs tilt hawkish. That’s a surprise, as chairs are expected to be in the middle of the pack, but is probably an accurate reflection of recent communications. It’s possible that because of the background noise, chairs are having to take a bigger role communicating their committee’s direction of travel — though a speech-by-speech analysis doesn’t make it easy to spot any pattern:
To be clear, the hawk detector works. JPMorgan’s machine is at least as good as the average economist at identifying changes in the mood music:
But the paper only touches briefly on whether it’s a lead indicator or a temperature check, and its findings are complicated by periods when rates were zero-lower-bounded.
Broadly speaking, JPMorgan finds that when the three-month average of its hawkishness-of-speakers measure rises between meetings by 10 points, it’s worth roughly 10 basis points to short-term interest rates, with a one-week lead. That’s what the below chart apparently illustrates, albeit with a promise that the full working will follow in a later note:
“Debate about these rankings is as likely as debate over who is the best footballer or baseball player,” JPMorgan says, accurately.
Because while ten basis points of outperformance is not to be sniffed at, the enterprise brings to mind sports performance metrics like expected goals, which often seem more useful for prolonging arguments than for predicting outcomes. And in the end, isn’t a prolonged argument what (human) economists want most of all?
Robo-Fedwatchers are finally ready for the bigtime, says JPMorgan The first instinct of a lot of academics, when given a natural language processor, is to feed it on something deeply unnatural. How else to explain the recent rash of research that pits AI against Fedspeak? To be fair, there are very good reasons for wanting to ignore central bankers, and the desire to delegate the chore of listening to their strangulated equivocalities predates ChatGPT by at least a century. But it’s the possibility of automating the process that has been causing excitement recently — such as in papers here, here, here and here, as well as in an Alphaville post here. Now it’s the subject of a flagship JPMorgan note that we can’t link to, so will summarise here. It opens with a big claim: With central bank communications now at the frontlines of policy setting, everything from official policy statements to individual speeches are scrutinized for hints of policy guidance. It is against this backdrop that machine learning and natural language processing (NLP) find fertile ground. The use of NLP to assess central bank communications has been around for some time. However, prior attempts failed to gain traction because they lacked the sophistication to generate actionable results. Simply put, the technology was not yet ready for primetime. This has changed. We believe NLP is ready for the successful application that many have long waited for. Here’s what many have long waited for: Y tho? If monetary policy guidance is of such fundamental importance, and if clear communication is the post-GFC prerequisite, why pass the job to an algorithm? JPMorgan suggests five reasons. AI offers a second opinion to human economists; its interpretations are systematic and transparent; it’s quicker to reach a conclusion; it spits out metrics rather than essays; and its findings are invulnerable to retrospection. “While an economist can offer an informed judgment of a particular central bank speech, this assessment is often multi-dimensional and may be dependent on context which can be lost in a matter of weeks or even days,” JPMorgan says. “By contrast, the HDS is singular and permanent in the historical record, making it ideal for gauging how central bank thinking is changing over time and how it compares to past episodes.” The HDS referred to above is the JPMorgan Hawk-Dove Score. It’s an upgrade of the bank’s 2019 attempt at Fedspeak processing using BERT, a language model developed by Google. The rebuild uses ChatGPT and in theory can make sense of any central bank on the planet, because it frames its whole world around three rules. And here’s how it rates individual Federal Open Market Committee committee members, based on recent speeches, with positive numbers meaning hawkish and negative ones meaning dovish . . . ... which isn’t how humans see things at all. Bullard and Kashkari are generally considered the most hawkish, Cook is the dove and Barr stays in the middle of the pack next to Powell. Luckily, because the FOMC is the world’s most micro-analysed committee, it’s reasonably easy to guess where garbage in has become garbage out: One reason Governor Barr comes across as the most dovish member of the FOMC is that he is the vice chair for supervision and many of his speeches are less relevant to macro monetary policy while also having numerous references to financial stability—a concept that can be interpreted as dovish (though not always). [ . . . ] President Bullard is often noted for having a wide range of views that are hard to pin down. Moreover, because he often presents in slide-format without a speech, he is harder to quantify. The hawk-dove ratios for the European Central Bank and Bank of England committees also need humans to add context. Schnabel is probably too near the centre of the ECB because her most hawkish speeches have all been recent, so they haven’t yet moved the average. Broadbent probably over-indexes on dovishness because he speaks rarely and cagily. The opposite may be true of Pill and his unique presentation style. Etc. Whether it’s possible to apply this level of granular analysis to less studied rate-setting committees is a question the paper does not investigate. One interesting theme in JPMorgan’s hawk-dove study is that in all three committees examined, the chairs tilt hawkish. That’s a surprise, as chairs are expected to be in the middle of the pack, but is probably an accurate reflection of recent communications. It’s possible that because of the background noise, chairs are having to take a bigger role communicating their committee’s direction of travel — though a speech-by-speech analysis doesn’t make it easy to spot any pattern: To be clear, the hawk detector works. JPMorgan’s machine is at least as good as the average economist at identifying changes in the mood music: But the paper only touches briefly on whether it’s a lead indicator or a temperature check, and its findings are complicated by periods when rates were zero-lower-bounded. Broadly speaking, JPMorgan finds that when the three-month average of its hawkishness-of-speakers measure rises between meetings by 10 points, it’s worth roughly 10 basis points to short-term interest rates, with a one-week lead. That’s what the below chart apparently illustrates, albeit with a promise that the full working will follow in a later note: “Debate about these rankings is as likely as debate over who is the best footballer or baseball player,” JPMorgan says, accurately. Because while ten basis points of outperformance is not to be sniffed at, the enterprise brings to mind sports performance metrics like expected goals, which often seem more useful for prolonging arguments than for predicting outcomes. And in the end, isn’t a prolonged argument what (human) economists want most of all?
Robo-Fedwatchers đã sẵn sàng cho thời điểm trọng đại, theo JPMorgan Phản xạ đầu tiên của nhiều học giả, khi được trang bị một bộ xử lý ngôn ngữ tự nhiên, là giao cho nó một việc rất không tự nhiên. Nhiều người đổ xô ứng dụng trí tuệ nhân tạo để giải mã thông điệp của ngân hàng trung ương? Có rất nhiều lý do để không cần đếm xỉa đến những người điều hành ngân hàng trung ương, và ước muốn giao việc giải mã những câu nói lập lờ của họ cho một thuật toán đã tồn tại ít nhất một thế kỷ trước ChatGPT. Gần đây ước muốn này đã trở thành hiện thực với khả năng tự động hóa quá trình này. Việc hoạch định chính sách phụ thuộc rất nhiều vào các thông điệp của ngân hàng trung ương. Các tuyên bố chính sách chính thức hoặc các bài phát biểu cá nhân của họ được xem xét kỹ lưỡng để đưa ra khuyến nghị chính sách. Đây là mảnh đất màu mỡ để ứng dụng máy học và xử lý ngôn ngữ tự nhiên (NLP). Việc sử dụng NLP để đánh giá các thông điệp của ngân hàng trung ương đã tồn tại được một thời gian. Tuy nhiên, công việc này không thành công lắm vì công nghệ chưa đủ thông minh để tạo ra kết quả có giá trị định hướng cho kế hoạch hành động. Đơn giản là công nghệ chưa sẵn sàng cho việc này. Nhưng mọi việc đã thay đổi. Chúng tôi tin rằng NLP đã sẵn sàng để ứng dụng thành công điều mà nhiều người đã chờ đợi từ lâu. Đây là những gì nhiều người đã chờ đợi từ lâu: Vì sao? Sau khủng hoảng tài chính toàn cầu, cếu các hướng dẫn chính sách tiền tệ được coi là rất quan trọng và việc truyền thông rõ ràng là yêu cầu tiên quyết. Tuy nhiên vì sao phải giao việc đó cho một thuật toán? JPMorgan đưa ra năm lý do. Trí tuệ nhân tạo cung cấp ý kiến bổ sung cho các nhà kinh tế; những diễn giải của nó được thực hiện theo một cách có hệ thống và minh bạch; việc đưa ra kết luận nhanh hơn; nó đưa ra các số liệu thay vì các bài luận; và sau này khi nhìn lại thì ít người diễn giải lại các kết quả của nó. “Một nhà kinh tế có thể đưa ra một đánh giá dựa trên thông tin đầy đủ về một bài phát biểu của ngân hàng trung ương cụ thể. Đánh giá này thường có nhiều khía cạnh và có thể phụ thuộc vào bối cảnh có thể thay đổi trong vài tuần hoặc thậm chí là vài ngày,” JPMorgan nói. “Ngược lại, HDS là duy nhất và vĩnh viễn được ghi nhận, đặc điểm này khiến cho nó là công cụ lý tưởng để nhận định cách tư duy của ngân hàng trung ương thay đổi theo thời gian như thế nào và so sánh với các qua điểm trước đó.” HDS được đề cập ở trên là JPMorgan Hawk-Dove Score (Điểm Diều hâu-Bồ câu). Đó là một phiên bản nâng cấp của một thuật toán mà ngân hàng dùng năm 2019 để xử lý Fedspeak (các tuyên bố của Fed) bằng BERT, một mô hình ngôn ngữ do Google phát triển. (Dove: ủng hộ lãi suất thấp và chính sách mở rộng tiền tệ nhằm kích thích tăng trưởng kinh tế, hawk: nghiêng về kiểm soát lạm phát, tăng lãi suất và thắt chặt tiền tệ) Thuật toán mới sử dụng ChatGPT và về lý thuyết có thể hiểu được bất kỳ ngân hàng trung ương nào, vì nó dựa trên ba quy tắc. Và đây là cách nó đánh giá các cá nhân các thành viên Ủy ban thị trường mở liên bang, dựa trên các bài phát biểu gần đây, với các số dương có nghĩa là hawks (diều hâu) và các số âm có nghĩa là doves (bồ câu). ... không giống cách con người nhìn nhận vấn đề. Bullard và Kashkari thường được coi là những người hawks nhất, Cook là người dove và Barr ở giữa bảng xếp hạng bên cạnh Powell. May mắn thay, vì FOMC là ủy ban được phân tích tỉ mỉ nhất thế giới, nên khá dễ dàng để đoán được nơi rác vào đã trở thành rác ra: Một trong những lý do thống đốc Barr được coi là thành viên dove nhất của FOMC là vì ông là phó chủ tịch giám sát và nhiều bài phát biểu của ông không liên quan đến chính sách tiền tệ tổng thể trong khi ông cũng nhắc nhiều đến sự ổn định tài chính - một khái niệm có thể được hiểu là dove (mặc dù không phải lúc nào cũng vậy). [....]Chủ tịch Bullard thường được ghi nhận là có rất nhiều quan điểm khó xác định rõ ràng. Hơn nữa, vì ông thường trình bày dưới dạng slide không có bài phát biểu, nên khó đánh giá ông về định lượng. Tỷ lệ hawk-dove cho các ủy ban của Ngân hàng Trung ương Châu Âu và Ngân hàng Anh cũng cần con người để bổ sung thêm ngữ cảnh. Schnabel có lẽ quá gần quan điểm đứng ở giữa của ECB vì các bài phát biểu hawkish nhất của bà đều là gần đây, vì vậy quan điểm của bà cơ bản là chưa thay đổi. Broadbent có khả năng thiên nhiều về dove vì ông nói ít và dè dặt. Pill thì ngược lài với phong cách trình bày độc đáo của ông. Vân vân. Bài nghiên cứu không tìm hiểu câu hỏi liệu có thể áp dụng cấp độ phân tích tỉ mỉ này cho các ủy ban thiết lập lãi suất chưa được nghiên cứu nhiều hay không. Một chủ đề thú vị trong nghiên cứu hawk-dove của JPMorgan là trong tất cả ba ủy ban được xem xét, chủ tịch nghiêng về hawk. Đây là một bất ngờ, vì các chủ tịch được kỳ vọng có quan điểm đứng giữa, nhưng có thể điều này phản ánh chính xác của các tuyên bố gần đây. Có thể do các biến động vĩ mô khó lường, các chủ tịch đang phải đóng vai trò quan trọng hơn trong việc truyền đạt hướng đi của ủy ban. Tuy nhiên việc phân tích từng bài phát biểu không giúp phát hiện bất kỳ xu thế nào: Một điều rõ ràng là thuật toán nhận dạng hawk hoạt động tốt. Thuật toán của JPMorgan ít nhất cũng tốt ngang một nhà nhà kinh tế trung bình trong việc xác định sự thay đổi tâm trạng: Nhưng bài nghiên cứu chỉ đề cập ngắn gọn đến việc nó đóng vai trò định hướng hay chỉ phản ánh kỳ vọng thị trường. Ngoài ra thuật toán gặp khó khăn trong các giai đoạn khi lãi suất bị duy trì ở mức gần không phần trăm. Nói chung, JPMorgan nhận thấy rằng khi trung bình chỉ số hawkishness trong ba tháng giữa các cuộc họp ủy ban tăng 10 điểm, lãi suất ngắn hạn sẽ tăng khoảng 10 điểm cơ bản, với độ trễ một tuần. Đó là điều mà biểu đồ dưới đây có vẻ minh họa, mặc dù hứa hẹn rằng công việc đầy đủ sẽ được đưa ra trong một ghi chú sau: “Cuộc tranh luận về các bảng xếp hạng này cũng thường xuyên như cuộc tranh luận về ai là cầu thủ bóng đá hoặc vận động viên bóng chày xuất sắc nhất,” JPMorgan nói. Lãi suất tăng mười điểm cơ bản so với kỳ vọng là việc không thể bị xem nhẹ. Tuy nhiên chỉ số này khiến chúng ta nhớ lại các số liệu hiệu suất thể thao như mục tiêu kỳ vọng, các số liệu này có thể gây ra tranh luận kéo dài thay vì dự đoán kết quả. Và cuối cùng, liệu một cuộc tranh luận kéo dài có phải là điều mà các nhà kinh tế (con người) mong muốn nhất?
Meet CancerGPT: A Proposed Model that Uses a Large Language Model to Predict Synergies of Drug Pairs on Particular Tissues in a Few-Shot Setting
The most recent iteration of artificial intelligence uses foundation models. Such foundation models or “generalist” models may be used for numerous downstream tasks without particular training instead of building AI models that tackle specific tasks one at a time. For instance, the massive pre-trained language models GPT-3 and GPT-4 have revolutionized the basic AI model. LLM may use few-shot or zero-shot learning to apply its knowledge to new tasks for which it has yet to be taught. Multitask learning, which enables LLM to learn from implicit tasks in its training corpus accidentally, is partly to blame for this. Although LLM has demonstrated proficiency in few-shot learning in several disciplines, including computer vision, robotics, and natural language processing, its generalizability to problems that cannot be observed in more complex fields like biology has yet to be thoroughly examined. Understanding the involved parties and underlying biological systems is necessary to infer unobserved biological reactions. Most of this information is in free-text literature, which might be used to train LLMs, whereas structured databases only encapsulate a small amount. Researchers from the University of Texas, the University of Massachusetts Amherst, and the University of Texas Health Science Center believe that LLMs, which extract previous knowledge from unstructured literature, might be a creative method for biological prediction challenges where there is a lack of structured data and small sample sizes. A crucial problem in such a few-shot biological prediction is the prediction of medication pair synergy in cancer types that have not been well explored. Drug combinations in therapy are now a common practice for managing difficult-to-treat conditions, including cancer, infectious infections, and neurological disorders. Combination therapy frequently offers superior therapeutic results over single-drug treatment. Medication discovery and development research has increasingly focused on predicting the synergy of medication pairs. Drug pair synergy describes how using two medications together has a greater therapeutic impact than using each separately. Due to the numerous potential combinations and complexity of the underlying biological systems, forecasting medication pair synergy cannot be easy. Several computational techniques have been created to anticipate medication pair synergy, notably employing machine learning. Large datasets of in vitro experiment results for drug combinations may be used to train machine learning algorithms to find trends and forecast the likelihood of synergy for a novel medication pair. A relatively small amount of experiment data is accessible for some tissues, such as bone and soft tissues. In contrast, most data pertains to common cancer forms in select tissues, like breast and lung cancer. The volume of training data available for medication pair synergy prediction is constrained by the physically demanding and expensive nature of obtaining cell lines from these tissues. Large dataset-dependent machine learning models may need help to train. Early research ignored these tissues’ biological and cellular variations and extrapolated the synergy score to cell lines in other tissues based on relational or contextual information. By utilizing various and high-dimensional data, such as genomic or chemical profiles, another line of research has attempted to reduce the disparity across tissues. Despite the promising findings in some tissues, these techniques must be used on tissues with sufficient data to modify their model with the many parameters for those high-dimensional properties. They want to address the aforementioned problem faced by LLMs in this work. They assert that the scientific literature still contains useful information on cancer kinds with sparse organized data and inconsistent characteristics. It isn’t easy to manually gather prognostic data about such biological things from literature. Utilizing past information from scientific literature stored in LLMs is their novel strategy. They created a model that converts the prediction job into a natural language inference challenge and generates responses based on knowledge embodied in LLMs, called the few-shot drug pair synergy prediction model. Their experimental findings show that their LLM-based few-shot prediction model beat strong tabular prediction models in most scenarios and attained considerable accuracy even in zero-shot settings. Because it demonstrates a high potential in the “generalist” biomedical artificial intelligence, this extraordinary few-shot prediction performance in one of the most difficult biological prediction tasks has a vital and timely relevance to a large community of biomedicine.
Phiên bản trí tuệ nhân tạo hiện tại sử dụng các mô hình nền tảng. Những mô hình nền tảng này hoặc mô hình "tổng quát" có thể được sử dụng cho nhiều tác vụ phía dưới mà không cần đào tạo cụ thể thay vì xây dựng các mô hình trí tuệ nhân tạo giải quyết các tác vụ cụ thể một cách riêng lẻ. Ví dụ, các mô hình ngôn ngữ được huấn luyện trước lớn GPT-3 và GPT-4 đã cách mạng hóa mô hình trí tuệ nhân tạo cơ bản. LLM có thể sử dụng việc học một vài lần hoặc không có việc học để áp dụng kiến thức của nó vào các tác vụ mới mà nó chưa được học. Học đa nhiệm, cho phép LLM học từ các tác vụ ngầm định trong bộ sưu tập huấn luyện của nó một cách tình cờ, là một phần nguyên nhân của điều này. Mặc dù LLM đã chứng tỏ được năng lực trong việc học một vài lần trong một số lĩnh vực, bao gồm thị giác máy tính, robot và xử lý ngôn ngữ tự nhiên, khả năng tổng quát hóa của nó đối với các vấn đề không thể quan sát được trong các lĩnh vực phức tạp hơn như sinh học vẫn chưa được kiểm tra kỹ. Hiểu các bên liên quan và hệ thống sinh học cơ bản là cần thiết để suy ra các phản ứng sinh học không được quan sát. Hầu hết thông tin này đều có trong tài liệu văn bản miễn phí, có thể được sử dụng để đào tạo LLM, trong khi các cơ sở dữ liệu có cấu trúc chỉ bao gồm một lượng nhỏ thông tin. Các nhà nghiên cứu từ Đại học Texas, Đại học Massachusetts Amherst và Trung tâm Khoa học Y tế Đại học Texas tin rằng LLM, có khả năng trích xuất kiến thức trước đây từ văn bản không có cấu trúc, có thể là một phương pháp sáng tạo cho các thách thức dự đoán sinh học trong trường hợp thiếu dữ liệu có cấu trúc và số lượng mẫu nhỏ. Vấn đề quan trọng trong việc dự đoán sinh học một vài lần này là dự đoán tương tác đôi thuốc trong các loại ung thư mà chưa được nghiên cứu kỹ. Kết hợp thuốc trong điều trị hiện nay là một thực hành thông thường để quản lý các bệnh khó điều trị, bao gồm ung thư, nhiễm trùng và rối loạn thần kinh. Thường xuyên, điều trị kết hợp mang lại kết quả điều trị tốt hơn so với điều trị một thuốc. Nghiên cứu phát hiện và phát triển thuốc đã ngày càng tập trung vào dự đoán sự tương tác của cặp thuốc. Tương tác đôi thuốc mô tả cách sử dụng hai loại thuốc cùng nhau có tác động điều trị lớn hơn so với việc sử dụng mỗi loại thuốc riêng lẻ. Do số lượng kết hợp tiềm năng và độ phức tạp của các hệ thống sinh học cơ bản, việc dự đoán tương tác đôi thuốc không phải là điều dễ dàng. Nhiều kỹ thuật tính toán đã được tạo ra để dự đoán tương tác đôi thuốc, đặc biệt là sử dụng học máy. Các tập dữ liệu lớn về kết quả thí nghiệm in vitro cho các kết hợp thuốc có thể được sử dụng để đào tạo các thuật toán học máy để tìm ra xu hướng và dự đoán khả năng tương tác cho một cặp thuốc mới. Một lượng dữ liệu thí nghiệm tương đối nhỏ có sẵn cho một số mô mô, chẳng hạn như xương và các mô mềm. Ngược lại, hầu hết dữ liệu liên quan đến các loại ung thư thông thường ở một số mô nhất định, chẳng hạn như ung thư vú và phổi. Thể tích dữ liệu đào tạo có sẵn cho dự đoán tương tác đôi thuốc bị giới hạn bởi tính đòi hỏi vật lý và chi phí cao trong việc thu thập các dòng tế bào từ các mô này. Các mô hình học máy phụ thuộc vào tập dữ liệu lớn có thể cần được hỗ trợ để đào tạo. Nghiên cứu ban đầu bỏ qua sự khác biệt sinh học và tế bào của các mô này và suy ra điểm tương tác cho các dòng tế bào ở các mô khác dựa trên thông tin liên quan hoặc ngữ cảnh. Bằng cách sử dụng nhiều dữ liệu và chiều cao, chẳng hạn như hồ sơ di truyền hoặc hóa học, một dòng nghiên cứu khác đã cố gắng giảm sự khác biệt giữa các mô. Mặc dù đã có những kết quả đầy hứa hẹn ở một số mô, những kỹ thuật này phải được sử dụng trên các mô có đủ dữ liệu để điều chỉnh mô hình của họ với nhiều tham số cho những thuộc tính cao chiều đó. Họ muốn giải quyết vấn đề đã đề cập bởi LLMs trong công việc này. Họ khẳng định rằng vẫn còn thông tin hữu ích trong văn bản khoa học về các loại ung thư có dữ liệu tổ chức thưa và đặc tính không đồng nhất. Việc thu thập dữ liệu dự đoán thế mạnh về những thứ sinh học này từ văn bản không phải là điều dễ dàng. Sử dụng thông tin trước đây từ văn bản khoa học được lưu trữ trong LLMs là chiến lược mới của họ. Họ đã tạo ra một mô hình chuyển đổi nhiệm vụ dự đoán thành một thách thức suy luận ngôn ngữ tự nhiên và tạo ra các câu trả lời dựa trên kiến thức được thể hiện trong LLMs, gọi là mô hình dự đoán tương tác thuốc đôi một vài lần. Các kết quả thử nghiệm của họ cho thấy rằng mô hình dự đoán một vài lần dựa trên LLM của họ vượt qua các mô hình dự đoán bảng mạnh trong hầu hết các tình huống và đạt được độ chính xác đáng kể ngay cả trong các cài đặt không cần học một vài lần. Vì nó cho thấy tiềm năng cao trong trí tuệ nhân tạo sinh học "tổng quát", hiệu suất dự đoán một vài lần đặc biệt trong một trong những nhiệm vụ dự đoán sinh học khó nhất có tính cấp bách và kịp thời đối với một cộng đồng lớn của ngành y tế.
A stock portfolio created by ChatGPT is outperforming the top UK investment funds
 
A stock portfolio created by ChatGPT is outperforming the top UK investment funds A theoretical stock portfolio of 38 companies picked by ChatGPT has outperformed the 10 most popular funds in the UK over an eight week stretch, according to finance website Finder.com. The AI-powered fund has climbed 4.93% in the eight weeks since March 6, 2023, while the group of competing funds together averaged a loss of 0.78% in the same period. The bot-picked fund has outperformed the real funds in 34 of the 39 market days the experiment has been running, the report said. The top three performing stocks in the ChatGPT portfolio were Meta, Microsoft, and Intel Corporation, which saw increases of roughly 30%, 20%, and 18%, respectively. Other names that rounded out the portfolio include Visa, Home Depot, Johnson & Johnson, Nvidia, and Netflix. Finder asked the AI large language model to pick stocks using a range of investing principles taken from the leading funds, the website said, and the study bypassed ChatGPT's warning that it "cannot provide specific investment advice" by adding that it was a theoretical exercise. "The big question is how bad of an idea using ChatGPT for investing research currently would be," Finder chief executive Jon Ostler said. "Big funds have increasingly been using AI for years, but the public using a rudimentary AI platform that openly says its data is patchy since September 2021 and lacks the intricacies of market psychology, doesn't sound like a good idea." Some of the UK funds that were used in comparison to the ChatGPT portfolio including Fundmsith, Vanguard LifesStrategy 80% Equity, and Fidelity Index UK P Acc. In a separate survey, Finder also noted that about 19% of UK adults said they would consider getting financial advice from ChatGPT, and a further 8% said they were already doing so. More than one third of Brits said they weren't sure what ChatGPT was. Ostler pointed out that another 2021 survey found that half of British investors use social media to get investing advice. Using AI, in his view, could be a wiser choice than relying on an "unqualified TikTok star," but ideally people shouldn't rely on either for their entire investing education. "Spending time researching via known primary sources or a qualified advisor would be the safer and recommended approach," he said, "but this may not be the case for ever."
ChatGPT tư vấn đầu tư giỏi hơn các quỹ đầu tư hàng đầu tại Anh Theo trang web tài chính Finder.com, một danh mục (lý thuyết) cổ phiếu gồm 38 công ty do ChatGPT chọn đã mang lại kết quả đầu tư tốt hơn so với kết quả của 10 quỹ đầu tư được ưa chuộng nhất tại Vương quốc Anh trong vòng tám tuần. Quỹ đầu tư được do trí tuệ nhân tạo tư vấn đã tăng 4,93% trong tám tuần kể từ ngày 6 tháng 3 năm 2023, trong khi nhóm các quỹ cạnh tranh đã mất giá trị 0,78% trong cùng thời kỳ. Theo báo cáo, quỹ đầu tư do bot chọn đã vượt qua các quỹ đầu tư do con người quản lý trong 34 trong số 39 ngày giao dịch trên thị trường. Ba cổ phiếu có hiệu suất cao nhất trong danh mục đầu tư của ChatGPT là Meta, Microsoft và Tập đoàn Intel, tăng lần lượt khoảng 30%, 20% và 18%. Các công ty khác trong danh mục bao gồm Visa, Home Depot, Johnson & Johnson, Nvidia và Netflix. Finder đã yêu cầu mô hình AI chọn cổ phiếu dựa trên các nguyên tắc đầu tư tham khảo từ các quỹ đầu tư hàng đầu. Nghiên cứu đã tìm cách lách cảnh báo của ChatGPT "không thể cung cấp lời khuyên đầu tư cụ thể" bằng cách đưa vào prompt thông tin rằng đây chỉ là một bài tập lý thuyết. "Câu hỏi lớn đặt ra là sử dụng ChatGPT để đầu tư có phải là một ý tưởng tồi không" giám đốc điều hành Finder Jon Ostler nói. "So với các quỹ đầu tư lớn đã sử dụng trí tuệ nhân tạo trong nhiều năm, các nhà đầu tư bình thường hiện chỉ được dùng một công cụ AI thô sơ với thông báo công khai rằng dữ liệu của nó chỉ cập nhật đến tháng 9 năm 2021 và hoàn toàn mù mờ về tâm lý thị trường. Việc so sánh này có vẻ không ổn." Một số quỹ tại Vương quốc Anh được sử dụng để so sánh với danh mục ChatGPT gồm Fundmsith, Vanguard LifesStrategy 80% Equity và Fidelity Index UK P Acc. Trong một khảo sát riêng, Finder cũng lưu ý rằng khoảng 19% người trưởng thành tại Vương quốc Anh nói họ có thể sẽ nhận lời khuyên tài chính từ ChatGPT và 8% khác nói họ đã làm như vậy. Hơn một phần ba người Anh nói họ không biết ChatGPT là gì. Ostler nhấn mạnh rằng một khảo sát khác vào năm 2021 đã phát hiện ra rằng một nửa nhà đầu tư Anh nhận lời khuyên đầu tư từ mạng xã hội. Theo ông, sử dụng trí tuệ nhân tạo có thể là một lựa chọn khôn ngoan hơn là phụ thuộc vào các "ngôi sao TikTok không có trình độ", nhưng tốt nhất là không nên dựa vào AI hoặc mạng xã hội học cách đầu tư. "Hãy dành thời gian nghiên cứu thông tin từ các nguồn chính hoặc tư vấn viên được đào tạo là phương pháp an toàn và được khuyến nghị," ông nói, "nhưng trong tương lai điều này có thể không còn đúng nữa."
Edtech Chegg tumbles as ChatGPT threat prompts revenue warning
 
May 2 (Reuters) - What's the cost of students using ChatGPT for homework? For U.S. education services provider Chegg Inc (CHGG.N), it could be nearly $1 billion in market valuation. Chegg signaled the rising popularity of viral chatbot ChatGPT was pressuring its subscriber growth and prompted it to suspend its full-year outlook, sending shares of the company 47% lower in early trading on Tuesday. "Since March, we saw a significant spike in student interest in ChatGPT. We now believe it's having an impact on our new customer growth rate," said Chegg CEO Dan Rosensweig. Advertisement · Scroll to continue There are fears Chegg's core business could become extinct as consumers experiment with free artificial intelligence (AI) tools, said analyst Brent Thill at Jefferies, which downgraded the stock to "hold". Last month, the Santa Clara, California-based firm said it would launch ChatGPT's AI powered CheggMate, a study aide tailored to students' needs, at a time educators were grappling with the consequences of the homework drafting chatbot. However, analysts said it was unclear if CheggMate would be enough to counter a slowdown in company's core business. Advertisement · Scroll to continue "We fear Chegg could start to lose mind-share before CheggMate fully rolls out," Thill said. If losses hold through the session, Chegg would lose $994 million in market capitalization. Shares of Chegg's UK rival Pearson PLC (PSON.L) shed nearly 11.5% on Tuesday. Chegg said it was suspending its full-year outlook due to uncertainty of the impact on results and targeted second-quarter total revenue between $175 million and $178 million, which fell short of Wall Street expectations of $186.3 million. "Chegg has to make significant changes in a rapidly changing environment that is akin to 'dancing in the rain without getting wet,'" said Arvind Ramnani, analyst at Piper Sandler.
Ngày 2 tháng 5 (Reuters) - Khi học sinh sinh viên dùng ChatGPT để làm bài thì công ty nào sẽ bị thiệt hại? Đối với nhà cung cấp dịch vụ giáo dục Mỹ Chegg Inc, thiệt hại lên tới gần 1 tỷ đô la về giá trị thị trường. Chegg cho thấy sự phổ biến ngày càng tăng của chatbot ChatGPT khiến khách hàng dùng dịch vụ giáo dục giảm mạnh và công ty phải tạm ngừng dự báo triển vọng kinh doanh cho cả năm, điều này khiến giá cổ phiếu của công ty giảm 47% vào sáng thứ Ba. "Từ tháng Ba, chúng tôi đã thấy số học sinh, sinh viên quan tâm đến ChatGPT tăng mạnh. Chúng tôi nghĩ rằng điều này đang ảnh hưởng đến tốc độ tăng trưởng khách hàng mới của chúng tôi", CEO của Chegg là Dan Rosensweig cho biết. Nhiều người sợ rằng lĩnh vực kinh doanh cốt lõi của Chegg có thể bị xóa sổ khi người tiêu dùng thử nghiệm các công cụ trí tuệ nhân tạo miễn phí, theo nhận định của nhà phân tích Brent Thill tại Jefferies, đã giảm xếp hạng cổ phiếu xuống loại "giữ". Tháng trước, công ty có trụ sở tại Santa Clara, California cho biết sẽ ra mắt CheggMate dựa trên AI của ChatGPT, một công cụ hỗ trợ học tập được tùy chỉnh cho nhu cầu của học sinh và sinh viên, vào thời điểm giáo viên đang đối mặt với việc học sinh dùng chatbot viết bài tập. Tuy nhiên, các nhà phân tích cho biết chưa rõ việc ra mắt CheggMate có đủ để đối phó với sự suy giảm trong lĩnh vực kinh doanh cốt lõi của công ty hay không. "Chúng tôi e rằng Chegg có thể không trụ được trước khi CheggMate được triển khai đầy đủ", Thill cho biết. Nếu mất lợi nhuận trong phiên giao dịch này, Chegg sẽ mất 994 triệu đô la vốn hóa thị trường. Cổ phiếu của đối thủ cạnh tranh của Chegg tại Anh, Pearson PLC giảm gần 11,5% vào thứ ba. Chegg cho biết công ty đang tạm ngừng dự báo cho cả năm do sự không chắc chắn về tác động đến kết quả và tổng doanh thu mục tiêu trong quý hai từ 175 triệu đến 178 triệu đô la, thấp hơn kỳ vọng của Wall Street là 186,3 triệu đô la. "Chegg phải thực hiện các thay đổi đáng kể trong một môi trường thay đổi nhanh chóng tương tự như 'nhảy múa trong mưa mà không bị ướt'", Arvind Ramnani, nhà phân tích tại Piper Sandler cho biết.
Students use AI technology to find new brain tumor therapy targets — with a goal of fighting disease faster
 
 
Glioblastoma is one of the deadliest types of brain cancer, with the average patient living only eight months after diagnosis, according to the National Brain Tumor Society, a nonprofit. Two ambitious high school students — Andrea Olsen, 18, from Oslo, Norway, and Zachary Harpaz, 16, from Fort Lauderdale, Florida — are looking to change that. The teens partnered with Insilico Medicine, a Hong Kong-based medical technology company, to identify three new target genes linked to glioblastoma and aging. They used Insilico’s artificial intelligence platform, PandaOmics, to make the discovery — and now, they plan to continue researching ways to fight the disease with new drugs. Their findings about target genes were published on April 26 in Aging, a peer-reviewed biomedical academic journal. A third high school student, Christopher Ren from Shanghai, China, also contributed to the research. Olsen, who attends Sevenoaks School in the U.K., has been studying neuroscience since 2020. She began an internship in 2021 with Insilico, where she learned to use AI to uncover new genetic targets to treat aging and cancer. "It was there that I started this big investigation into glioblastoma and using AI to research it," she told Fox News Digital in an interview. Meanwhile, at Pine Crest High School in Fort Lauderdale, Harpaz — who had been focusing on computer science and biology — was looking to get into medical research. "There's definitely a way to use artificial intelligence to speed up the study." He chose to study glioblastoma in part because a childhood friend of his had the disease. "I saw how long studies like these take — in the lab, target discoveries can take five years — and I thought to myself, 'There's definitely a way to use artificial intelligence to speed up the study and also make an impact as a high schooler,'" he told Fox News Digital. Harpaz came across Insilico Medicine and reached out to the CEO, Dr. Alex Zhavoronkov, PhD, in Dubai — who connected him with Olsen. The two students began collaborating on the glioblastoma project. Ultimately, they discovered the three new target brain tumor genes — CNGA3, GLUD1 and SIRT1. "I think this is one of the most important uses for data — sharing diseases and making people's lives better." The genes inside the brain tumors are called "targets," which are areas that the drugs would hone in on to stop the disease. "Basically, a target is some driving factor for a cancer or a different disease, where if you can inhibit it or turn it on or off, you can stop the cancer growth and cure the disease," Harpaz explained. "That’s really awesome compared to a normal chemotherapy, where it attacks every fast-growing cell and is really damaging to other parts of the body other than the cancer." The students now plan to build on their findings with continued research into new drugs to fight the disease. 'Analyzing trillions of data points' Zhavoronkov, Insilico Medicine's CEO, explained to Fox News Digital how the PandaOmics system uses generative AI to identify therapeutic targets associated with any given disease. "It finds these new disease targets by analyzing trillions of data points, including human biological data and data from scientific publications, clinical trials and grant applications," he said. "It scores the targets on factors like novelty (how unique is it?), druggability (can it be easily drugged?) and safety — so scientists know immediately which targets are best to pursue." Insilico has used the AI system to identify new targets for cancer, fibrosis, chronic kidney disease and amyotrophic lateral sclerosis (ALS), among other diseases, Zhavoronkov said. The company also has 31 AI-designed drugs in the pipeline, including one for COVID-19 and another for pulmonary fibrosis. ‘All about the data’ To find the new therapeutic targets, the students used Insilico’s AI platform to screen data from the Gene Expression Omnibus, a repository of data that the National Center for Biotechnology Information in Bethesda, Maryland, maintains. "It’s all about data," Harpaz told Fox News Digital. "And I think that's one of the most important uses for data — sharing diseases and making people's lives better." Glioblastoma is one of the diseases for which researchers have the least amount of data, said Olsen. "That’s why it's so hard to analyze and come up with new therapies," she said. "Therefore, a really good call to action would be to get more patients to submit their medical information so that their genetic sequences can be analyzed to help prevent such diseases in the future." Connection between aging and cancer Cancer disproportionately affects older people. More than 50% of people who have cancer are 65 or older, according to data from the World Health Organization. That link inspired Olsen and Harpaz to focus their efforts on target genes for both aging and glioblastoma. "Aging is the leading cause for tons of diseases like cancer," Harpaz said. "As you age, your risk for cancer grows, along with many different diseases. So if we can figure out a way to prevent all the negative effects of aging and keep you in your prime as you age, that could prevent a lot of diseases and increase the quality of life in general." AI’s potential to transform health care Insilico founder Zhavoronkov said he is optimistic that AI can transform nearly every facet of health care and medicine. That includes disease prediction, disease identification, target discovery and the development of new drugs, he said. "In traditional drug discovery, it takes over 10 years and costs around $2 billion to bring one drug to market — and 90% of drug candidates fail during human trials," he told Fox News Digital. "This high cost and slow speed is preventing new life-saving medications from reaching patients." "I expect AI to play a major role in advancing personalized medicine." AI is already used to help screen patients to identify diseases, to make predictions and to monitor progress, the doctor said. "Eventually, I expect AI to play a major role in advancing personalized medicine, in which treatments are tailored to a specific patient based on their individual profile," he added. ‘Human scientists are essential' Although he is optimistic about AI’s potential to improve the speed and quality of health care, Zhavoronkov recognizes that technology cannot replace humans’ contributions. "Even as AI can take on more tedious and repetitive work, allowing us to accelerate the pace of discovery, human scientists are essential," he told Fox News Digital. "Humans are the real brains behind the machines." He also said, "There is a lot of fear and speculation about AI and robots replacing humans, but in reality, humans are harnessing the power of technology to do specific tasks more quickly and efficiently, just as we always have." "The only difference is that with AI, the level of complexity of the tasks it can accomplish has increased exponentially," said Zhavoronkov.
Glioblastoma là một trong những loại ung thư não nguy hiểm nhất, với trung bình bệnh nhân chỉ sống được tám tháng sau khi chẩn đoán, theo Tổ chức Phi lợi nhuận Hội chứng ung thư não Quốc gia. Hai học sinh trung học ham hiểu biết - Andrea Olsen, 18 tuổi, sống ở Oslo, Na Uy và Zachary Harpaz, 16 tuổi, sống ở Florida , Mỹ - đang muốn thay đổi điều đó. Các bạn học sinh đã hợp tác với Insilico Medicine, một công ty công nghệ y tế đóng trụ sở tại Hong Kong, để xác định ba gene mới liên quan đến glioblastoma và lão hóa. Các em đã sử dụng nền tảng trí tuệ nhân tạo của Insilico, PandaOmics, để thực hiện khám phá này - và bây giờ, các em dự định tiếp tục nghiên cứu các loại thuốc mới để điều trị bệnh. Các phát hiện của hai học sinh trung học về các gene mục tiêu đã được xuất bản vào ngày 26 tháng 4 trên Aging, một tạp chí khoa học có bình duyệt về y sinh. Một học sinh trung học thứ ba, Christopher Ren sống ở Thượng Hải, Trung Quốc, cũng đóng góp vào nghiên cứu. Olsen, học tại Trường Sevenoaks ở Vương quốc Anh, đã nghiên cứu về thần kinh học từ năm 2020. Em đi thực tập vào năm 2021 tại Insilico, nơi em học cách sử dụng trí tuệ nhân tạo để khám phá các gen mới để điều trị lão hóa và ung thư. "Em dành nhiều thời gian học cách sử dụng trí tuệ nhân tạo để nghiên cứu về bệnh glioblastoma," em nói với Fox News Digital trong một cuộc phỏng vấn. Trong khi đó, tại Trường Pine Crest ở Fort Lauderdale, Harpaz nghiên cứu khoa học máy tính và sinh học. Cậu mong muốn tham gia nghiên cứu y học. "Chắc chắn có một cách để sử dụng trí tuệ nhân tạo để tăng tốc độ nghiên cứu." Cậu nói. Harpaz chọn nghiên cứu về glioblastoma một phần là vì một người bạn thời thơ ấu của cậu mắc bệnh này. "Tôi thấy nghiên cứu kiểu này rất tốn thời gian - trong phòng thí nghiệm, việc khám phá gen mục tiêu có thể mất năm năm - và tôi nghĩ , 'Có thể có cách dùng trí tuệ nhân tạo để tăng tốc độ nghiên cứu và để một học sinh trung học như tôi đóng góp cho xã hội'", cậu nói với Fox News Digital. Harpaz đã tìm thấy công ty Insilico Medicine và liên hệ với giám đốc điều hành, Tiến sĩ Alex Zhavoronkov, PhD, tại Dubai - người đã kết nối cậu với Olsen. Hai học sinh bắt đầu hợp tác trong dự án glioblastoma. Cuối cùng, các em đã khám phá ra ba gen u não mới - CNGA3, GLUD1 và SIRT1. "Tôi nghĩ đây là một trong những cách sử dụng dữ liệu hữu ích nhất - cải thiện cuộc sống của con người," Olsen nói. Các gen bên trong khối u não được gọi là "mục tiêu", đó là các khu vực mà các loại thuốc sẽ nhắm tới để ngăn chặn bệnh. "Về cơ bản, một gen mục tiêu là một yếu tố thúc đẩy ung thư hoặc một bệnh khác. Nếu chúng ta có thể ức chế hoặc bật hoặc tắt gen này, chúng ta có thể ngăn chặn sự phát triển của ung thư và chữa khỏi bệnh", Harpaz giải thích. "Phương pháp này thật tuyệt vời so với hóa trị thông thường tấn công các tế bào có đặc điểm phát triển nhanh và làm tổn thương các bộ phần cơ thể lành" Harpaz giải thích. Các em học sinh dự định phát huy thành quả những phát hiện của mình để tiếp tục nghiên cứu về các loại thuốc điều trị mới. Phân tích hàng tỉ điểm dữ liệu Zhavoronkov, CEO của Insilico Medicine, giải thích với Fox News Digital về cách hệ thống PandaOmics sử dụng AI tạo sinh để xác định các gen mục tiêu điều trị các loại bệnh. "AI tìm kiếm các gen mục tiêu mới liên quan đến bệnh này bằng cách phân tích hàng tỉ điểm dữ liệu, bao gồm dữ liệu sinh học của con người và dữ liệu từ các xuất bản khoa học, thử nghiệm lâm sàng và các hồ sơ xin tài trợ nghiên cứu," ông nói. "AI đánh giá các gen mục tiêu dựa trên các yếu tố như sự mới lạ (nó có mới lạ không?), khả năng tác động bằng thuốc và an toàn - giúp các nhà khoa học biết ngay lập tức những gen mục tiêu nào cần nghiên cứu." Insilico đã sử dụng hệ thống trí tuệ nhân tạo để xác định các gen mục tiêu mới liên quan đến ung thư, xoang phổi, bệnh thận mãn tính và bệnh đa xơ cứng cột sống, và các bệnh khác, Zhavoronkov cho biết. Công ty cũng có 31 loại thuốc được thiết kế bằng trí tuệ nhân tạo đang được phát triển, bao gồm một loại cho COVID-19 và một loại cho xoang phổi. 'Tất cả đều liên quan đến dữ liệu' Để tìm ra các mục tiêu điều trị mới, các học sinh đã sử dụng nền tảng trí tuệ nhân tạo của Insilico để sàng lọc dữ liệu từ Gene Expression Omnibus, một kho dữ liệu do Trung tâm Thông tin Sinh học Quốc gia tại Maryland, Mỹ vận hành. "Tất cả là nhờ dữ liệu," Harpaz cho biết. "Và tôi nghĩ đó là một trong những ứng dụng quan trọng nhất của dữ liệu - chia sẻ thông tin về các loại bệnh và cải thiện cuộc sống của con người." Glioblastoma là một trong những bệnh mà các nhà nghiên cứu có ít dữ liệu nhất, Olsen nói. "Đó là lý do tại sao nó rất khó phân tích và đưa ra các phương pháp điều trị mới," em nói. "Vì vậy, cần kêu gọi nhiều bệnh nhân gửi thông tin y tế của họ để các chuỗi gen của họ có thể được phân tích để giúp ngăn ngừa các bệnh này trong tương lai." Mối liên hệ giữa tuổi tác và ung thư Ung thư ảnh hưởng nhiều đến người cao tuổi hơn. Hơn 50% người mắc ung thư là người từ 65 tuổi trở lên, theo dữ liệu từ Tổ chức Y tế Thế giới. Mối liên hệ đó đã truyền cảm hứng cho Olsen và Harpaz tập trung nghiên cứu các gene mục tiêu cho cả hiện tượng lão hóa và glioblastoma. "Lão hóa là nguyên nhân hàng đầu gây ra rất nhiều bệnh như ung thư," Harpaz nói. "Khi có tuổi, rủi ro mắc ung thư tăng lên, cũng như nhiều bệnh khác. Vì vậy, nếu chúng ta có thể tìm ra cách ngăn ngừa tất cả các tác động tiêu cực của việc lão hóa và duy trì thể trạng tốt nhất khi về già, điều đó có thể ngăn ngừa rất nhiều bệnh và tăng chất lượng cuộc sống nói chung." Tiềm năng của trí tuệ nhân tạo trong cải thiện chăm sóc sức khỏe Người sáng lập Insilico Zhavoronkov cho biết ông lạc quan rằng trí tuệ nhân tạo có thể thay đổi gần như mọi khía cạnh của chăm sóc sức khỏe và y học. Các thay đổi bao gồm chẩn đoán, xác định bệnh, khám phá gen mục tiêu và phát triển thuốc mới, ông nói. "Phương pháp truyền thống dùng để phát minh thuốc mới mất hơn 10 năm và chi phí khoảng 2 tỷ đô la để đưa một loại thuốc mới ra thị trường - và 90% thuốc mới xin cấp phép thất bại trong các thử nghiệm trên con người," ông nói với Fox News Digital. "Do chi phí cao và tốc độ chậm, bệnh nhân khó tiếp cận được các loại thuốc mới có thể cứu sống con người." "Tôi mong đợi trí tuệ nhân tạo sẽ đóng vai trò chính trong việc thúc đẩy y học cá nhân hóa." Tiến sĩ nói rằng trí tuệ nhân tạo đã được sử dụng để giúp sàng lọc bệnh nhân để xác định bệnh, dự đoán và giám sát tiến trình. "Cuối cùng, tôi kỳ vọng rằng trí tuệ nhân tạo sẽ đóng vai trò quan trọng trong việc thúc đẩy y học cá nhân hóa, trong đó các liệu trình được tùy chỉnh cho từng bệnh nhân cụ thể dựa trên hồ sơ cá nhân của họ", ông nói thêm. "Nhà khoa học con người là rất quan trọng" Mặc dù ông lạc quan về tiềm năng của trí tuệ nhân tạo trong việc cải thiện tốc độ và chất lượng chăm sóc sức khỏe, Zhavoronkov nhận ra rằng công nghệ không thể thay thế những đóng góp của con người. "Ngay cả khi trí tuệ nhân tạo có thể thay con người àm nhiều công việc tẻ nhạt và lặp đi lặp lại, giúp chúng ta tăng tốc độ khám phá, nhà khoa học con người là rất quan trọng", ông nói. "Con người là bộ não thực sự đằng sau các máy móc." Ông cũng cho biết: "Có rất nhiều nỗi sợ và suy đoán về trí tuệ nhân tạo và robot thay thế con người, nhưng trong thực tế, con người đang khai thác sức mạnh của công nghệ để thực hiện các nhiệm vụ cụ thể nhanh hơn và hiệu quả hơn, giống như chúng ta luôn làm." "Khác biệt duy nhất là với trí tuệ nhân tạo, mức độ phức tạp của các nhiệm vụ nó có thể thực hiện đã tăng lên một cách chóng mặt", Zhavoronkov nói.
 
The Best Investment to Make in 2023 Is in Yourself; From learning new skills to cultivating interests and relationships, investments of time and money now can pay off in the years ahead
Want your stock to rise in 2023?
The same principles investors use to build wealth can be applied to enriching yourself in other ways. Just as we buy stocks and bonds to generate financial growth, we can build a portfolio of how we spend our time and money now that pays off in the months and years ahead.
Investments in ourselves, or what economists call our human capital, can be a more productive way to frame efforts for bettering our lives. Diane Ring, interim dean and professor of law at Boston College, has previously researched new developments in human capital investments and the sharing economy. She points to three major categories of growth that can be nurtured by investing in ourselves: professional, personal and health.
related
"Those buckets are all connected," she said. "Think of it as wanting different kinds of returns for yourself. They're all slightly different, but still moving toward stability, with the aim to retire in a way that seems to make sense for ourselves and our plans."
You can use the same ideas that guide your personal finance goals to invest in your career, well-being and happiness. By focusing on these three buckets, you can make strides on your 2023 goals.
Set a long time horizon
Investing in your long-term success goes beyond one-and-done actions like joining a gym or stocking your closet with professional attire. These goals for the future require management and attention to develop rewards later on—just like managing your stock portfolio.
"Investment means, at the core, planting a seed and then getting returns down the road," said Megan McCoy, assistant professor of personal financial planning at Kansas State University. "It has to be a path."
To do this, Prof. McCoy said it is best to envision your investment as a long road with multiple steppingstones. Each step helps you visualize yourself one step closer to the end goal. These same steps also provide opportunities to check in and ask yourself the big questions about how your investment is performing.
"Everyone is so overscheduled, and I feel like everybody is just surviving rather than saying, 'What is giving me intellectual stimulation? What is my purpose? What is my passion? What am I doing any of this for?'" Prof. McCoy said. "Make time to develop these internal maps."
Don't forget to diversify
Just as you wouldn't want to overinvest in a single stock, Prof. Ring said, neither would you want to put too much energy toward a single goal at the expense of your other interests.
Divide your time and attention equally among the career and financial investment, personal investment and investment in health. Overinvesting in one bucket may weaken the other two, just as when putting all too much money into a single company or industry can hurt your overall stock portfolio.
In self-investment, we have to safeguard ourselves against burning out too soon, Prof. Ring said.
"If we're pushing so hard on the financial side, maybe picking up an extra job on the weekends, ask, 'Does this put a strain on the personal and health side of things? That could impact your ability to perform at work,'" she said.
Pay yourself dividends
Research shows people are much more successful at accomplishing a goal when they build in rewards and other incentives along the way, said Katy Milkman, professor of operations, information and decisions at the University of Pennsylvania.
In a 2021 study , Prof. Milkman and her colleague Angela Duckworth, a professor who co-directs the Behavior Change for Good Initiative at the University of Pennsylvania with Prof. Milkman, looked at how incentive programs affected gym attendance. In one finding, gym goers who missed a workout received an extra incentive—bonus points they could convert to cash—if they returned after a missed workout. Compared with a placebo control group, this incentive program increased gym visits by 27%.
Rewards help turn a long-term goal—such as starting a new hobby to enrich your retirement years or more carefully considering how you use your working hours—into a series of short-term pursuits.
Prof. Milkman calls this strategy "temptation bundling." Combining certain tasks with a reward can help them feel less like chores, she said.
"If you are bundling it with something that's super fun for you, like saying 'I only get to open my favorite bubbly wine when I'm making a fresh meal for my family' or 'I am only allowed to binge watch my favorite TV show when I'm at the gym,' you see more success."
This strategy also allows us to reframe these aspirations as fun things, rather than financial chores or burdensome tasks.
Bringing friends, joining a group or finding a way to make a long-term commitment more social helps more people see their goal through to completion, Prof. Milkman said. Even after you've accomplished several steps, you may find that sharing your progress with others and playing the role of "advice giver" leads to progress on your own goals.
"When we coach other people on something we're also hoping to achieve, we also see better outcomes in ourselves," she said. "So advice giving helps the advice giver.
—This article is the first in a Personal Finance series, How to Invest in Yourself.
Write to Julia Carpenter at julia.carpenter@wsj.com
The Best Investment to Make in 2023 Is in Yourself
Credit: By Julia Carpenter
Want your stock to rise in 2023? The same principles investors use to build wealth can be applied to enriching yourself in other ways. Just as we buy stocks and bonds to generate financial growth, we can build a portfolio of how we spend our time and money now that pays off in the months and years ahead. Investments in ourselves, or what economists call our human capital, can be a more productive way to frame efforts for bettering our lives. Diane Ring, interim dean and professor of law at Boston College, has previously researched new developments in human capital investments and the sharing economy. She points to three major categories of growth that can be nurtured by investing in ourselves: professional, personal and health. related "Those buckets are all connected," she said. "Think of it as wanting different kinds of returns for yourself. They're all slightly different, but still moving toward stability, with the aim to retire in a way that seems to make sense for ourselves and our plans." You can use the same ideas that guide your personal finance goals to invest in your career, well-being and happiness. By focusing on these three buckets, you can make strides on your 2023 goals. Set a long time horizon Investing in your long-term success goes beyond one-and-done actions like joining a gym or stocking your closet with professional attire. These goals for the future require management and attention to develop rewards later on—just like managing your stock portfolio. "Investment means, at the core, planting a seed and then getting returns down the road," said Megan McCoy, assistant professor of personal financial planning at Kansas State University. "It has to be a path." To do this, Prof. McCoy said it is best to envision your investment as a long road with multiple steppingstones. Each step helps you visualize yourself one step closer to the end goal. These same steps also provide opportunities to check in and ask yourself the big questions about how your investment is performing. "Everyone is so overscheduled, and I feel like everybody is just surviving rather than saying, 'What is giving me intellectual stimulation? What is my purpose? What is my passion? What am I doing any of this for?'" Prof. McCoy said. "Make time to develop these internal maps." Don't forget to diversify Just as you wouldn't want to overinvest in a single stock, Prof. Ring said, neither would you want to put too much energy toward a single goal at the expense of your other interests. Divide your time and attention equally among the career and financial investment, personal investment and investment in health. Overinvesting in one bucket may weaken the other two, just as when putting all too much money into a single company or industry can hurt your overall stock portfolio. In self-investment, we have to safeguard ourselves against burning out too soon, Prof. Ring said. "If we're pushing so hard on the financial side, maybe picking up an extra job on the weekends, ask, 'Does this put a strain on the personal and health side of things? That could impact your ability to perform at work,'" she said. Pay yourself dividends Research shows people are much more successful at accomplishing a goal when they build in rewards and other incentives along the way, said Katy Milkman, professor of operations, information and decisions at the University of Pennsylvania. In a 2021 study , Prof. Milkman and her colleague Angela Duckworth, a professor who co-directs the Behavior Change for Good Initiative at the University of Pennsylvania with Prof. Milkman, looked at how incentive programs affected gym attendance. In one finding, gym goers who missed a workout received an extra incentive—bonus points they could convert to cash—if they returned after a missed workout. Compared with a placebo control group, this incentive program increased gym visits by 27%. Rewards help turn a long-term goal—such as starting a new hobby to enrich your retirement years or more carefully considering how you use your working hours—into a series of short-term pursuits. Prof. Milkman calls this strategy "temptation bundling." Combining certain tasks with a reward can help them feel less like chores, she said. "If you are bundling it with something that's super fun for you, like saying 'I only get to open my favorite bubbly wine when I'm making a fresh meal for my family' or 'I am only allowed to binge watch my favorite TV show when I'm at the gym,' you see more success." This strategy also allows us to reframe these aspirations as fun things, rather than financial chores or burdensome tasks. Bringing friends, joining a group or finding a way to make a long-term commitment more social helps more people see their goal through to completion, Prof. Milkman said. Even after you've accomplished several steps, you may find that sharing your progress with others and playing the role of "advice giver" leads to progress on your own goals. "When we coach other people on something we're also hoping to achieve, we also see better outcomes in ourselves," she said. "So advice giving helps the advice giver. —This article is the first in a Personal Finance series, How to Invest in Yourself. Write to Julia Carpenter at julia.carpenter@wsj.com The Best Investment to Make in 2023 Is in Yourself Credit: By Julia Carpenter
Muốn cổ phiếu của bạn tăng giá vào năm 2023? Những nguyên tắc đầu tư mà các nhà đầu tư sử dụng để tạo lập tài sản có có thể áp dụng vào việc tăng giá trị cho bản thân theo cách khác. Giống như việc chúng ta mua cổ phiếu và trái phiếu để kiếm tiền, chúng ta có thể xây dựng một danh mục về cách chúng ta dành thời gian và tiền bạc của mình để có lợi sau này trong vài tháng và năm tới. Việc đầu tư vào bản thân, được các nhà kinh tế gọi là vốn con người, có thể là cách tiếp cận hiệu quả hơn để nâng cao cuộc sống. Diane Ring, giáo sư luật tại Đại học Boston, đã từng nghiên cứu về các xu hướng mới trong đầu tư vốn con người và nền kinh tế chia sẻ. Bà chỉ ra ba nhóm giá trị chính có thể được vun đắp nhờ đầu tư vào bản thân: chuyên môn, cá nhân và sức khỏe. "Ba nhóm đó đều liên quan đến nhau", bà nói. "Hãy nghĩ đến các khoản hoàn vốn đầu tư khác nhau khi đầu tư cho bản thân. Chúng hơi khác nhau, nhưng vẫn hướng đến sự ổn định, với mục đích nghỉ hưu một cách hợp lý và có kế hoạch." Bạn có thể sử dụng các cách tiếp cận dùng để đạt các mục tiêu tài chính cá nhân để đầu tư vào sự nghiệp, chất lượng cuộc sống và hạnh phúc của bản thân. Khi tập trung vào ba nhóm này, bạn có thể đạt được mục tiêu năm 2023 của mình. Đặt mục tiêu dài hạn Đầu tư vào sự thành công dài hạn không giống như việc tham gia câu lạc bộ thể dục hoặc mua sắm quần áo phục vụ công việc. Các mục tiêu dài hạn này đòi hỏi có sự quản lý và chú ý để mang lại thành quả sau này - giống như quản lý danh mục cổ phiếu của bạn. "Cốt lõi của đầu tư là gieo hạt giống và sau đó thu hoạch thành quả trong tương lai", Megan McCoy, giáo sư trợ giảng về kế hoạch tài chính cá nhân tại Đại học Kansas State cho biết. "Đó phải là một lộ trình". Để làm được điều này, Prof. McCoy nói rằng tốt nhất là hình dung việc đầu tư của bạn như một con đường dài với nhiều bước đệm. Mỗi bước giúp bạn hình dung tiến gần hơn một bước tới mục tiêu cuối cùng. Những bước này là các thời điểm kiểm tra và tự đặt câu hỏi lớn về hiệu quả của phương pháp đầu tư của bạn. "Mọi người đều bị quá tải, và tôi cảm thấy như mọi người đang cố sống sót thay vì tự hỏi, ' Tôi có đang phát triển về trí tuệ không? Mục đích của tôi là gì? Đam mê của tôi là gì? Tôi làm việc hùng hục vì cái gì? '"Prof. McCoy nói. "Hãy dành thời gian để hoạch định hướng đi cho mình." Đừng quên đa dạng hóa danh mục đầu tư Cũng như bạn không muốn bỏ tất cả trứng vào một giỏ, Prof. Ring nói, bạn cũng không nên dùng tất cả năng lượng cho một mục tiêu duy nhất mà lơ là các sở thích khác của mình. Chia thời gian và sự chú ý của bạn đều cho việc đầu tư nghề nghiệp và tài chính, đầu tư phát triển bản thân và đầu tư cho sức khỏe. Đầu tư quá nhiều vào một thứ có thể làm suy yếu hai thứ kia, giống như khi đầu tư quá nhiều tiền vào một công ty hoặc một ngành nghề có thể bất lợi cho danh mục cổ phiếu chung của bạn. Khi đầu tư cho bản thân, chúng ta phải bảo vệ mình khỏi việc cháy túi quá sớm, Prof. Ring cho biết. "Nếu chúng ta đầu tư mạnh vào tài chính, ví dụ như làm thêm vào cuối tuần, hãy tự hỏi, 'Điều này có gây áp lực cho phát triển bản thân và sức khỏe không? Điều đó có ảnh hưởng đến khả năng làm việc của bạn không? '"Bà nói. Tự trả cổ tức cho mình Nghiên cứu cho thấy chúng ta dễ đạt mục tiêu hơn khi được phần thưởng và các động lực khác trong quá trình thực hiện, Katy Milkman, giáo sư về hoạt động, thông tin và quyết định của Đại học Pennsylvania cho biết. Trong một nghiên cứu năm 2021, Prof. Milkman và đồng nghiệp, Angela Duckworth, giáo sư đồng điều hành của Chương trình Thay đổi hành vi tại Đại học Pennsylvania với Prof. Milkman, nghiên cứu tác động động lực đến việc tập thể dục. Kết quả cho thấy, những người đi tập thể dục bỏ lỡ một buổi tập sẽ được thưởng tiền mặt nếu họ trở lại sau khi bỏ lỡ một buổi tập đó. So với nhóm đối chứng, nhóm được thưởng đã tăng số lần đến phòng tập thể dục lên đến 27%. Phần thưởng giúp biến một mục tiêu dài hạn - chẳng hạn như sở thích mới để có những năm tháng nghỉ hưu có ý nghĩa hoặc cân nhắc cẩn thận việc sử dụng giờ làm việc - thành một loạt các nỗ lực ngắn hạn. Prof. Milkman gọi chiến lược này là "kết hợp các ham muốn". Kết hợp một số nhiệm vụ với phần thưởng có thể giúp chúng ta cảm thấy công việc đỡ vất vả, bà nói. "Nếu bạn kết hợp công việc với một điều gì đó rất thú vị, như nói 'Tôi chỉ được mở chai rượu sủi tăm khoái khẩu khi nấu ăn cho gia đình' hoặc 'Tôi chỉ được phép xem chương trình TV yêu thích khi ở phòng tập thể dục', bạn sẽ thấy thành công hơn". Chiến lược này cũng giúp chúng ta biến những ham muốn thành những bài đố vui, thay vì những công việc buồn tẻ. Mời bạn bè, tham gia nhóm hoặc có nhiều người tham gia theo đuổi các mục tiêu dài hạn sẽ giúp nhiều người hoàn thành mục tiêu, Prof. Milkman cho biết. Ngay cả sau khi bạn đã hoàn thành một số bước, bạn có thể thấy rằng trao đổi với người khác về các tiến bộ của mình và đóng vai trò "người đưa lời khuyên" sẽ giúp bạn đạt một phần mục tiêu của mình. "Khi chúng ta khuyên người khác về một điều chúng ta cũng hy vọng đạt được, chúng ta cũng sẽ có kết quả tốt hơn cho chính mình," bà nói. "Vì vậy, khuyên người khác có ích cho chính người đưa lời khuyên nhiều hơn. - Bài viết này là bài đầu tiên trong loạt bài về Tài chính cá nhân, Làm thế nào để Đầu tư vào chính bản thân mình. Viết thư cho Julia Carpenter tại [julia.carpenter@wsj.com](mailto:julia.carpenter@wsj.com) Khoản đầu tư tốt nhất vào năm 2023 là đầu tư vào chính bản thân bạn Tín dụng: By Julia Carpenter
McKinsey cho biết 'khoảng một nửa' nhân viên của họ đang sử dụng AI tạo sinh
 
notion image
Nguồn: VentureBeat được thực hiện với Midjourney
McKinsey and Company, công ty tư vấn toàn cầu với hơn 30.000 nhân viên tại 67 quốc gia , đang nắm bắt các công cụ  AI tạo sinh trên quy mô lớn: Gần 50% lực lượng lao động của công ty đang sử dụng ChatGPT và các công nghệ tương tự.
“Khoảng một nửa số [nhân viên của chúng tôi] đang sử dụng các dịch vụ đó với sự cho phép của McKinsey,” Ben Ellencweig, đối tác cấp cao và lãnh đạo toàn cầu của QuantumBlack , bộ phận tư vấn trí tuệ nhân tạo của công ty , cho biết trong một sự kiện truyền thông tại McKinsey's New York Experience Studio hôm thứ Ba.
Ellencweig nhấn mạnh rằng McKinsey có các quy định hạn chế đối với nhân viên sử dụng AI tạo sinh, bao gồm “các nguyên tắc và hướng dẫn” về thông tin mà nhân viên có thể cung cấp cho các dịch vụ AI này.
“Chúng tôi không tải lên thông tin bí mật,” Ellencweig nói.
McKinsey không nêu rõ tên và mục đích sử dụng của những dịch vụ AI mà nhân viên của họ đang dùng.
Tuy nhiên, một diễn giả khác tại sự kiện, Alex Singla, cũng là đối tác cấp cao và lãnh đạo toàn cầu của QuantumBlack, ngụ ý rằng McKinsey đang thử nghiệm hầu hết các dịch vụ AI tạo sinh hàng đầu: “Hàng ngày chúng tôi đang thử nghiệm tất cả các công cụ AI quan trọng nhất” ông nói.
Singla đã mô tả cách thức một khách hàng, giấu tên, đang kinh doanh hoạt động mua bán và sáp nhập (M&A) công ty. Các nhân viên của họ hỏi ChatGPT "Bạn nghĩ sao nếu công ty X mua lại công ty Y?". Họ dùng câu trả lời của ChatGPT để nghiên cứu tác động của việc công ty X mua lại công ty Y đối với hoạt động kinh doanh của công ty X+Y sau khi hợp nhất.
“Không nên dùng các công cụ không bảo mật để xử lý các công việc như vậy,” Singla nói, mặc dù ông không giải thích lý do tại sao không nên.
Bốn chữ C: khách hàng của McKinsey đang sử dụng AI tạo sinh như thế nào
Ellencweig đã đưa ra các ví dụ mà ông gọi là “bốn chữ C”, về cách các khách hàng và doanh nghiệp mà McKinsey nghiên cứu hiện đang sử dụng trí tuệ nhân tạo. Đó là:
  1. Viết mã (Coding): Ellencweig cho biết một số khách hàng của McKinsey trong lĩnh vực triển phần mềm đã tăng năng suất lao động của họ từ 35-55% bằng cách sử dụng ChatGPT và các công cụ tương tự.
  1. Kết nối với khách hàng (Customer engagement): Một số công ty đang sử dụng AI tạo sinh để tăng mức độ cá nhân hóa các tương tác với khách hàng.
  1. Tạo nội dung sáng tạo (Creative content generation): Các công ty tiếp thị đã sử dụng AI tạo sinh để hợp lý hóa các quy trình tạo nội dung và tinh chỉnh các phân khúc khách hàng của họ, tiến tới “phân khúc chỉ có một khách hàng”, tức là tiếp thị được cá nhân hóa cho từng cá nhân.
  1. Tổng hợp nội dung (Content synthesis): Các công ty đang sử dụng AI tạo sinh để tổng hợp các dữ liệu và dịch vụ khác nhau theo những cách mới.
Phương pháp tiếp cận 5 bước được đề xuất của McKinsey dành cho AI thế hệ doanh nghiệp
Đối với các công ty mà các nhà lãnh đạo vẫn đang băn khoăn về cách tiếp cận AI tạo sinh một cách an toàn, bảo mật và thông minh, Singla đề xuất họ sử dụng khuôn khổ năm bước.
  1. Cơ sở hạ tầng và các lớp CNTT: “Trước khi xây dựng mô hình và tận hưởng các insight thú vị này, bạn cần suy nghĩ về cơ sở hạ tầng và các lớp CNTT của mình” cũng như vị trí nơi lưu các công cụ và dữ liệu AI — “lưu trên mạng hay trong máy tính ở công ty của bạn?”
  1. Dữ liệu: Bạn sẽ sử dụng dữ liệu có cấu trúc hay không có cấu trúc? Bạn sẽ sử dụng dữ liệu của riêng mình, dữ liệu độc quyền, dữ liệu của bên thứ ba hay một hỗn hợp các loại trên? Bạn sẽ tổ chức dữ liệu này như thế nào? Cần bảo vệ từng loại dữ liệu này như thế nào?
  1. Chọn mô hình AI phù hợp: Công ty của bạn sẽ triển khai LLM hoặc công cụ AI tạo sinh nào và tại sao? Singla nói: “Quyết định này là cần, nhưng không đủ”.
  1. UI và UX: Singla nói giao diện đơn giản của ChatGPT là chìa khóa để nó được phổ cập rộng rãi. “Ai cũng có thể sử dụng nó, dù bạn 8 tuổi hay 80 tuổi.”
  1. Quản lý thay đổi: Làm cách nào tổ chức của bạn có thể đảm bảo rằng những người sử dụng AI sẽ nhận được hỗ trợ, giải đáp thắc mắc và cảm thấy nhờ AI mà họ thực hiện tốt công việc của họ?
10/6/23
Salesforce ra mắt Marketing GPT and Commerce GPT.
 
Salesforce, công ty chuyên về CRM, vừa giới thiệu các dịch vụ sản phẩm AI thế hệ mới nhất, Marketing GPT và Commerce GPT. Với Marketing GPT, các nhà tiếp thị sẽ có thể tự động tạo email được cá nhân hóa, phân khúc đối tượng thông minh hơn và tạo hành trình tiếp thị. Và với Commerce GPT, các nhãn hàng sẽ có thể mang đến trải nghiệm mua sắm được cá nhân hóa và ưu đãi tùy chỉnh phù hợp với nhu cầu của khách hàng, bằng cách sử dụng hành trình mua hàng động do GPT cung cấp.
Ý nghĩa: AI tạo sinh đang đẩy nhanh năng suất và thúc đẩy hiệu quả cho các doanh nghiệp. Tiềm năng của nó rất rõ ràng, với 60% nhà tiếp thị nói rằng AI tạo sinh sẽ thay đổi vai trò của họ, trong khi 71% cho biết họ tin rằng nó sẽ giúp họ tập trung vào công việc mang tính chiến lược hơn. Tuy nhiên, "độ chính xác và chất lượng" là mối quan tâm số một của các nhà tiếp thị và 63% cho biết cần có dữ liệu khách hàng đáng tin cậy để AI tạo sinh hoạt động hiệu quả.
Tính năng mới: Marketing GPT sẽ hỗ trợ các nhà tiếp thị cung cấp trải nghiệm được cá nhân hóa, phù hợp và hấp dẫn trên mọi điểm tiếp xúc với AI tạo sinh và dữ liệu bên thứ nhất đáng tin cậy từ Data Cloud . Với Marketing GPT và Data Cloud, các nhà tiếp thị sẽ có thể:
  • Làm việc thông minh hơn với tính năng Tạo phân khúc, mang đến cho các nhà tiếp thị khả năng tạo phân khúc khách hàng một cách nhanh chóng và cải thiện việc nhắm mục tiêu bằng cách sử dụng lời nhắc bằng ngôn ngữ tự nhiên và các đề xuất do AI cung cấp dựa trên dữ liệu đáng tin cậy từ Data Cloud.
  • Giảm khối lượng công việc viết bằng công cụ Tạo nội dung email, có thể tự động tạo email được cá nhân hóa để cải thiện thử nghiệm và tương tác.
  • Cải thiện ROI tiếp thị với Segment Intelligence (dữ liệu phân khúc KH) cho Data Cloudtự động kết nối dữ liệu của bên thứ nhất, dữ liệu doanh thu và dữ liệu quảng cáo mua từ bên thứ ba để có cái nhìn toàn diện hơn về mức độ tương tác của khách hàng.
  • Cung cấp đúng thông điệp vào đúng thời điểm với Rapid Identity Resolution(xác định nhanh danh tính), Segmentation (phân khúc) và Engagement (tương tác), tự động xác định danh tính khách hàng và làm mới các phân khúc trong Data Cloud để giúp đảm bảo tính chính xác cập nhật.
  • Tận dụng nền tảng nội dung AI tạo sinh của Typefaceđể tạo nội dung trực quan theo ngữ cảnh cho các chiến dịch đa kênh trong Marketing GPT dựa trên tiếng nói thương hiệu, hướng dẫn phong cách và thông điệp cụ thể.
Commerce GPT sẽ giúp các công ty cung cấp trải nghiệm mua sắm tùy chỉnh ở mọi bước trong hành trình của người mua với thông tin chi tiết và đề xuất được tạo tự động dựa trên dữ liệu thời gian thực thống nhất từ Data Cloud. Với Commerce GPT và Data Cloud, các thương hiệu sẽ có thể:
  • Tự động hóa các chiến lược tăng trưởng và chuyển đổi đồng thời tối đa hóa năng suất của người bán với tính năng Mua sắm dựa trên mục tiêu. Công cụ tiên tiến này giúp các doanh nghiệp đặt mục tiêu và chỉ tiêu, sau đó cung cấp insights có thể chuyển thành hành động và đề xuất cách thực hiện. Được hỗ trợ bởi Data Cloud, Einstein AI và Flow, Mua sắm dựa trên mục tiêu đưa ra các đề xuất nhằm mang lại kết quả mong muốn, ví dụ cải thiện tỷ suất lợi nhuận, tăng giá trị đơn hàng trung bình (AOV).
  • Nâng cao năng suất của người bán với Mô tả sản phẩm độnggiúp tự động điền vào dữ liệu danh mục sản phẩm mà người bán hàng còn thiếu và cách mạng hóa trải nghiệm của khách hàng nhờ tính năng mô tả sản phẩm được tạo tự động cho phù hợp với mỗi người mua.
  • Tái định hình hoạt động mua sắm và lòng trung thành của khách hàng với tính năng Commerce Conciergeđể tăng cường các cuộc trò chuyện thú vị, được cá nhân hóa và giúp người mua sắm khám phá sản phẩm một cách dễ dàng thông qua các tương tác bằng ngôn ngữ tự nhiên trên các kênh từ cửa hàng kỹ thuật số đến ứng dụng nhắn tin.
Các đối tác của Salesforce như DEPT ®, Media.Monks , NeuraFlash và Slalom đang xây dựng một hệ sinh thái AI tạo sinh với các công cụ tăng tốc mới, các mô hình ngôn ngữ và dữ liệu lớn cũng như các công cụ tích hợp để giúp các doanh nghiệp triển khai Marketing GPT và Commerce GPT với chi phí thấp và thuận tiện hơn.
Lịch triển khai:
  • Tính năng Tạo phân khúc sẽ được thử nghiệm vào cuối mùa hè này và sẽ ra mắt vào tháng 10 năm 2023.
  • Tính năng Tạo nội dung email sẽ được thử nghiệm vào tháng 10 năm 2023 và sẽ ra mắt vào tháng 2 năm 2024.
  • Nhận dạng nhanh danh tính sẽ ra mắt vào tháng 10 năm 2023 và Phân đoạn nhanh vào cuối mùa hè này.
  • Segment Intelligence cho Data Cloud sẽ ra mắt vào tháng 10 năm 2023.
  • Mô tả sản phẩm động sẽ ra mắt vào tháng 7 năm 2023.
  • Commerce Concierge sẽ được thử nghiệm vào tháng 10 năm 2023 và sẽ ra mắt vào tháng 2 năm 2024.
  • Mua sắm dựa trên mục tiêu sẽ được thử nghiệm vào tháng 10 năm 2023 và sẽ ra mắt vào tháng 2 năm 2024.
  • Đám mây dữ liệu (Data Cloud) dành cho mua sắm có thể dùng được ngay.
Built with Potion.so