Wednesday, February 25, 2026

Một số nguyên lý kinh tế đơn giản của AGI

 https://www.facebook.com/hoangdung.ai1/posts/pfbid0Us3shB3NxWBCAgZiUYAMM71cLGD82kGbSyw68RnRC7TR1fk6SV1jX1KztJJHywtal

Dạo gần đây, tôi có đọc được một paper khá thú vị từ nhóm nghiên cứu tại MIT và các đại học lớn có tựa đề "Some Simple Economics of AGI" (Một số nguyên lý kinh tế đơn giản của AGI).
Thay vì chém gió về ngày tận thế hay robot hủy diệt, paper này đi sâu vào một vấn đề thực tế hơn nhiều mà bất kỳ anh em developer nào cũng đang cảm nhận được: Sự mất cân bằng giữa việc tạo ra sản phẩm và việc kiểm tra nó.
Để tôi tóm tắt và giải thích cho các bạn theo ngôn ngữ của dân kỹ thuật.
Về cơ bản, lịch sử loài người và cả lịch sử ngành phần mềm của chúng ta bị giới hạn bởi một thứ: Execution (Thực thi). Bạn muốn xây một cái app, bạn cần ngồi code từng dòng. Bạn muốn viết content, bạn phải gõ từng chữ. Sức người có hạn, nên sản phẩm làm ra cũng có hạn. Nhưng AI, hay cụ thể là các mô hình LLM hiện nay, đã gỡ bỏ cái nút thắt đó.
Paper gọi đây là sự sụp đổ của Cost to Automate (Chi phí tự động hóa). Nhờ năng lực tính toán (compute) khổng lồ, chi phí để tạo ra một đoạn code, một bài văn, hay một tấm ảnh đang tiệm cận về 0.
Nhưng đây mới là vấn đề: Trong khi máy móc có thể code nhanh gấp triệu lần bạn, thì bộ não sinh học của bạn vẫn chỉ chạy ở tốc độ cũ. Khả năng đọc hiểu, review code và kiểm chứng sự thật của con người không hề tăng lên. Đây là Cost to Verify (Chi phí xác thực).
Sự chênh lệch tốc độ này tạo ra một khái niệm cực kỳ quan trọng mà paper gọi là Measurability Gap (Khoảng cách đo lường).
Hãy tưởng tượng AI giống như một gã thực tập sinh (junior intern) có thể uống Redbull thay nước và code 24/7 không ngủ. Gã này có thể push 1.000 commit mỗi ngày. Nhưng bạn, senior dev, chỉ có đủ thời gian và sức lực để review kỹ 10 commit trong số đó.
Khoảng trống 990 commit còn lại chính là Measurability Gap. Đó là vùng đất mà AI tự tung tự tác, nơi mà code được sinh ra nhưng không ai đủ sức kiểm tra xem nó có thực sự chạy đúng ý định (intent) hay không, hay chỉ đang chạy đúng cú pháp.
Khi khoảng cách này nới rộng ra, chúng ta đối mặt với rủi ro mà các tác giả gọi là Trojan Horse Externality (Tác động ngoại lai Ngựa Trojan).
Đừng hiểu nhầm, đây không nhất thiết là virus hay mã độc. Trong kinh tế học, "Trojan Horse" ở đây ám chỉ những sản phẩm nhìn bề ngoài thì có vẻ ngon lành, chỉ số đẹp (code chạy không bug, test case xanh lè), nhưng bên trong lại rỗng tuếch hoặc sai lệch hoàn toàn so với mục đích ban đầu.
Lý do là vì AI, giống như con người, sẽ bị thao túng bởi định luật Goodhart: Khi một thước đo trở thành mục tiêu, nó không còn là thước đo tốt nữa. Nếu bạn thưởng cho AI dựa trên số dòng code hoặc số ticket hoàn thành, nó sẽ tối ưu hóa cho các chỉ số đó bất chấp hậu quả. Nó tạo ra "tiện ích giả" (counterfeit utility). Ví dụ điển hình là các đoạn code trông rất clean, logic có vẻ hợp lý, nhưng lại gọi đến các thư viện không tồn tại hoặc sai lệch về business logic ở những edge-case (trường hợp biên) mà con người không đủ thời gian để test.
Hậu quả là gì? Chúng ta sẽ có một nền kinh tế, hay hẹp hơn là một dự án phần mềm, trông có vẻ năng suất bùng nổ nhưng thực chất đang tích tụ một khoản nợ kỹ thuật (technical debt) khổng lồ và vô hình. Đến khi hệ thống sụp đổ vì những lỗi logic ngầm bên dưới, cái giá phải trả sẽ lớn hơn nhiều so với năng suất tiết kiệm được ban đầu.
Một điểm đau đớn khác mà paper chỉ ra là hiệu ứng Missing Junior Loop (Vòng lặp thiếu hụt nhân sự trẻ).
Trước đây, để trở thành Senior, bạn phải trải qua giai đoạn Junior: làm những việc lặt vặt, fix bug nhỏ, viết unit test. Đó là lúc bạn tích lũy kinh nghiệm thực chiến (embodied experience). Nhưng giờ đây, AI đã làm quá tốt những việc "measurable" (đo lường được) và lặp đi lặp lại đó. Các công ty có xu hướng dùng AI thay vì tuyển junior.
Vậy câu hỏi là: Nếu không ai làm junior, thì 5-10 năm nữa lấy đâu ra senior để đi review code cho AI? Chúng ta đang tự cắt đứt quy trình đào tạo thế hệ chuyên gia kế cận, những người duy nhất có khả năng xác thực (verify) đầu ra của máy móc.
Vậy anh em dev phải làm gì trong thời đại này?
Paper đề xuất một sự chuyển dịch giá trị. Khi việc "viết code" (Execution) trở nên rẻ mạt, giá trị sẽ dồn hết về việc "chịu trách nhiệm" và "xác thực".
Mô hình làm việc trong tương lai sẽ có dạng "Bánh mì kẹp" (Sandwich topology):
1. Human Intent (Trên cùng): Bạn là người ra đề bài, định hướng mục tiêu (mà máy không đo đếm được).
2. Machine Execution (Ở giữa): AI thực thi ở quy mô lớn.
3. Human Verification (Dưới cùng): Bạn xác thực, kiểm tra và quan trọng nhất là chịu trách nhiệm pháp lý (Liability) cho kết quả đó.
Tương lai của nghề dev không phải là gõ phím nhanh hơn, mà là khả năng thiết kế các hệ thống kiểm thử (observability), khả năng phát hiện lỗi sai trong đống hổ lốn mà AI tạo ra, và khả năng đánh giá rủi ro.
Đừng chỉ là người viết code (coder), hãy trở thành người xác thực (verifier) và người bảo chứng (underwriter). Bởi vì trong một thế giới mà ai cũng có thể tạo ra code rác với giá 0 đồng, thì sự tin cậy (trust) và sự thật (ground truth) sẽ là thứ tài sản đắt giá nhất.

No comments:

Post a Comment

Một số nguyên lý kinh tế đơn giản của AGI

 https://www.facebook.com/hoangdung.ai1/posts/pfbid0Us3shB3NxWBCAgZiUYAMM71cLGD82kGbSyw68RnRC7TR1fk6SV1jX1KztJJHywtal Dạo gần đây, tôi có đọ...