BLOG // 0x626c6f67
4 min readFars AI Teamวิเคราะห์งานวิจัย Anthropic เรื่อง Labor Market Impacts ผ่านมุมมอง AI Business Analyst — ปัญหาไม่ใช่เทคโนโลยี แต่เป็นลำดับการสอนที่ผิดมาตลอด
เมื่อ Anthropic ปล่อยงานวิจัย Labor Market Impacts ออกมา สิ่งที่คนส่วนใหญ่สนใจคือ "AI จะแย่งงานไหม?" แต่ตัวเลขที่น่าสนใจจริงๆ กลับไม่ใช่เรื่องการตกงานเลย
มันคือ ช่องว่างระหว่างสิ่งที่ AI ทำได้ กับสิ่งที่คนใช้จริง
Computer & Math occupations มี theoretical feasibility 94% — หมายความว่า AI สามารถช่วยงานได้เกือบทุก task แต่ actual observed exposure อยู่ที่ 33% เท่านั้น Office & Admin ก็เหมือนกัน 90% vs 33%
ช่องว่าง 60 จุดนี้ไม่ใช่ปัญหาเทคนิค เพราะเครื่องมือมีอยู่แล้ว ใช้ได้แล้ว ดีแล้ว
คำถามที่ควรถามคือ: ทำไมคนถึงไม่ใช้?
งานวิจัยนี้สร้าง metric ใหม่เรียกว่า "Observed Exposure" ซึ่งต่างจากงานก่อนหน้าที่วัดแค่ว่า LLM ทำอะไรได้บ้าง (theoretical) ตัวนี้วัดว่า คนใช้จริงแค่ไหน โดยดูจาก pattern การใช้งาน Claude จริงๆ
ตัวเลขที่สำคัญ:
| ข้อค้นพบ | ตัวเลข |
|---|---|
| Computer Programmers coverage | 75% (สูงสุด) |
| แรงงานที่มี zero exposure | 30% |
| อัตราว่างงานหลัง ChatGPT ของกลุ่มเสี่ยง | ไม่แตกต่างทางสถิติ |
| การจ้างงานใหม่อายุ 22-25 ในสาย exposed | ลดลง ~14% |
| Augmentation vs Automation | 57% vs 43% |
| สัดส่วนรายได้ของกลุ่ม exposed สูงสุด | สูงกว่าค่าเฉลี่ย 47% |
สิ่งที่น่าสนใจคือ ไม่มีหลักฐานว่า AI ทำให้คนตกงานมากขึ้น ผ่านมาสามปีหลัง ChatGPT แล้ว ค่า difference-in-differences ยังเป็นศูนย์
แต่สิ่งที่เกิดขึ้นจริงคือ การจ้างงานคนรุ่นใหม่ลดลง — entry-level hiring ในสาย exposed ตกประมาณ 14% นี่ไม่ใช่การไล่คนออก แต่เป็นการ "ไม่เปิดประตูให้เข้า" ตั้งแต่แรก
หมายเหตุจากผู้เขียน: ตัวเลข "ไม่มีหลักฐาน" นี้ฟังดูขัดกับสิ่งที่หลายคนเห็นในชีวิตจริง — รวมถึงที่เราเจอในงาน Consulting เองด้วย และเราก็รู้สึกแปลกใจไม่ต่างกัน
เหตุที่ข้อมูลไม่จับสัญญาณนี้ได้มีสามเหตุผลหลัก: หนึ่ง — งานวิจัยวัดการว่างงานในระดับมหภาค (aggregate unemployment) ซึ่ง resolution หยาบเกินกว่าจะเห็นการตัดสินใจระดับองค์กร สอง — methodology ของงานวิจัยระบุเองว่าตรวจจับได้แค่ความเปลี่ยนแปลงระดับ ~1 percentage point ขึ้นไป แรงกดดันแบบ selective ที่เกิดขึ้นภายในบริษัทจึงหายไปในสัญญาณรบกวน สาม — และนี่คือส่วนที่สำคัญที่สุด: บริษัทไม่ได้ไล่คนออกเพราะ AI โดยตรง แต่ใช้ความสามารถ leverage AI เป็นเกณฑ์คัดกรองในรอบ restructuring ที่มีแผนอยู่แล้ว — คนที่ปรับตัวได้อยู่รอด คนที่ไม่ได้กลายเป็นตัวเลือกแรกที่ถูกตัด เมื่อรายงานออกมา สาเหตุถูก attribute ว่าเป็น "business restructuring" ไม่ใช่ "AI displacement" สถิติจึงไม่เห็นอะไรเลย
เราจะศึกษาและเขียนถึงประเด็นนี้โดยละเอียดเมื่อมีข้อมูลเพียงพอ
แต่สิ่งที่ตัวเลขบอกได้ชัดในตอนนี้คือ: AI ไม่ได้ทำให้คนตกงานในวงกว้าง — แต่มันกำลังกลายเป็นเงื่อนไขของการอยู่รอด
จากประสบการณ์ทำ AI Consulting กับองค์กรไทย และสอน AI ให้คนหลากหลายกลุ่ม ตั้งแต่พนักงานออฟฟิศ ไปจนถึงคนทั่วไปและผู้สูงอายุ — ปัญหาแตกออกเป็นสามชั้นที่มักถูกเหมารวมเป็น "คนต้านการเปลี่ยนแปลง"
คนเราให้น้ำหนักกับ "สิ่งที่อาจสูญเสีย" มากกว่า "สิ่งที่อาจได้รับ" เสมอ พนักงานที่ สามารถ ใช้ AI เพิ่ม output ได้ 10 เท่า กลับคำนวณแทนว่า "ถ้าใช้แล้วหัวหน้าเห็นว่าเราทดแทนได้ล่ะ?"
การตัดสินใจที่ rational ภายใต้ความรู้สึกถูกคุกคามคือ ใช้น้อยกว่าที่ทำได้ แม้เครื่องมือจะอยู่ตรงหน้า ช่องว่าง 33% vs 94% อธิบายได้ด้วยกลไกนี้ ไม่ใช่เพราะ "ไม่รู้วิธีใช้"
การ adopt เครื่องมือรุ่นก่อนมี feedback loop ที่ชัดเจน — เรียน Excel ก็เห็นตารางเสร็จเร็วขึ้น เขียน SQL ก็ดึงข้อมูลได้ แต่ถ้า Claude ช่วยให้คิดเรื่องหนึ่งได้ชัดขึ้น ใครจะวัด? ประโยชน์กระจายตัว ไม่ชัดเจน วัดไม่ได้ในรอบ performance review
ไม่มีสัญญาณ = ไม่มีแรงจูงใจ adopt = ไม่มี adoption
จุดนี้คือปัญหาที่ไม่มีใครพูดถึง
NLP ทำให้ technical barrier หายไป ไม่ต้องเขียนโค้ด ไม่ต้องเรียน API แค่พิมพ์ภาษาคนก็ใช้ได้ แต่สิ่งที่เกิดขึ้นจริงคือมัน เปิดเผย cognitive floor ที่เคยถูกซ่อนอยู่หลัง technical complexity
เมื่อก่อน คอขวดคือ: "คุณใช้เครื่องมือเป็นไหม?" ตอนนี้ คอขวดคือ: "คุณคิดได้ดีพอที่จะใช้เครื่องมือนี้ไหม?"
Critical thinking, การตั้งคำถามที่ดี, การแยกแยะว่า output ที่ได้มันดีหรือไม่ดี — ทักษะเหล่านี้เป็น bottleneck จริงมาตลอด แค่เมื่อก่อนมันถูกบังโดย technical barrier ที่ทำให้คนมีอะไรจับต้องได้ให้เรียน
ถอด technical layer ออก ความจริงที่ไม่สบายใจก็ปรากฏ: เพดานของคุณไม่ใช่ความสามารถทางเทคนิค แต่เป็นความสามารถในการคิด
นี่คือเหตุผลที่ AI training ส่วนใหญ่พลาดเป้า สอน prompt template เหมือนสอนพิมพ์ดีดเร็วขึ้น ทั้งที่ปัญหาจริงคือ "จะพิมพ์อะไร"
ข้อมูลจาก Anthropic Economic Index บอกว่า 57% ของการใช้ AI จริงเป็น augmentation ไม่ใช่ automation — task iteration (31.3%), learning (23.3%), validation (2.8%) ตัวเลขนี้ยืนยันว่าคนส่วนใหญ่ใช้ AI เป็นคู่คิด ไม่ใช่ตัวแทน
แต่ corporate AI training ส่วนใหญ่ออกแบบมาภายใต้ framing ของ productivity — "ใช้ AI แล้วจะเร็วขึ้น", "ลดเวลาทำงาน", "เพิ่ม output"
ปัญหาของ framing นี้คือมันเป็นแรงจูงใจจากภายนอกทั้งหมด เรียนเพราะบังคับ ใช้เพราะ KPI ผลลัพธ์คือ surface-level adoption — เปิดเครื่องมือเมื่อถูกเพ่งเล็ง ปิดเมื่อไม่มีใครสนใจ
แรงจูงใจแบบนี้สร้าง compliance ไม่ใช่ competence เมื่อแรงกดดันหายไป พฤติกรรมก็หายตาม ไม่ต่างจากการบังคับให้เด็กอ่านหนังสือ — ได้คะแนนสอบ แต่ไม่ได้นิสัยรักอ่าน
ถ้าปัญหาคือ threat perception, invisible ROI, และ cognitive ceiling — คำตอบไม่ใช่ "สอนให้ใช้เครื่องมือดีขึ้น" แต่คือ เปลี่ยนลำดับ
แทนที่จะเริ่มจาก "ใช้ AI ทำงานให้เก่งขึ้น" — เริ่มจาก "ใช้ AI ทำสิ่งที่คุณอยากทำ"
ฟังดูง่าย แต่ผลลัพธ์ต่างกันโดยสิ้นเชิง:
| Corporate-First | Person-First |
|---|---|
| แรงจูงใจ: เพิ่ม productivity | แรงจูงใจ: ทำโปรเจกต์ส่วนตัว |
| Framing: เครื่องมือของบริษัท | Framing: เครื่องมือของคุณ |
| Threat perception: สูง | Threat perception: ศูนย์ |
| Skill transfer: ต้องบังคับ | Skill transfer: เกิดขึ้นเอง |
| ความยั่งยืน: ตามแรงกดดัน | ความยั่งยืน: ตามความสนใจจริง |
เมื่อ AI กลายเป็น "เครื่องมือสำหรับความฝันของคุณ" แทนที่จะเป็น "เครื่องมือที่อาจแทนที่คุณ" — threat perception ล่มสลายทันที ทักษะเดียวกันเป๊ะ ต่างกันแค่ลำดับ
จากประสบการณ์สอนจริง — ทั้งพนักงานออฟฟิศ คนทั่วไป ไปจนถึงผู้สูงอายุ — เมื่อเริ่มจาก channel ที่คุ้นเคยและเรื่องที่สนใจจริงๆ AI proficiency เพิ่มขึ้นอย่างสม่ำเสมอ และมันแปลกลับมาเป็น work competency ได้โดยไม่ต้องบังคับ
ผู้สูงอายุบางคนมี LLM intuition ดีกว่าโปรแกรมเมอร์อายุ 25 — เพราะเขาใช้ชีวิตมานานพอที่จะรู้ว่าอยากถามอะไร และสื่อสารได้ชัด ไม่จำเป็นต้อง "hack" ระบบ สิ่งที่กั้นพวกเขาไม่ใช่ความสามารถ แต่คือการถูกบอกมาตลอดว่า "เทคโนโลยีนี้ไม่ใช่สำหรับคุณ" — ข้อสังเกตนี้มาจากโปรเจกต์ AI OpenClaw ของผู้เขียน ซึ่งจะเล่าในรายละเอียดในบทความถัดไป
ข้อมูลจากงานวิจัยชี้ว่าคนที่ exposed กับ AI มากที่สุดมีรายได้สูงกว่า 47% มีการศึกษาระดับปริญญาโท 17.4% (เทียบกับ 4.5% ในกลุ่ม unexposed) คนเหล่านี้ไม่ได้ adopt AI เพราะเรียน prompt engineering — แต่เพราะ โครงสร้างทางปัญญาที่มีอยู่แล้ว (analytical frameworks, domain depth, communication precision) ทำให้การใช้ LLM ได้ผลสูง
เครื่องมือขยายสิ่งที่มีอยู่แล้ว ไม่ได้สร้างมันขึ้นมาใหม่
ผลคือช่องว่างไม่ได้กว้างแบบเส้นตรง — มัน compound คนที่คิดเป็นใช้ AI ได้ดี → ได้ output ดี → ตัดสินใจดีขึ้น → สร้าง domain depth เพิ่ม → ใช้ AI ได้ดีขึ้นอีก วนเป็นวงจรบวก
ส่วนคนที่ analytical foundation อ่อน ได้ output กลางๆ → เสียความมั่นใจ → กลับไปใช้วิธีเดิม → ช่องว่างถ่างออก
ตัวเลขที่การจ้าง entry-level ลด 14% อาจเป็น early signal ของ compounding effect นี้ ไม่ใช่เพราะ AI แทนที่ตำแหน่งเหล่านั้นวันนี้ แต่เพราะองค์กรเริ่มถามในใจว่า "ทำไมต้องจ้างคนมาเรียนรู้งาน ในเมื่อเครื่องมือต้องการคนที่คิดเป็นอยู่แล้ว?"
งานวิจัยจาก Anthropic ยืนยันสิ่งที่เห็นในสนามจริง: AI ไม่ได้แย่งงานคนในวงกว้าง แต่มันกำลังสร้างช่องว่างแบบ compound ระหว่างคนที่ใช้ได้กับใช้ไม่ได้
ช่องว่าง 60 จุดระหว่าง theoretical กับ actual ไม่ใช่เรื่องของเทคโนโลยี ไม่ใช่เรื่องของ training ไม่ใช่แม้แต่เรื่อง change resistance ในแบบที่คนมักพูดถึง
มันเป็นเรื่องของ ลำดับ — ใครได้ประโยชน์ก่อน ถ้าเริ่มจากบริษัท คนรู้สึกถูกคุกคาม ถ้าเริ่มจากตัวคน ทักษะเดียวกันเกิดขึ้นเองโดยไม่ต้องบังคับ
AI ทรงพลังเหมือน search engine และ internet ในยุคของมัน แต่ศักยภาพจริงจะถูกปลดปล่อยก็ต่อเมื่อคนรู้สึกว่า เครื่องมือนี้เป็นของเขา ไม่ใช่ของบริษัท
บริษัทได้ประโยชน์อยู่ดี — จากพนักงานที่มีความสุขและใช้ AI เป็น
อ้างอิง: Anthropic Research — Labor Market Impacts of AI, The Anthropic Economic Index