“งานศิลปะไม่เคยเสร็จสมบูรณ์ แต่เพียงแต่ถูกละทิ้ง”
ทุกคนกำลังพูดถึง AI Agents แต่ความหมายของพวกเขาไม่เหมือนกัน ซึ่งทำให้เกิดความเข้าใจ AI Agents ที่แตกต่างกันจากมุมมองของเรา สาธารณชน และนักประกันภัย AI
มานานแล้วที่ฉันเขียนว่า คริปโตเป็นอุลตร้าที่ใช้งาน AI. ตั้งแต่นั้นมา การรวมกันระหว่าง Crypto และ AI กลับเป็นเรื่องที่เป็นด้านเดียว AI practitioners นานาพูดถึง Web3 หรือ blockchain ในขณะที่ Crypto enthusiasts หลงใหลใน AI อย่างลึกซึ้ง หลังจากที่เห็นปรากฏการณ์ที่ AI Agent frameworks สามารถทำให้เป็นโทเค็นได้ ไม่แน่ใจว่าสิ่งนี้จะสามารถนำ AI practitioners เข้าสู่โลกของเราจริงๆ ได้หรือไม่
AI เป็นตัวแทนของคริปโต นี่เป็นคำอธิบายที่ดีที่สุดจากมุมมองของคริปโตเพื่อมองการเพิ่มขึ้นของ AI ในปัจจุบัน ความกระตือรือร้นของคริปโตสำหรับ AI แตกต่างจากอุตสาหกรรมอื่นๆ โดยเราหวังว่าจะสามารถรวมการออกและดำเนินการของสินทรัพย์ทางการเงิน ด้วย AI
ในแกนศูนย์ของมันเอง AI Agent มีอย่างน้อยสามแหล่งที่มา AGI (Artificial General Intelligence) ของ OpenAI ถือว่าเป็นขั้นตอนที่สำคัญ โยงไปสู่คำในวงกว้างที่เป็นที่นิยมเกินกว่าวงจรเทคนิค อย่างไรก็ตาม ในแง่ของเนื้อหา Agent ไม่ใช่แนวคิดใหม่ แม้ว่าจะมีการขับเคลื่อนด้วย AI ก็ยังคงยากที่จะบอกได้ว่าเป็นแนวโน้มเทคโนโลยีฉาววงการได้
แหล่งที่มาแรกคือ AI Agent ตามที่ OpenAI เห็น เช่นเดียวกับระดับ L3 ในการขับขี่อัตโนมัติ AI Agent สามารถถูกมองว่ามีความสามารถในการช่วยเหลือขั้นสูงบางอย่าง แต่ยังไม่สามารถแทนที่มนุษย์ได้อย่างสมบูรณ์
คำอธิบายของภาพ: ช่วง AGI ของ OpenAI ที่วางแผน
Image source: https://www.bloomberg.com/
แหล่งที่มาที่สองคือตามชื่อที่แนะนํา AI Agent ซึ่งเป็นตัวแทนที่ได้รับอํานาจจาก AI แนวคิดของกลไกหน่วยงานและการมอบหมายไม่ใช่เรื่องใหม่ในด้านคอมพิวเตอร์ อย่างไรก็ตามภายใต้วิสัยทัศน์ของ OpenAI ตัวแทนจะกลายเป็นขั้นตอน L3 ตามรูปแบบการสนทนา (เช่น ChatGPT) และแบบฟอร์มการให้เหตุผล (เช่นบอทต่างๆ) คุณสมบัติที่สําคัญของขั้นตอนนี้คือความสามารถในการ "ทําพฤติกรรมบางอย่างโดยอัตโนมัติ" หรือตามที่ Harrison Chase ผู้ก่อตั้ง LangChain กําหนด: "ตัวแทน AI เป็นระบบที่ใช้ LLM (Large Language Model) เพื่อควบคุมการตัดสินใจโฟลว์ในโปรแกรม" \
นี่คือสิ่งที่ทำให้น่าสนใจ ก่อนที่ LLMs จะเกิดขึ้น ตัวแทนจะดำเนินการกระบวนการอัตโนมัติที่ถูกตั้งค่าโดยมนุษย์ ตัวอย่างเช่นเมื่อออกแบบเครื่องมือสแครปเปอร์ โปรแกรมเมอร์จะตั้งค่า User-Agent เพื่อจำลองรายละเอียดเช่นเวอร์ชันเบราว์เซอร์และระบบปฏิบัติการที่ใช้โดยผู้ใช้จริง หากมีการใช้ตัวแทน AI เพื่อจำลองพฤติกรรมของมนุษย์อย่างแม่นยำมากขึ้น อาจนำไปสู่การสร้างกรอบการสแครปเปอร์ที่พื้นฐานอยู่บนตัวแทน AI ทำให้สแครปเปอร์ "คล้ายมนุษย์มากขึ้น"
ในการเปลี่ยนแปลงเช่นนี้ การนำเอเจนต์ AI เข้ามาต้องผสมผสานกับสถานการณ์ที่มีอยู่แล้ว เนื่องจากสถานการณ์ที่ใหม่ยากที่จะมีอยู่อย่างสมบูรณ์ แม้ว่าความสามารถในการเติมโค้ดและสร้างรหัสในเครื่องมือเช่น Curosr และ Github Copilot จะเป็นการเพิ่มประสิทธิภาพในกรอบของ LSP (Language Server Protocol) ซึ่งมีตัวอย่างจำนวนมากของการวิวัฒนาการแบบนั้น:
เพื่อให้ชัดเจนในการปฏิสัมพันธ์ระหว่างมนุษย์และคอมพิวเตอร์ การรวมกันของ GUI ของเว็บ 1.0 และเบราว์เซอร์จริงๆ ทำให้ประชาชนสามารถใช้คอมพิวเตอร์ได้โดยไม่มีข้อจำกัด โดยการรวมกันของ Windows และ IE โดย API เป็นมาตรฐานการส่งข้อมูลและการส่งข้อมูลของอินเทอร์เน็ต และในยุคของเว็บ 2.0 เบราว์เซอร์เช่น Chrome เกิดขึ้น โดยมีการเปลี่ยนแปลงการใช้อินเทอร์เน็ตของผู้คนเกิดขึ้น แอปพลิเคชันสุดยอดเช่น WeChat และแพลตฟอร์ม Meta ปัจจุบันครอบคลุมทุกด้านของชีวิตคน
แหล่งที่มาที่สามคือแนวคิดของ "เจตนา" ในพื้นที่ Crypto ซึ่งนําไปสู่ความสนใจที่เพิ่มขึ้นเกี่ยวกับตัวแทน AI อย่างไรก็ตามโปรดทราบว่าสิ่งนี้ใช้ได้เฉพาะใน Crypto เท่านั้น ตั้งแต่สคริปต์ Bitcoin ที่มีฟังก์ชันจํากัดไปจนถึงสัญญาอัจฉริยะของ Ethereum แนวคิด Agent นั้นถูกใช้อย่างกว้างขวาง การเกิดขึ้นที่ตามมาของสะพานข้ามสายโซ่นามธรรมโซ่ EOA (บัญชีที่เป็นเจ้าของภายนอก) ไปยังกระเป๋าเงิน AA (Account Abstraction) เป็นส่วนขยายตามธรรมชาติของแนวความคิดนี้ ดังนั้นเมื่อตัวแทน AI "บุกรุก" Crypto จึงไม่น่าแปลกใจที่พวกเขาจะนําไปสู่สถานการณ์ DeFi โดยธรรมชาติ
นี่คือจุดที่ความสับสนเกี่ยวกับแนวคิด AI Agent เกิดขึ้น ในบริบทของ Crypto สิ่งที่เราพยายามบรรลุคือตัวแทน "การจัดการทางการเงินอัตโนมัติการสร้างมีมอัตโนมัติ" อย่างไรก็ตามภายใต้คําจํากัดความของ OpenAI สถานการณ์ที่มีความเสี่ยงดังกล่าวจะต้องใช้ L4 หรือ L5 อย่างแท้จริง ในขณะเดียวกันสาธารณชนกําลังทดลองสร้างโค้ดอัตโนมัติหรือความช่วยเหลือในการสรุปและการเขียนที่ขับเคลื่อนด้วย AI ซึ่งไม่ได้อยู่ในระดับเดียวกับเป้าหมายที่เรากําลังติดตาม
เมื่อเราเข้าใจสิ่งที่เราต้องการอย่างแท้จริงเราสามารถมุ่งเน้นไปที่ตรรกะขององค์กรของ AI Agents รายละเอียดทางเทคนิคจะตามมาเนื่องจากแนวคิดของ AI Agent นั้นเกี่ยวกับการขจัดอุปสรรคในการนําเทคโนโลยีขนาดใหญ่มาใช้เช่นเดียวกับที่เบราว์เซอร์ปฏิวัติอุตสาหกรรมพีซีส่วนบุคคล เราจะมุ่งเน้นไปที่สองประเด็น: การตรวจสอบตัวแทน AI จากมุมมองของปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์และการทําความเข้าใจความแตกต่างและการเชื่อมต่อระหว่าง AI Agents และ LLMs ซึ่งจะนําเราไปสู่ส่วนที่สาม: การรวมกันของ Crypto และ AI Agents จะทิ้งอะไรไว้เบื้องหลังในที่สุด
ก่อนที่แบบจำลองการสนทนาระหว่างมนุษย์และคอมพิวเตอร์เช่น ChatGPT รูปแบบหลักของการสนทนาระหว่างมนุษย์และคอมพิวเตอร์คือ GUI (หน้าจอผู้ใช้แบบกราฟิก) และ CLI (อินเทอร์เฟซแบบคำสั่ง) mindset ของ GUI ได้รับการพัฒนาให้เป็นรูปแบบที่เฉพาะเจาะจงต่าง ๆ เช่นเบราว์เซอร์และแอปพลิเคชันในขณะที่การรวมกันของ CLI และ Shell มีการเปลี่ยนแปลงน้อยมาก
แต่นี่เป็นเพียง "frontend" ของปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์เท่านั้น ซึ่งเมื่ออินเทอร์เน็ตเติบโตขึ้น การเพิ่มปริมาณข้อมูลและความหลากหลาย ทำให้มีการปฏิสัมพันธ์ "backend" มากขึ้นระหว่างข้อมูลและแอปพลิเคชัน สองด้านเหล่านี้ขึ้นอยู่กับกัน - แม้กระทั่งการดำเนินการเรียกดูเว็บไซต์ที่เรียบง่ายในทางนั้นก็ต้องการความร่วมมือของพวกเขา
หากการปฏิสัมัครของมนุษย์กับเบราว์เซอร์และแอปพลิเคชันถูกพิจารณาว่าเป็นจุดเข้าสู่ระบบของผู้ใช้ ลิงก์และการเปลี่ยนที่ระหว่าง API สนับสนุนการดำเนินการจริงของอินเทอร์เน็ต นี่จริง ๆ ก็เป็นส่วนหนึ่งของเอเจ้นต์ ผู้ใช้ทั่วไปไม่จำเป็นต้องเข้าใจคำสั่งแบบคำสั่งและ API เพื่อบรรลุจุดมุ่งหมายของพวกเขา
สิ่งเดียวกันจริง ๆ สำหรับ LLMs ตอนนี้ผู้ใช้สามารถไปไกลกว่าได้แล้ว-ไม่จำเป็นต้องค้นหาอีกต่อไป กระบวนการทั้งหมดสามารถอธิบายได้ในขั้นตอนต่อไปนี้:
สามารถพบว่าในกระบวนการนี้ ความท้าทายที่สำคัญที่สุดคือ Google เพราะผู้ใช้ไม่ต้องเปิดเครื่องมือค้นหา แต่เป็นหน้าต่างสนทนาประเภทต่างๆ ที่คล้ายกับ GPT และทางเข้าของการจราจรกำลังเปลี่ยนแปลงอย่างเงียบๆ เพราะเหตุนี้บางคนคิดว่า LLM นี้เปลี่ยนแปลงชีวิตของเครื่องมือค้นหา
ดังนั้นตัวแทน AI เล่น peran อะไรในกระบวนการนี้?
อย่างสั้น AI Agent เป็นส่วนขยายที่เชี่ยวชาญของ LLM
LLMs ปัจจุบันไม่ใช่ AGI (Artificial General Intelligence) และอยู่ห่างไกลจาก L5 organizer ที่ OpenAI ต้องการ ความสามารถของพวกเขา ถูก จำกัด อย่างมาก ตัวอย่างเช่น LLMs มีความเสี่ยงต่อการเห็นภาพลวงตาหากได้รับการป้อนข้อมูลจากผู้ใช้มากเกินไป หนึ่งในเหตุผลสำคัญคือ กลไกการฝึกฝน ตัวอย่างเช่น หากคุณบอก GPT ว่า 1 + 1 = 3 ซ้ำๆ กัน มีโอกาสที่มันจะตอบว่า 4 เมื่อถามถึง 1 + 1 + 1 = ?
สิ่งนี้เกิดขึ้นเพราะ GPT ได้รับฟีดแบ็คแบบเต็มที่ จากการป้อนข้อมูลของผู้ใช้เท่านั้น หากโมเดลไม่เชื่อมต่อกับอินเทอร์เน็ต อาจมีความเปลี่ยนแปลงในการทำงานของโมเดลจากข้อมูลที่คุณป้อนลงไป ซึ่งจะทำให้โมเดลเรียนรู้ว่า 1+1=3 เท่านั้น อย่างไรก็ตาม หากโมเดลได้รับอนุญาตให้เชื่อมต่อกับอินเทอร์เน็ต กลไกการตอบรับของมันจะเป็นไปในทางที่หลากหลายมากขึ้น เนื่องจากข้อมูลออนไลน์ส่วนใหญ่จะยืนยันว่า 1+1=2
ตอนนี้ ถ้าเราต้องใช้ LLMs ในท้องถิ่นและต้องการหลีกเลี่ยงปัญหาเช่นนี้จะเป็นอย่างไร?
วิธีที่ง่ายที่สุดคือใช้ LLM สองเครื่องพร้อมกันโดยต้องการให้พวกเขาตรวจสอบคำตอบของกันและกันเพื่อลดความน่าจะเป็นของข้อผิดพลาด หากสิ่งนี้ไม่เพียงพอ วิธีการอื่นอาจเกี่ยวข้องกับการให้ผู้ใช้สองคนจัดการกระบวนการเดียวกัน - คนหนึ่งถามคำถามและคนอีกคนปรับปรุงให้กลายเป็นภาษาที่เป็นระเบียบและมีตรรกะอย่างมีเหตุผลมากขึ้น
แน่นอนว่าการเชื่อมต่อกับอินเทอร์เน็ตไม่ได้กำจัดปัญหาทั้งหมด ตัวอย่างเช่นหาก LLM ดึงข้อมูลจากแหล่งที่ไม่น่าเชื่อถือ สถานการณ์อาจเสียเปรียบได้ การหลีกเลี่ยงข้อมูลเช่นนี้เป็นการลดจำนวนข้อมูลที่มีอยู่ โดยสามารถแยกข้อมูลที่มีอยู่แล้ว รวมข้อมูลใหม่หรือใช้ข้อมูลเก่าเพื่อสร้างข้อมูลใหม่ๆ ขึ้นมาโดยอิงจากชุดข้อมูลเดิม เพื่อทำให้การตอบกลับมีความเชื่อถือมากขึ้น วิธีนี้เป็นกลยุทธ์ที่สอดคล้องกับแนวคิดของ RAG (Retrieval-Augmented Generation) ในการเข้าใจภาษาธรรมชาติ
มนุษย์และเครื่องจำเป็นต้องเข้าใจกัน เมื่อ LLM หลายๆ ตัวทำงานร่วมกันและมีปฏิสัมพันธ์กัน เราเข้าถึงโมเดลตัวแทนของ AI ในลักษณะของตัวแทนมนุษย์ ซึ่งสามารถเข้าถึงทรัพยากรอื่น ๆ รวมถึงโมเดลขนาดใหญ่และตัวแทนอื่น ๆ ได้
สิ่งนี้นำเราสู่ความเชื่อมโยงระหว่าง LLMs และ AI Agents:
LLMs เป็นการรวมความรู้ที่มนุษย์จะติดต่อกับผ่านอินเทอร์เฟซแชท อย่างไรก็ตามในปฏิบัติ การทำงานบางอย่างที่เฉพาะเจาะจงสามารถรวมเข้าด้วยกันเป็นโปรแกรมขนาดเล็ก บอท หรือชุดคำสั่ง เหล่านี้ถูกกำหนดโดยเรียกว่าเอเจ้นต์
เอไอ เอเจ้นต์ยังคงเป็นส่วนหนึ่งของแอลแอ็ม แต่ไม่ควรเทียบเท่ากับพวกเขา ลักษณะเฉพาะของเอเจ้นต์ AI อยู่ที่การเน้นในการทำงานร่วมกับโปรแกรมภายนอก LLMs และเอเจ้นต์อื่น ๆ นี่คือเหตุผลที่ผู้คนมักสรุปเอเจ้นต์ AI ว่าเป็น LLM + API
เพื่ออธิบายนี้ในกระบวนการทำงานของ LLM มาดูตัวอย่างการเรียกใช้ API ผ่าน AI Agent:
จําวิวัฒนาการของการปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์ได้หรือไม่? เบราว์เซอร์ API และองค์ประกอบอื่น ๆ จาก Web 1.0 และ Web 2.0 ยังคงมีอยู่ แต่ผู้ใช้ไม่จําเป็นต้องโต้ตอบกับพวกเขาโดยตรงอีกต่อไป พวกเขาสามารถมีส่วนร่วมกับตัวแทน AI แทน การเรียก API และกระบวนการที่เกี่ยวข้องทั้งหมดสามารถดําเนินการสนทนาได้ บริการ API เหล่านี้สามารถครอบคลุมข้อมูลประเภทใดก็ได้ไม่ว่าจะเป็นในเครื่องออนไลน์หรือจากแอปภายนอกตราบใดที่อินเทอร์เฟซเปิดอยู่และผู้ใช้มีสิทธิ์ที่จําเป็นในการเข้าถึง
กระบวนการของเอเจนต์ AI ที่สมบูรณ์แบบ ที่แสดงด้านบน เก็บไว้ว่า LLM เป็นส่วนประกอบที่แยกออกจากเอเจนต์ AI หรือเป็นสองกระบวนการย่อยภายในกระบวนการเดียวกัน ไม่ว่าจะแบ่งอย่างไรก็ตาม เป้าหมายคือการบริการตามความต้องการของผู้ใช้เสมอ จากมุมมองของปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์ มันอาจรู้สึกเหมือนผู้ใช้กำลังพูดกับตัวเองเองเท่านั้น คุณเพียงแค่ต้องแสดงออกเต็มที่เกี่ยวกับความคิดของคุณ และ AI/LLM/AI Agent จะทายความต้องการของคุณซ้ำๆ โดยรวมกลไกการตอบรับและรักษาให้ LLM จำไว้ในบริบทปัจจุบัน เอเจนต์ AI จึงหลีกเลี่ยงการสูญเสียติดตามงานของมัน
สรุปมาแล้ว AI Agents มีเป็นสร้างสรรค์ที่มีลักษณะที่มีเปรียบและมนุษย์ ซึ่งทำให้มันต่างจากสคริปต์และเครื่องมืออัตโนมัติทั่วไป มันทำหน้าที่เหมือนผู้ช่วยส่วนตัวโดยพิจารณาความต้องการจริงของผู้ใช้ อย่างไรก็ตาม สิ่งสำคัญคือการบอกว่าการปรับใช้นี้ยังเป็นการบุกเบิกที่พฤติกรรมอย่างความน่าจะเป็น AI Agent ระดับ L3 ไม่มีความเข้าใจและความสามารถในการแสดงความเข้าใจระดับมนุษย์ ทำให้การผสมรวมกับ API ภายนอกเป็นเรื่องเสี่ยง
ความสามารถในการสร้างรายได้จากเฟรมเวิร์ก AI เป็นหนึ่งในเหตุผลหลักที่ฉันยังคงสนใจคริปโต ในสแต็คเทคโนโลยี AI แบบดั้งเดิมเฟรมเวิร์กไม่สําคัญเป็นพิเศษอย่างน้อยก็ไม่ได้เปรียบเทียบกับข้อมูลและพลังการประมวลผล การสร้างรายได้จากผลิตภัณฑ์ AI ไม่ค่อยเริ่มต้นด้วยเฟรมเวิร์ก เนื่องจากอัลกอริทึม AI และเฟรมเวิร์กโมเดลส่วนใหญ่เป็นโอเพ่นซอร์ส สิ่งที่ยังคงเป็นกรรมสิทธิ์คือองค์ประกอบที่ละเอียดอ่อนเช่นข้อมูล
โดยพื้นฐานแล้ว AI frameworks หรือโมเดลเป็นคอนเทนเนอร์และการผสมผสานของอัลกอริทึม คล้ายกับหม้อสำหรับตุ๊กแก อย่างไรก็ตาม คุณภาพของเป็ดและความเชี่ยวชาญในกระบวนการทำอาหารเป็นสิ่งที่กำหนดรสชาติแท้จริง ในทฤษฎี ผลิตภัณฑ์ที่จำหน่ายควรเป็นเป็ด แต่ลูกค้า Web3 ดูเหมือนจะชอบซื้อหม้อ ๆ ในขณะที่ทิ้งเป็ด
เหตุผลนี้ไม่ซับซ้อน ผลิตภัณฑ์ Web3 AI ส่วนใหญ่สร้างขึ้นจากเฟรมเวิร์ก AI อัลกอริทึม และผลิตภัณฑ์ที่มีอยู่ โดยปรับแต่งตามวัตถุประสงค์ ในความเป็นจริงหลักการทางเทคนิคที่อยู่เบื้องหลังเฟรมเวิร์ก AI crypto ที่แตกต่างกันนั้นไม่แตกต่างกันมากนัก เนื่องจากเทคโนโลยีเองขาดความแตกต่างความสนใจจึงเปลี่ยนไปที่การสร้างแบรนด์สถานการณ์การใช้งานและความแตกต่างของพื้นผิวอื่น ๆ ด้วยเหตุนี้ แม้แต่การปรับแต่งเฟรมเวิร์ก AI เพียงเล็กน้อยก็กลายเป็นรากฐานสําหรับการสนับสนุนโทเค็นต่างๆ ซึ่งนําไปสู่ฟองสบู่เฟรมเวิร์กภายในระบบนิเวศ AI Agent ของ crypto
เนื่องจากไม่จําเป็นต้องลงทุนอย่างมากในข้อมูลการฝึกอบรมหรืออัลกอริทึมการแยกเฟรมเวิร์กตามชื่อจึงมีความสําคัญอย่างยิ่ง แม้แต่เฟรมเวิร์กราคาไม่แพงเช่น DeepSeek V3 ก็ยังต้องการต้นทุนที่สําคัญในแง่ของพลังงาน GPU ไฟฟ้าและความพยายาม
ในบางทางสิ่งนี้สอดคล้องกับแนวโน้มล่าสุดของ Web3: แพลตฟอร์มที่ออกโทเค็นมักมีมูลค่ามากกว่าโทเค็นตัวเอง โครงการเช่น Pump.Fun และ Hyperliquid เป็นตัวอย่างของสิ่งนี้ ตั้งแต่ต้นแรก ตัวแทนต้องแทนแอปพลิเคชันและสินทรัพย์ แต่กรอบการออกตัวแทนเริ่มเป็นสินค้าที่ฮอตที่สุดแล้ว
นี่เป็นการสะท้อนรูปแบบการยึดค่ามูลค่า โดยเนื่องจากตัวแทนขาดความแตกต่าง กรอบการออกตัวแทนกลายเป็นเสถียรและสร้างผลกระทบที่ดีในการออกสินทรัพย์ นี่เป็นเวอร์ชัน 1.0 ของการรวมระหว่างคริปโตและตัวแทน AI
เวอร์ชัน 2.0 กำลังเจริญขึ้นตอนนี้ ซึ่งเป็นตัวอย่างของการผสมผสานระหว่าง DeFi และ AI Agents ในขณะที่แนวคิดของ DeFAI อาจถูกเริ่มขึ้นโดยการเฝ้าระวังตลาด การสำรวจลึกลงไปในแนวโน้มต่อไปนี้ จะบ่งบอกถึงสิ่งอื่นๆ
ในพื้นหลังของการเปลี่ยนแปลง DeFi, AI กำลังปรับเปลี่ยนตรรกะพื้นฐานของ DeFi ก่อนหน้านี้, ตรรกะหลักของ DeFi เป็นการยืนยันความเป็นไปได้ของสมาร์ทคอนแทรคตอล ตอนนี้ AI Agents กำลังเปลี่ยนแปลงตรรกะการผลิตของ DeFi คุณไม่ต้องเข้าใจ DeFi เพื่อสร้างผลิตภัณฑ์ DeFi นี้แสดงถึงขั้นตอนที่เกินหน้าที่ของการสร้างเชื่อมโยง การให้พลังงานในระดับพื้นฐานที่ลึกลง
ยุคที่ทุกคนสามารถเป็นโปรแกรมเมอร์ได้กำลังจะมาถึง การคำนวณที่ซับซ้อนสามารถนำไปใช้งานภายนอก LLM และ APIs ของ AI Agents ได้ เพื่อให้บุคคลสามารถให้ความสำคัญกับแนวคิดของตนเองเท่านั้น ภาษาธรรมชาติสามารถแปลงเป็นตรรกะโปรแกรมได้อย่างมีประสิทธิภาพ
บทความนี้ไม่ได้กล่าวถึงโทเคนหุ้น Crypto AI Agent หรือกรอบทำงานใด ๆ เนื่องจาก Cookie.Fun ได้ดำเนินการอย่างยอดเยี่ยม โดยเป็นแพลตฟอร์มสำหรับการรวบรวมข้อมูล AI Agent และค้นพบโทเคน ตามด้วยกรอบทำงาน AI Agent และสุดท้ายการปรากฏและการสาบานของโทเคน Agent อย่างสั้น ๆ การดำเนินการระบุข้อมูลเช่นนี้ต่อไปจะมีค่าน้อย
อย่างไรก็ตาม ผ่านการสังเกตในช่วงเวลานี้ ตลาดยังขาดการสนทนาที่หมายความอย่างหมายความใน Crypto AI Agents ว่าจะชี้ทางไปสู่สิ่งใดในที่สุด พวกเราไม่สามารถเน้นไปที่ pointers ได้เท่านั้น แต่ความเปลี่ยนแปลงที่เกิดขึ้นในระดับหน่วยความจำเป็นต้องเป็นจุดสำคัญ
มันเป็นความสามารถที่พัฒนาตลอดเวลาในการแปลงสินทรัพย์ต่าง ๆ ให้เป็นรูปแบบโทเค็นที่ทําให้ Crypto มีเสน่ห์มาก
“งานศิลปะไม่เคยเสร็จสมบูรณ์ แต่เพียงแต่ถูกละทิ้ง”
ทุกคนกำลังพูดถึง AI Agents แต่ความหมายของพวกเขาไม่เหมือนกัน ซึ่งทำให้เกิดความเข้าใจ AI Agents ที่แตกต่างกันจากมุมมองของเรา สาธารณชน และนักประกันภัย AI
มานานแล้วที่ฉันเขียนว่า คริปโตเป็นอุลตร้าที่ใช้งาน AI. ตั้งแต่นั้นมา การรวมกันระหว่าง Crypto และ AI กลับเป็นเรื่องที่เป็นด้านเดียว AI practitioners นานาพูดถึง Web3 หรือ blockchain ในขณะที่ Crypto enthusiasts หลงใหลใน AI อย่างลึกซึ้ง หลังจากที่เห็นปรากฏการณ์ที่ AI Agent frameworks สามารถทำให้เป็นโทเค็นได้ ไม่แน่ใจว่าสิ่งนี้จะสามารถนำ AI practitioners เข้าสู่โลกของเราจริงๆ ได้หรือไม่
AI เป็นตัวแทนของคริปโต นี่เป็นคำอธิบายที่ดีที่สุดจากมุมมองของคริปโตเพื่อมองการเพิ่มขึ้นของ AI ในปัจจุบัน ความกระตือรือร้นของคริปโตสำหรับ AI แตกต่างจากอุตสาหกรรมอื่นๆ โดยเราหวังว่าจะสามารถรวมการออกและดำเนินการของสินทรัพย์ทางการเงิน ด้วย AI
ในแกนศูนย์ของมันเอง AI Agent มีอย่างน้อยสามแหล่งที่มา AGI (Artificial General Intelligence) ของ OpenAI ถือว่าเป็นขั้นตอนที่สำคัญ โยงไปสู่คำในวงกว้างที่เป็นที่นิยมเกินกว่าวงจรเทคนิค อย่างไรก็ตาม ในแง่ของเนื้อหา Agent ไม่ใช่แนวคิดใหม่ แม้ว่าจะมีการขับเคลื่อนด้วย AI ก็ยังคงยากที่จะบอกได้ว่าเป็นแนวโน้มเทคโนโลยีฉาววงการได้
แหล่งที่มาแรกคือ AI Agent ตามที่ OpenAI เห็น เช่นเดียวกับระดับ L3 ในการขับขี่อัตโนมัติ AI Agent สามารถถูกมองว่ามีความสามารถในการช่วยเหลือขั้นสูงบางอย่าง แต่ยังไม่สามารถแทนที่มนุษย์ได้อย่างสมบูรณ์
คำอธิบายของภาพ: ช่วง AGI ของ OpenAI ที่วางแผน
Image source: https://www.bloomberg.com/
แหล่งที่มาที่สองคือตามชื่อที่แนะนํา AI Agent ซึ่งเป็นตัวแทนที่ได้รับอํานาจจาก AI แนวคิดของกลไกหน่วยงานและการมอบหมายไม่ใช่เรื่องใหม่ในด้านคอมพิวเตอร์ อย่างไรก็ตามภายใต้วิสัยทัศน์ของ OpenAI ตัวแทนจะกลายเป็นขั้นตอน L3 ตามรูปแบบการสนทนา (เช่น ChatGPT) และแบบฟอร์มการให้เหตุผล (เช่นบอทต่างๆ) คุณสมบัติที่สําคัญของขั้นตอนนี้คือความสามารถในการ "ทําพฤติกรรมบางอย่างโดยอัตโนมัติ" หรือตามที่ Harrison Chase ผู้ก่อตั้ง LangChain กําหนด: "ตัวแทน AI เป็นระบบที่ใช้ LLM (Large Language Model) เพื่อควบคุมการตัดสินใจโฟลว์ในโปรแกรม" \
นี่คือสิ่งที่ทำให้น่าสนใจ ก่อนที่ LLMs จะเกิดขึ้น ตัวแทนจะดำเนินการกระบวนการอัตโนมัติที่ถูกตั้งค่าโดยมนุษย์ ตัวอย่างเช่นเมื่อออกแบบเครื่องมือสแครปเปอร์ โปรแกรมเมอร์จะตั้งค่า User-Agent เพื่อจำลองรายละเอียดเช่นเวอร์ชันเบราว์เซอร์และระบบปฏิบัติการที่ใช้โดยผู้ใช้จริง หากมีการใช้ตัวแทน AI เพื่อจำลองพฤติกรรมของมนุษย์อย่างแม่นยำมากขึ้น อาจนำไปสู่การสร้างกรอบการสแครปเปอร์ที่พื้นฐานอยู่บนตัวแทน AI ทำให้สแครปเปอร์ "คล้ายมนุษย์มากขึ้น"
ในการเปลี่ยนแปลงเช่นนี้ การนำเอเจนต์ AI เข้ามาต้องผสมผสานกับสถานการณ์ที่มีอยู่แล้ว เนื่องจากสถานการณ์ที่ใหม่ยากที่จะมีอยู่อย่างสมบูรณ์ แม้ว่าความสามารถในการเติมโค้ดและสร้างรหัสในเครื่องมือเช่น Curosr และ Github Copilot จะเป็นการเพิ่มประสิทธิภาพในกรอบของ LSP (Language Server Protocol) ซึ่งมีตัวอย่างจำนวนมากของการวิวัฒนาการแบบนั้น:
เพื่อให้ชัดเจนในการปฏิสัมพันธ์ระหว่างมนุษย์และคอมพิวเตอร์ การรวมกันของ GUI ของเว็บ 1.0 และเบราว์เซอร์จริงๆ ทำให้ประชาชนสามารถใช้คอมพิวเตอร์ได้โดยไม่มีข้อจำกัด โดยการรวมกันของ Windows และ IE โดย API เป็นมาตรฐานการส่งข้อมูลและการส่งข้อมูลของอินเทอร์เน็ต และในยุคของเว็บ 2.0 เบราว์เซอร์เช่น Chrome เกิดขึ้น โดยมีการเปลี่ยนแปลงการใช้อินเทอร์เน็ตของผู้คนเกิดขึ้น แอปพลิเคชันสุดยอดเช่น WeChat และแพลตฟอร์ม Meta ปัจจุบันครอบคลุมทุกด้านของชีวิตคน
แหล่งที่มาที่สามคือแนวคิดของ "เจตนา" ในพื้นที่ Crypto ซึ่งนําไปสู่ความสนใจที่เพิ่มขึ้นเกี่ยวกับตัวแทน AI อย่างไรก็ตามโปรดทราบว่าสิ่งนี้ใช้ได้เฉพาะใน Crypto เท่านั้น ตั้งแต่สคริปต์ Bitcoin ที่มีฟังก์ชันจํากัดไปจนถึงสัญญาอัจฉริยะของ Ethereum แนวคิด Agent นั้นถูกใช้อย่างกว้างขวาง การเกิดขึ้นที่ตามมาของสะพานข้ามสายโซ่นามธรรมโซ่ EOA (บัญชีที่เป็นเจ้าของภายนอก) ไปยังกระเป๋าเงิน AA (Account Abstraction) เป็นส่วนขยายตามธรรมชาติของแนวความคิดนี้ ดังนั้นเมื่อตัวแทน AI "บุกรุก" Crypto จึงไม่น่าแปลกใจที่พวกเขาจะนําไปสู่สถานการณ์ DeFi โดยธรรมชาติ
นี่คือจุดที่ความสับสนเกี่ยวกับแนวคิด AI Agent เกิดขึ้น ในบริบทของ Crypto สิ่งที่เราพยายามบรรลุคือตัวแทน "การจัดการทางการเงินอัตโนมัติการสร้างมีมอัตโนมัติ" อย่างไรก็ตามภายใต้คําจํากัดความของ OpenAI สถานการณ์ที่มีความเสี่ยงดังกล่าวจะต้องใช้ L4 หรือ L5 อย่างแท้จริง ในขณะเดียวกันสาธารณชนกําลังทดลองสร้างโค้ดอัตโนมัติหรือความช่วยเหลือในการสรุปและการเขียนที่ขับเคลื่อนด้วย AI ซึ่งไม่ได้อยู่ในระดับเดียวกับเป้าหมายที่เรากําลังติดตาม
เมื่อเราเข้าใจสิ่งที่เราต้องการอย่างแท้จริงเราสามารถมุ่งเน้นไปที่ตรรกะขององค์กรของ AI Agents รายละเอียดทางเทคนิคจะตามมาเนื่องจากแนวคิดของ AI Agent นั้นเกี่ยวกับการขจัดอุปสรรคในการนําเทคโนโลยีขนาดใหญ่มาใช้เช่นเดียวกับที่เบราว์เซอร์ปฏิวัติอุตสาหกรรมพีซีส่วนบุคคล เราจะมุ่งเน้นไปที่สองประเด็น: การตรวจสอบตัวแทน AI จากมุมมองของปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์และการทําความเข้าใจความแตกต่างและการเชื่อมต่อระหว่าง AI Agents และ LLMs ซึ่งจะนําเราไปสู่ส่วนที่สาม: การรวมกันของ Crypto และ AI Agents จะทิ้งอะไรไว้เบื้องหลังในที่สุด
ก่อนที่แบบจำลองการสนทนาระหว่างมนุษย์และคอมพิวเตอร์เช่น ChatGPT รูปแบบหลักของการสนทนาระหว่างมนุษย์และคอมพิวเตอร์คือ GUI (หน้าจอผู้ใช้แบบกราฟิก) และ CLI (อินเทอร์เฟซแบบคำสั่ง) mindset ของ GUI ได้รับการพัฒนาให้เป็นรูปแบบที่เฉพาะเจาะจงต่าง ๆ เช่นเบราว์เซอร์และแอปพลิเคชันในขณะที่การรวมกันของ CLI และ Shell มีการเปลี่ยนแปลงน้อยมาก
แต่นี่เป็นเพียง "frontend" ของปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์เท่านั้น ซึ่งเมื่ออินเทอร์เน็ตเติบโตขึ้น การเพิ่มปริมาณข้อมูลและความหลากหลาย ทำให้มีการปฏิสัมพันธ์ "backend" มากขึ้นระหว่างข้อมูลและแอปพลิเคชัน สองด้านเหล่านี้ขึ้นอยู่กับกัน - แม้กระทั่งการดำเนินการเรียกดูเว็บไซต์ที่เรียบง่ายในทางนั้นก็ต้องการความร่วมมือของพวกเขา
หากการปฏิสัมัครของมนุษย์กับเบราว์เซอร์และแอปพลิเคชันถูกพิจารณาว่าเป็นจุดเข้าสู่ระบบของผู้ใช้ ลิงก์และการเปลี่ยนที่ระหว่าง API สนับสนุนการดำเนินการจริงของอินเทอร์เน็ต นี่จริง ๆ ก็เป็นส่วนหนึ่งของเอเจ้นต์ ผู้ใช้ทั่วไปไม่จำเป็นต้องเข้าใจคำสั่งแบบคำสั่งและ API เพื่อบรรลุจุดมุ่งหมายของพวกเขา
สิ่งเดียวกันจริง ๆ สำหรับ LLMs ตอนนี้ผู้ใช้สามารถไปไกลกว่าได้แล้ว-ไม่จำเป็นต้องค้นหาอีกต่อไป กระบวนการทั้งหมดสามารถอธิบายได้ในขั้นตอนต่อไปนี้:
สามารถพบว่าในกระบวนการนี้ ความท้าทายที่สำคัญที่สุดคือ Google เพราะผู้ใช้ไม่ต้องเปิดเครื่องมือค้นหา แต่เป็นหน้าต่างสนทนาประเภทต่างๆ ที่คล้ายกับ GPT และทางเข้าของการจราจรกำลังเปลี่ยนแปลงอย่างเงียบๆ เพราะเหตุนี้บางคนคิดว่า LLM นี้เปลี่ยนแปลงชีวิตของเครื่องมือค้นหา
ดังนั้นตัวแทน AI เล่น peran อะไรในกระบวนการนี้?
อย่างสั้น AI Agent เป็นส่วนขยายที่เชี่ยวชาญของ LLM
LLMs ปัจจุบันไม่ใช่ AGI (Artificial General Intelligence) และอยู่ห่างไกลจาก L5 organizer ที่ OpenAI ต้องการ ความสามารถของพวกเขา ถูก จำกัด อย่างมาก ตัวอย่างเช่น LLMs มีความเสี่ยงต่อการเห็นภาพลวงตาหากได้รับการป้อนข้อมูลจากผู้ใช้มากเกินไป หนึ่งในเหตุผลสำคัญคือ กลไกการฝึกฝน ตัวอย่างเช่น หากคุณบอก GPT ว่า 1 + 1 = 3 ซ้ำๆ กัน มีโอกาสที่มันจะตอบว่า 4 เมื่อถามถึง 1 + 1 + 1 = ?
สิ่งนี้เกิดขึ้นเพราะ GPT ได้รับฟีดแบ็คแบบเต็มที่ จากการป้อนข้อมูลของผู้ใช้เท่านั้น หากโมเดลไม่เชื่อมต่อกับอินเทอร์เน็ต อาจมีความเปลี่ยนแปลงในการทำงานของโมเดลจากข้อมูลที่คุณป้อนลงไป ซึ่งจะทำให้โมเดลเรียนรู้ว่า 1+1=3 เท่านั้น อย่างไรก็ตาม หากโมเดลได้รับอนุญาตให้เชื่อมต่อกับอินเทอร์เน็ต กลไกการตอบรับของมันจะเป็นไปในทางที่หลากหลายมากขึ้น เนื่องจากข้อมูลออนไลน์ส่วนใหญ่จะยืนยันว่า 1+1=2
ตอนนี้ ถ้าเราต้องใช้ LLMs ในท้องถิ่นและต้องการหลีกเลี่ยงปัญหาเช่นนี้จะเป็นอย่างไร?
วิธีที่ง่ายที่สุดคือใช้ LLM สองเครื่องพร้อมกันโดยต้องการให้พวกเขาตรวจสอบคำตอบของกันและกันเพื่อลดความน่าจะเป็นของข้อผิดพลาด หากสิ่งนี้ไม่เพียงพอ วิธีการอื่นอาจเกี่ยวข้องกับการให้ผู้ใช้สองคนจัดการกระบวนการเดียวกัน - คนหนึ่งถามคำถามและคนอีกคนปรับปรุงให้กลายเป็นภาษาที่เป็นระเบียบและมีตรรกะอย่างมีเหตุผลมากขึ้น
แน่นอนว่าการเชื่อมต่อกับอินเทอร์เน็ตไม่ได้กำจัดปัญหาทั้งหมด ตัวอย่างเช่นหาก LLM ดึงข้อมูลจากแหล่งที่ไม่น่าเชื่อถือ สถานการณ์อาจเสียเปรียบได้ การหลีกเลี่ยงข้อมูลเช่นนี้เป็นการลดจำนวนข้อมูลที่มีอยู่ โดยสามารถแยกข้อมูลที่มีอยู่แล้ว รวมข้อมูลใหม่หรือใช้ข้อมูลเก่าเพื่อสร้างข้อมูลใหม่ๆ ขึ้นมาโดยอิงจากชุดข้อมูลเดิม เพื่อทำให้การตอบกลับมีความเชื่อถือมากขึ้น วิธีนี้เป็นกลยุทธ์ที่สอดคล้องกับแนวคิดของ RAG (Retrieval-Augmented Generation) ในการเข้าใจภาษาธรรมชาติ
มนุษย์และเครื่องจำเป็นต้องเข้าใจกัน เมื่อ LLM หลายๆ ตัวทำงานร่วมกันและมีปฏิสัมพันธ์กัน เราเข้าถึงโมเดลตัวแทนของ AI ในลักษณะของตัวแทนมนุษย์ ซึ่งสามารถเข้าถึงทรัพยากรอื่น ๆ รวมถึงโมเดลขนาดใหญ่และตัวแทนอื่น ๆ ได้
สิ่งนี้นำเราสู่ความเชื่อมโยงระหว่าง LLMs และ AI Agents:
LLMs เป็นการรวมความรู้ที่มนุษย์จะติดต่อกับผ่านอินเทอร์เฟซแชท อย่างไรก็ตามในปฏิบัติ การทำงานบางอย่างที่เฉพาะเจาะจงสามารถรวมเข้าด้วยกันเป็นโปรแกรมขนาดเล็ก บอท หรือชุดคำสั่ง เหล่านี้ถูกกำหนดโดยเรียกว่าเอเจ้นต์
เอไอ เอเจ้นต์ยังคงเป็นส่วนหนึ่งของแอลแอ็ม แต่ไม่ควรเทียบเท่ากับพวกเขา ลักษณะเฉพาะของเอเจ้นต์ AI อยู่ที่การเน้นในการทำงานร่วมกับโปรแกรมภายนอก LLMs และเอเจ้นต์อื่น ๆ นี่คือเหตุผลที่ผู้คนมักสรุปเอเจ้นต์ AI ว่าเป็น LLM + API
เพื่ออธิบายนี้ในกระบวนการทำงานของ LLM มาดูตัวอย่างการเรียกใช้ API ผ่าน AI Agent:
จําวิวัฒนาการของการปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์ได้หรือไม่? เบราว์เซอร์ API และองค์ประกอบอื่น ๆ จาก Web 1.0 และ Web 2.0 ยังคงมีอยู่ แต่ผู้ใช้ไม่จําเป็นต้องโต้ตอบกับพวกเขาโดยตรงอีกต่อไป พวกเขาสามารถมีส่วนร่วมกับตัวแทน AI แทน การเรียก API และกระบวนการที่เกี่ยวข้องทั้งหมดสามารถดําเนินการสนทนาได้ บริการ API เหล่านี้สามารถครอบคลุมข้อมูลประเภทใดก็ได้ไม่ว่าจะเป็นในเครื่องออนไลน์หรือจากแอปภายนอกตราบใดที่อินเทอร์เฟซเปิดอยู่และผู้ใช้มีสิทธิ์ที่จําเป็นในการเข้าถึง
กระบวนการของเอเจนต์ AI ที่สมบูรณ์แบบ ที่แสดงด้านบน เก็บไว้ว่า LLM เป็นส่วนประกอบที่แยกออกจากเอเจนต์ AI หรือเป็นสองกระบวนการย่อยภายในกระบวนการเดียวกัน ไม่ว่าจะแบ่งอย่างไรก็ตาม เป้าหมายคือการบริการตามความต้องการของผู้ใช้เสมอ จากมุมมองของปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์ มันอาจรู้สึกเหมือนผู้ใช้กำลังพูดกับตัวเองเองเท่านั้น คุณเพียงแค่ต้องแสดงออกเต็มที่เกี่ยวกับความคิดของคุณ และ AI/LLM/AI Agent จะทายความต้องการของคุณซ้ำๆ โดยรวมกลไกการตอบรับและรักษาให้ LLM จำไว้ในบริบทปัจจุบัน เอเจนต์ AI จึงหลีกเลี่ยงการสูญเสียติดตามงานของมัน
สรุปมาแล้ว AI Agents มีเป็นสร้างสรรค์ที่มีลักษณะที่มีเปรียบและมนุษย์ ซึ่งทำให้มันต่างจากสคริปต์และเครื่องมืออัตโนมัติทั่วไป มันทำหน้าที่เหมือนผู้ช่วยส่วนตัวโดยพิจารณาความต้องการจริงของผู้ใช้ อย่างไรก็ตาม สิ่งสำคัญคือการบอกว่าการปรับใช้นี้ยังเป็นการบุกเบิกที่พฤติกรรมอย่างความน่าจะเป็น AI Agent ระดับ L3 ไม่มีความเข้าใจและความสามารถในการแสดงความเข้าใจระดับมนุษย์ ทำให้การผสมรวมกับ API ภายนอกเป็นเรื่องเสี่ยง
ความสามารถในการสร้างรายได้จากเฟรมเวิร์ก AI เป็นหนึ่งในเหตุผลหลักที่ฉันยังคงสนใจคริปโต ในสแต็คเทคโนโลยี AI แบบดั้งเดิมเฟรมเวิร์กไม่สําคัญเป็นพิเศษอย่างน้อยก็ไม่ได้เปรียบเทียบกับข้อมูลและพลังการประมวลผล การสร้างรายได้จากผลิตภัณฑ์ AI ไม่ค่อยเริ่มต้นด้วยเฟรมเวิร์ก เนื่องจากอัลกอริทึม AI และเฟรมเวิร์กโมเดลส่วนใหญ่เป็นโอเพ่นซอร์ส สิ่งที่ยังคงเป็นกรรมสิทธิ์คือองค์ประกอบที่ละเอียดอ่อนเช่นข้อมูล
โดยพื้นฐานแล้ว AI frameworks หรือโมเดลเป็นคอนเทนเนอร์และการผสมผสานของอัลกอริทึม คล้ายกับหม้อสำหรับตุ๊กแก อย่างไรก็ตาม คุณภาพของเป็ดและความเชี่ยวชาญในกระบวนการทำอาหารเป็นสิ่งที่กำหนดรสชาติแท้จริง ในทฤษฎี ผลิตภัณฑ์ที่จำหน่ายควรเป็นเป็ด แต่ลูกค้า Web3 ดูเหมือนจะชอบซื้อหม้อ ๆ ในขณะที่ทิ้งเป็ด
เหตุผลนี้ไม่ซับซ้อน ผลิตภัณฑ์ Web3 AI ส่วนใหญ่สร้างขึ้นจากเฟรมเวิร์ก AI อัลกอริทึม และผลิตภัณฑ์ที่มีอยู่ โดยปรับแต่งตามวัตถุประสงค์ ในความเป็นจริงหลักการทางเทคนิคที่อยู่เบื้องหลังเฟรมเวิร์ก AI crypto ที่แตกต่างกันนั้นไม่แตกต่างกันมากนัก เนื่องจากเทคโนโลยีเองขาดความแตกต่างความสนใจจึงเปลี่ยนไปที่การสร้างแบรนด์สถานการณ์การใช้งานและความแตกต่างของพื้นผิวอื่น ๆ ด้วยเหตุนี้ แม้แต่การปรับแต่งเฟรมเวิร์ก AI เพียงเล็กน้อยก็กลายเป็นรากฐานสําหรับการสนับสนุนโทเค็นต่างๆ ซึ่งนําไปสู่ฟองสบู่เฟรมเวิร์กภายในระบบนิเวศ AI Agent ของ crypto
เนื่องจากไม่จําเป็นต้องลงทุนอย่างมากในข้อมูลการฝึกอบรมหรืออัลกอริทึมการแยกเฟรมเวิร์กตามชื่อจึงมีความสําคัญอย่างยิ่ง แม้แต่เฟรมเวิร์กราคาไม่แพงเช่น DeepSeek V3 ก็ยังต้องการต้นทุนที่สําคัญในแง่ของพลังงาน GPU ไฟฟ้าและความพยายาม
ในบางทางสิ่งนี้สอดคล้องกับแนวโน้มล่าสุดของ Web3: แพลตฟอร์มที่ออกโทเค็นมักมีมูลค่ามากกว่าโทเค็นตัวเอง โครงการเช่น Pump.Fun และ Hyperliquid เป็นตัวอย่างของสิ่งนี้ ตั้งแต่ต้นแรก ตัวแทนต้องแทนแอปพลิเคชันและสินทรัพย์ แต่กรอบการออกตัวแทนเริ่มเป็นสินค้าที่ฮอตที่สุดแล้ว
นี่เป็นการสะท้อนรูปแบบการยึดค่ามูลค่า โดยเนื่องจากตัวแทนขาดความแตกต่าง กรอบการออกตัวแทนกลายเป็นเสถียรและสร้างผลกระทบที่ดีในการออกสินทรัพย์ นี่เป็นเวอร์ชัน 1.0 ของการรวมระหว่างคริปโตและตัวแทน AI
เวอร์ชัน 2.0 กำลังเจริญขึ้นตอนนี้ ซึ่งเป็นตัวอย่างของการผสมผสานระหว่าง DeFi และ AI Agents ในขณะที่แนวคิดของ DeFAI อาจถูกเริ่มขึ้นโดยการเฝ้าระวังตลาด การสำรวจลึกลงไปในแนวโน้มต่อไปนี้ จะบ่งบอกถึงสิ่งอื่นๆ
ในพื้นหลังของการเปลี่ยนแปลง DeFi, AI กำลังปรับเปลี่ยนตรรกะพื้นฐานของ DeFi ก่อนหน้านี้, ตรรกะหลักของ DeFi เป็นการยืนยันความเป็นไปได้ของสมาร์ทคอนแทรคตอล ตอนนี้ AI Agents กำลังเปลี่ยนแปลงตรรกะการผลิตของ DeFi คุณไม่ต้องเข้าใจ DeFi เพื่อสร้างผลิตภัณฑ์ DeFi นี้แสดงถึงขั้นตอนที่เกินหน้าที่ของการสร้างเชื่อมโยง การให้พลังงานในระดับพื้นฐานที่ลึกลง
ยุคที่ทุกคนสามารถเป็นโปรแกรมเมอร์ได้กำลังจะมาถึง การคำนวณที่ซับซ้อนสามารถนำไปใช้งานภายนอก LLM และ APIs ของ AI Agents ได้ เพื่อให้บุคคลสามารถให้ความสำคัญกับแนวคิดของตนเองเท่านั้น ภาษาธรรมชาติสามารถแปลงเป็นตรรกะโปรแกรมได้อย่างมีประสิทธิภาพ
บทความนี้ไม่ได้กล่าวถึงโทเคนหุ้น Crypto AI Agent หรือกรอบทำงานใด ๆ เนื่องจาก Cookie.Fun ได้ดำเนินการอย่างยอดเยี่ยม โดยเป็นแพลตฟอร์มสำหรับการรวบรวมข้อมูล AI Agent และค้นพบโทเคน ตามด้วยกรอบทำงาน AI Agent และสุดท้ายการปรากฏและการสาบานของโทเคน Agent อย่างสั้น ๆ การดำเนินการระบุข้อมูลเช่นนี้ต่อไปจะมีค่าน้อย
อย่างไรก็ตาม ผ่านการสังเกตในช่วงเวลานี้ ตลาดยังขาดการสนทนาที่หมายความอย่างหมายความใน Crypto AI Agents ว่าจะชี้ทางไปสู่สิ่งใดในที่สุด พวกเราไม่สามารถเน้นไปที่ pointers ได้เท่านั้น แต่ความเปลี่ยนแปลงที่เกิดขึ้นในระดับหน่วยความจำเป็นต้องเป็นจุดสำคัญ
มันเป็นความสามารถที่พัฒนาตลอดเวลาในการแปลงสินทรัพย์ต่าง ๆ ให้เป็นรูปแบบโทเค็นที่ทําให้ Crypto มีเสน่ห์มาก