ฉันมีความสนุกสนานในการเรียนรู้เกี่ยวกับ Hadoop และโครงการต่างๆอยู่รอบ ๆ และขณะนี้มี 2 กลยุทธ์ที่แตกต่างกันฉันคิดถึงการสร้างระบบเพื่อจัดเก็บข้อมูลการติ๊กจำนวนมากในตลาดฉันเพิ่งเริ่มต้นใช้งาน Hadoop HDSF และ HBase แต่หวังว่า บางคนสามารถช่วยฉันปลูกเมล็ดพันธุ์ระบบที่ฉันได้รับรางวัล t ต้องขยะต่อมาโดยใช้เทคโนโลยีเหล่านี้ด้านล่างเป็นโครงร่างของระบบและความต้องการของฉันด้วยแบบสอบถามและการใช้งานการใช้ข้อมูลบางกรณีและสุดท้ายความคิดปัจจุบันของฉันเกี่ยวกับแนวทางที่ดีที่สุดจากเอกสารเล็ก ๆ น้อย ๆ ที่ฉัน ได้อ่านมันเป็นคำถามสิ้นสุดเปิดและฉันยินดีที่จะชอบคำตอบใด ๆ ที่เป็นที่ลึกซึ้งและยอมรับที่ดีที่สุดหนึ่งรู้สึกฟรีเพื่อแสดงความคิดเห็นในหรือทั้งหมดของจุดด้านล่าง - Duncan Krebs ความต้องการของระบบ - สามารถใช้ประโยชน์จากการจัดเก็บข้อมูล สำหรับการทดสอบย้อนหลังทางประวัติศาสตร์ของระบบการสร้างแผนภูมิข้อมูลทางประวัติศาสตร์และการทำเหมืองข้อมูลในอนาคตเมื่อเก็บข้อมูลจะเป็นแบบอ่านอย่างเดียวการเข้าถึงข้อมูลที่รวดเร็วเป็นที่ต้องการ แต่ไม่จำเป็นต้องเป็นเมื่อกลับมาใช้การทดสอบ Schema แบบคงที่ - ง่ายมากฉันต้องการจับภาพ 3 ประเภทของข้อความจาก FeedTimestamp รวมทั้งวันที่, เวลา, เวลาเช่นเครื่องหมาย, timestamp, ถาม, askSize, bid, bidSize, volume ประมาณ 40 คอลัมน์ของ data. Trade รวมทั้งสัญลักษณ์, timestamp , ราคา, ขนาด, การแลกเปลี่ยนเกี่ยวกับ 20 คอลัมน์ของข้อมูล Data แทรกกรณีการใช้งาน - ทั้งจากกระแสตลาดสดของข้อมูลหรือการค้นหาผ่านทางนายหน้าซื้อขายหลักทรัพย์ API ข้อมูลแบบสอบถามกรณีการใช้งาน - ด้านล่างแสดงให้เห็นว่าฉันต้องการจะมีเหตุผลค้นหาข้อมูลของฉันรับฉัน คำคมทุกคำตอบ Traest, Timestamps สำหรับ GOOG เมื่อวันที่ 9 22 2014. รับฉันค้าทั้งหมดสำหรับ GOOG, FB ก่อน 9 1 2014 และหลัง 5 1 2014 รับทราบจำนวนการค้าสำหรับสัญลักษณ์ 50 รูปสำหรับแต่ละวันในช่วง 90 วันที่ผ่านมา Holy Grail - สามารถ MapReduce ใช้สำหรับกรณีใช้เช่นนี้ด้านล่างสร้างข้อมูลเมตาจากข้อมูลตลาดดิบผ่านตัวแทนจำหน่ายตัวอย่างเช่นเขียนงานที่จะคำนวณปริมาณการซื้อขายเฉลี่ยในช่วงเวลา 1 นาทีสำหรับหุ้นทั้งหมดและทั้งหมด เซสชันที่เก็บไว้ในฐานข้อมูลสร้างงานเพื่อให้มีตัวแทนสำหรับแต่ละเซสชันหุ้น ฉันบอกสิ่งที่สต็อกและเซสชั่นควรคำนวณค่านี้เป็นสิ่งที่ MapReduce สามารถทำใน classpath ของตัวแทนฉันสามารถเพิ่มรหัส util ของฉันเองเพื่อให้กรณีการใช้งานข้างต้นเช่นสามารถเผยแพร่ค่าลงใน repo กลางหรือ เซิร์ฟเวอร์การส่งข้อความฉันสามารถติดตั้งเอเจนต์เป็นกลุ่ม OSGI สร้างตัวแทนประเภทต่างๆสำหรับเมตริกและคะแนนที่แตกต่างกันซึ่งดำเนินการทุกเช้าก่อนการซื้อขายล่วงหน้าก่อนการเทรดดิ้งความถี่สูงฉันสนใจหากใครสามารถแบ่งปันประสบการณ์โดยใช้ Hadoop ในบริบทของระบบการซื้อขายความถี่สูงเพียงแค่เข้าสู่เทคโนโลยีนี้รู้สึกเริ่มต้นของฉันคือ Hadoop สามารถที่ดีสำหรับการจัดเก็บและประมวลผลปริมาณมากของข้อมูลเห็บประวัติศาสตร์ถ้าใครใช้นี้สำหรับการซื้อขายเรียลไทม์ฉัน d มีความสนใจในการเรียนรู้เพิ่มเติม - Duncan Krebs จากความเข้าใจของฉันเกี่ยวกับความต้องการของคุณ Hadoop น่าจะเป็นทางเลือกที่ดีในการจัดเก็บข้อมูลของคุณและเรียกใช้คำสั่งของคุณโดยใช้ HiveStorage คุณสามารถเก็บข้อมูลใน Hadoop ในตำแหน่งผู้อำนวยการ โครงสร้าง y เช่นภายในโฟลเดอร์ชั่วโมงข้อมูลเฉพาะกับชั่วโมงในวันนั้นสามารถอาศัยได้ข้อดีอย่างหนึ่งของการใช้โครงสร้างดังกล่าวคือคุณสามารถสร้างตารางภายนอกในไฮฟ์ข้อมูลนี้กับพาร์ทิชันของคุณเมื่อปีเดือนวันและเวลา มีบางอย่างเช่น thising ไปยังส่วนการค้นหาเมื่อคุณมีข้อมูลที่จัดเก็บในรูปแบบที่กล่าวมาแล้วข้างต้นคุณสามารถเรียกใช้ข้อความค้นหาที่เรียบง่ายได้รับข้อความค้นหาคำว่า Trades, Timestamps สำหรับ GOOG เมื่อวันที่ 9 22 2014. รับการค้าทั้งหมดสำหรับ GOOG, FB BEFORE 9 1 2014 AND AFTER 5 1 2014. คุณสามารถเรียกใช้การสืบค้นข้อมูลรวมดังกล่าวได้ทุกวันและใช้ข้อมูลพัสดุเพื่อหาเมตริกก่อนการซื้อขายก่อนตลาดเนื่องจาก Hive ดำเนินการ mapreduce ภายในแบบสอบถามเหล่านี้จะไม่เร็วมาก เพื่อให้ได้ผลลัพธ์ที่รวดเร็วคุณสามารถใช้บางส่วนของโครงการหน่วยความจำเช่น Impala หรือ Spark ฉันมีตัวเองใช้ Impala เพื่อเรียกใช้การสอบถามในตารางรังของฉันและฉันได้เห็นการปรับปรุงที่สำคัญในเวลาทำงานสำหรับการค้นหาของฉันประมาณ 40x นอกจากนี้คุณ wouldn t จำเป็นต้องทำการเปลี่ยนแปลงโครงสร้าง ของข้อมูลข้อมูลแทรกกรณีใช้คุณสามารถใช้เครื่องมือเช่น Flume หรือ Kafka สำหรับการแทรกข้อมูลในเวลาจริงไปยัง Hadoop และด้วยเหตุนี้ไปยังตารางรังผึ้ง Flume สามารถปรับขนาดได้เป็นเส้นตรงและยังสามารถช่วยในการประมวลผลเหตุการณ์ได้ทันทีขณะที่ถ่ายโอนโดยรวม การรวมกันของเทคโนโลยีข้อมูลขนาดใหญ่จำนวนมากสามารถเป็นทางออกที่ดีอย่างแท้จริงสำหรับปัญหาที่คุณเสนอและโซลูชันเหล่านี้จะมีขนาดใหญ่เป็นจำนวนมากข้อมูลคือ Apache Rivet เป็นระบบสำหรับสร้างเนื้อหาเว็บแบบไดนามิกผ่านทางภาษาการเขียนโปรแกรม Tcl พร้อมกับ Apache Web Server ได้รับการออกแบบมาเพื่อให้ทำงานได้รวดเร็วมีประสิทธิภาพและขยายได้ใช้ทรัพยากรระบบน้อยและเรียนรู้ได้ง่ายและเพื่อให้ผู้ใช้สามารถใช้แพลตฟอร์มที่สามารถใช้งานได้เช่นกัน ได้แก่ คลาสอรรถประโยชน์การใช้งานสตรีมตัวกรองไฟล์การเปรียบเทียบไฟล์และการเรียนในเอนเดียน ชุมชน Apache Flex มีความยินดีที่จะประกาศเปิดตัว Apache Flex SDK 4 16 0. Apache Flex SDK เป็นโปรแกรมประยุกต์ที่มาพร้อมกับ Open Source Application Apache Tomcat nounces พร้อมทันทีของ Apache Tomcat 8 5 12.Tomcat 8 x ผู้ใช้ควรใช้ 8 5 x รุ่นใน 8 8 x x เผยแพร่ทีม Apache Tomcat ประกาศความพร้อมของ Apache Tomcat 9 0 0 M18.Apache Tomcat 9 เป็นซอฟต์แวร์โอเพ่นซอร์สของ Java Servlet, JavaServer Pages, Java Unified. Latest Activity TheASF ที่ ApacheCon พบกับผู้ให้บริการผลิตภัณฑ์สำหรับผู้ที่อยู่เบื้องหลังโครงการ Apache ในชุมชนที่เป็นมิตรและไม่ขายพื้นที่ชุมชน Apache Flex ยินดีที่จะประกาศเปิดตัว Apache Flex SDK 4 16 0. Apache Flex SDK เป็นโปรแกรมโอเพนซอร์สที่มีประสิทธิผลสูง กรอบการสร้างและชุมชน Apache Ignite ยินดีต้อนรับคุณเข้าร่วม Big Data Bootcamp ในวันที่ 27 มีนาคม 28 และ 29 กรกฎาคม พ. ศ. 2560 ณ Santa Clara ประเทศสหรัฐอเมริกาการประชุมรวบรวมผู้เชี่ยวชาญและผู้ขายจาก Big Data และเป็นวันศุกร์ที่ผ่านมาแล้วนี่คือสิ่งที่ชุมชน Apache ได้รับการทำงานในสัปดาห์นี้การจัดการคณะกรรมการ ASF และการกำกับดูแลของธุรกิจและกิจการของ บริษัท ตามที่ 10 ตุลาคม 2009.MapReduce แน่นอนดึงดูดแรงลากโดยเฉพาะอย่างยิ่ง แต่โดยไม่ได้เฉพาะในรูปแบบของ Hadoop ในผลพวงของ Hadoop Jeff Hammerbacher จาก Cloudera เดินทางไปหาฉันได้อย่างรวดเร็วผ่านลูกค้า 25 คนที่เขาดึงข้อมูลจาก Cloudera ข้อมูลข้อเท็จจริงและเมตริกต่างๆมีอยู่มากมายแน่นอนว่าบางส่วนมีการผลิตหนักด้วย Hadoop และ คนอื่น ๆ ลงทะเบียนสำหรับการฝึกอบรม Hadoop เริ่มต้นเมื่อสัปดาห์ที่แล้วบางกลุ่มมีกลุ่ม Hadoop ในพันโหนดหลายกลุ่มมีกลุ่ม Hadoop ในช่วงโหนด 50-100 อื่น ๆ เป็นเพียงการสร้างต้นแบบการใช้งาน Hadoop หนึ่งดูเหมือนจะเป็น OEMing กลุ่ม Hadoop ขนาดเล็กในแต่ละชิ้นส่วนของอุปกรณ์ที่ขายข้อมูลการส่งออกจำนวนมากจาก Hadoop ไปยัง DBMS เชิงสัมพันธ์อื่น ๆ อีกมากมายเพียงปล่อยให้อยู่ใน HDFS Hadoop Distributed File System เช่นกับ Hive เป็นภาษาการสืบค้นหรือในตรงหนึ่ง กรณี Jaql. Some เป็นชื่อที่ใช้ในครัวเรือนในธุรกิจเว็บหรืออื่น ๆ อื่น ๆ ดูเหมือนจะคลุมเครือสวยอุตสาหกรรมรวมถึงบริการทางการเงินโทรคมนาคมเอเชียเท่านั้นและค่อนข้างใหม่ชีวสารสนเทศและการวิจัยอื่น ๆ สติปัญญาและจำนวนมากเว็บและสื่อหรือการประยุกต์ใช้ พื้นที่ที่กล่าวถึงและทับซ้อนกันเหล่านี้ในบางกรณี include. Log และหรือการวิเคราะห์ clickstream ของชนิดต่างๆการตลาดการวิเคราะห์การเรียนรู้คณิตศาสตร์และการทำเหมืองข้อมูลที่ซับซ้อนหรือการทำเหมืองข้อมูลที่มีความซับซ้อน ocessing การประมวลผลข้อมูล XML การรวบรวมข้อมูลและประมวลผลข้อความหรือการเก็บข้อมูลทั่วไปรวมถึงข้อมูลแบบตารางเชิงสัมพันธ์เช่นการปฏิบัติตามเราได้ตรวจสอบรายการนี้อย่างรวดเร็วจนเราไม่ได้ใส่รายละเอียดใด ๆ ให้กับผู้ใช้รายใดรายหนึ่ง โดดเด่นเป็น บริษัท ผู้ให้บริการโฆษณาที่มีท่อรวมซึ่งประกอบด้วยงาน 70-80 MapReduce นอกจากนี้ฉันยังได้พูดคุยเกี่ยวกับ Omer Trajman จาก Vertica เมื่อวานนี้ซึ่งทำให้ฉันประหลาดใจด้วยการระบุจำนวนลูกค้าที่ใช้ Vertica เป็นจำนวนมากในการผลิต กับ Hadoop เช่นมากกว่า 10 ของลูกค้า Vertica ผลิต Vertica เมื่อเร็ว ๆ นี้ทำขาย 100 และแน่นอนผู้ซื้อทั้งหมดไม่ได้อยู่ในการผลิตยังใช้ Vertica Hadoop ดูเหมือนจะได้เริ่มต้นในที่มั่น Vertica บริการทางการเงินโดยเฉพาะในการซื้อขายทางการเงินกับการวิเคราะห์เว็บและ เช่นมาหลังจากนั้นขึ้นอยู่กับความพยายามในการสร้างต้นแบบในปัจจุบัน Omer คาดว่า bioinformatics จะเป็นตลาดการผลิตที่สามสำหรับ Vertica Hadoop โดยมีการสื่อสารโทรคมนาคมในรูปแบบ fourt h. Unsurprisingly ทั่วไปรูปแบบการใช้ Vertica Hadoop ดูเหมือนว่าจะเป็นอะไรบางอย่างกับข้อมูลใน Hadoop. Dump ลงใน Vertica ที่จะ queried สิ่งที่ฉันไม่พบที่น่าแปลกใจก็คือข้อมูลที่มักจะไม่ลดลงโดยการวิเคราะห์นี้ แต่ระเบิด ในขนาดของคลังสินค้าที่สมบูรณ์แบบของการซื้อขายการจำนองอาจมีขนาดเพียงไม่กี่เทราไบต์ แต่โพรเซสซิงโพสต์บน Hadoop สามารถเพิ่มได้ตามขนาดของคำสั่งซื้อขนาด 1 หรือ 2 คำสั่ง Analogies ถึงความสำคัญและความสำคัญของข้อมูลที่ปรุงสุกในการประมวลผลข้อมูลทางวิทยาศาสตร์ และในที่สุดผมได้พูดคุยกับ Aster เมื่อไม่กี่วันก่อนเกี่ยวกับการใช้งานคอนเนคเตอร์ nCluster Hadoop Aster ซึ่งระบุว่าผู้ใช้ Hackerop Aster Hadoop ใช้งานเป็นส่วนหนึ่งของชุด ETL ซึ่งเป็นกรณีการใช้งานแบบคลาสสิกอย่างหนึ่งที่ยอมรับกับ Hadoop แม้ว่าจะเชื่อว่า MapReduce ควรทำกันอย่างถูกต้องใน DBMS สมัครสมาชิกฟีดข้อมูลทั้งหมดของเรา 9 Responses to How 30 องค์กรกำลังใช้ Hadoop. Vlad ในวันที่ 11 ตุลาคม 2009 3 34 am. I ได้ทำการคำนวณบางอย่างขึ้นอยู่กับข้อมูลที่เปิดเผยต่อสาธารณชน ilable บนอินเทอร์เน็ตระเบียน Yahoo Terasort ที่มีชื่อเสียงในการจัดเรียงข้อมูล 1 TB จริง 10 พันล้านบันทึก 100 ไบต์ในกลุ่มเซิร์ฟเวอร์ Hadoop.3400 ใน 60 วินาทีฉันจะละเว้นรายละเอียดการคำนวณ แต่ค่าเฉลี่ย IO ของ CPU disk และการใช้ IO ของเครือข่ายในระหว่างรัน .1, 5-6 และ 30 ตามลำดับตัวเลขเหล่านี้ไม่ใช่ตัวเลขที่แน่ชัด แต่ค่าประมาณขึ้นอยู่กับอัลกอริทึมการเรียงลำดับที่ใช้การตั้งค่าของคลัสเตอร์ซีพียูซีพียูพลังงานสูงสุด NIC throughput 1Gb และ 4 SATA disk array IO capability. So bottleneck แน่นอนคือเครือข่ายฉันคิดว่ามันไม่เพียง แต่สำหรับการเรียงลำดับ แต่สำหรับปัญหาอื่น ๆ มากมาย แต่ดูเหมือนว่าทั้งกลุ่ม Yahoo เป็น suboptimal จากมุมมองของสูงสุดที่ยั่งยืนหรือ Hadoop ไม่สามารถอิ่มตัวลิงค์ 1Gb OK ช่วยให้คิดว่าเราไม่ได้ใช้ ฮาร์ดแวร์เซิร์ฟเวอร์ แต่เพิ่มประสิทธิภาพมากขึ้นเซิร์ฟเวอร์และการกำหนดค่าเครือข่ายวิธีการเกี่ยวกับ 2 พอร์ต 10Gb NIC ต่อเซิร์ฟเวอร์และพอร์ต 128GB สลับเพียงหนึ่งโดยการเพิ่มเครือข่าย throughput จาก 30MB s ถึง 2GB s 2 10Gb พอร์ต NIC ต่อเซิร์ฟเวอร์ วินาทีเราสามารถลดจำนวนเซิร์ฟเวอร์ลงในคลัสเตอร์ได้ถึง 70.50 เซิร์ฟเวอร์และยังคงใช้งานได้นานถึง 60 วินาทีสามารถจัดเรียงข้อมูลได้ 2GB ต่อวินาที 20 ล้านระเบียน 100 ไบต์บนเซิร์ฟเวอร์หนึ่งเครื่องตรวจสอบว่ามีค่าใช้จ่ายอยู่ที่ประมาณ 7 ล้านเครื่อง ฉันสามารถสร้างกลุ่มของฉันน้อยกว่า 1 ล้านและเราไม่ได้พูดถึงการใช้พลังงานและค่าใช้จ่ายที่เกี่ยวข้องอื่น ๆ อุปกรณ์ฮาร์ดแวร์และสินค้าประดับประดาลดลงไม่ประหยัดราคาประหยัดคุณรู้หรือไม่ว่าลูกค้า V เหล่านี้มีจำนวนเท่าใด เมฆเช่นพวกเขากำลังทำงานบน V AMIs ใน EC2 และจำนวนของผู้ที่อยู่ในที่ 10 หรือเพื่อให้คุณ mention. Vlad เมื่อ 11 ตุลาคม 2009 10 40 pm. MapReduce ได้รับการสนับสนุนอย่างมากด้วยเหตุผลบางอย่างโดย Yahoo และ Facebook แต่ไม่ โดย Google Google และ Microsoft ได้พัฒนา Hadoops Pregel และ Dryad รุ่นถัดไปไว้แล้ว แต่ยังไม่สามารถใช้งานได้กับสาธารณชนทั่วไปและไม่ใช่ open-sourced ข้อมูลเกี่ยวกับ Pregel มีข้อ จำกัด แต่สำหรับฉันสถานการณ์ดังกล่าวทำให้สหภาพโซเวียตในช่วงปลายทศวรรษที่ 1980 ไม่สามารถทำได้ เพื่อสร้าง ซูเปอร์คอมพิวเตอร์ของตัวเองโซเวียตพยายามที่จะพลิกแพลงคนอเมริกันคนอื่น ๆ Cray คุณสามารถทำซ้ำสิ่งที่ได้ทำไปแล้ว แต่คุณจะต้องอยู่เบื้องหลังเสมอดาวน์โหลด DRD สามารถดาวน์โหลดได้จากเว็บไซต์ MS แต่สำหรับงานวิจัยทางวิชาการเท่านั้น RC เมื่อวันที่ 12 ตุลาคม 2009 3 46 น. Dryad ดีกว่า Hadoop หรือไม่ถ้าเป็นเช่นนั้นการปรับปรุงจะมีขึ้นในวันที่ 12 ตุลาคม 2009 3 53 น. RC จากเอกสารข้อมูลอ้างอิง Dryad ความแตกต่างพื้นฐานระหว่างสองระบบ Dryad และ MapReduce คือแอ็พพลิเคชัน Dryad อาจระบุ DAG การสื่อสารโดยพลการแทนที่จะต้องมีลำดับแผนที่แจกจ่ายการจัดเรียงลดการดำเนินงานโดยเฉพาะจุดกราฟอาจใช้อินพุตหลายรายการและสร้างผลลัพธ์หลายรายการ ประเภทต่างๆสำหรับแอพพลิเคชันจำนวนมากช่วยลดความยุ่งยากในการทำแผนที่จากอัลกอริทึมไปจนถึงการใช้งานทำให้เราสามารถสร้างไลบรารีพื้นฐานของโปรแกรมย่อยขั้นพื้นฐานและพร้อมกับความสามารถในการใช้ประโยชน์จาก TCP pipes และหน่วยความจำร่วมสำหรับขอบข้อมูล ในเวลาเดียวกันการใช้งานของเรามีความพอเพียงที่จะสนับสนุนคุณลักษณะทั้งหมดที่อธิบายไว้ในกระดาษ MapReduce เมื่อวันที่ 19 ตุลาคม พ. ศ. 2552 7 54 pm. Vlad ความแตกต่างก็คือโซเวียตไม่ได้มีโอเพนซอร์สอยู่เบื้องหลังพวกเขา รูปแบบในประวัติศาสตร์ที่ผ่านมาได้รับ 1 โซลูชันซอฟต์แวร์ที่เป็นกรรมสิทธิ์ออกมา 2 โซลูชันโอเพนซอร์สที่ดีมีความสามารถคล้ายกันมา s open later โซลูชันโอเพนซอร์สได้รับประโยชน์มหาศาลจากนักพัฒนาซอฟต์แวร์ชั้นนำ บริษัท เทคโนโลยีชั้นนำนักวิชาการชั้นนำ 4 โซลูชันโอเพนซอร์สแก้ปัญหาการใช้งานที่เป็นกรรมสิทธิ์ในการใช้งานเนื่องจากสามารถใช้งานได้ง่ายและเอกสารประกอบ 5 โซลูชันที่เป็นกรรมสิทธิ์ได้รับความเสียหายเนื่องจากมีผลทำให้เปลี่ยนเป็นเปิด source. Hadoop อยู่ที่ไหนสักแห่งใน 3 แห่งและบางส่วนอยู่ใน 4 ข้อนี้ไม่สอดคล้องกับการสำรวจก่อนหน้านี้ของกรณีการใช้งาน Hadoop เป็นผู้อำนวยการฝ่ายการข้อมูลขนาดใหญ่และการวิเคราะห์ของ Bank of America เมื่อปีที่ผ่านมา Vertica ชี้ว่าประมาณ 10 เปอร์เซ็นต์ของลูกค้าที่อยู่ในกลุ่มการผลิตมีแนวโน้มเป็นที่รู้จักของลูกค้าบริการด้านการเงินของ Hadoop ในหน้าค้นหาบล็อกและเอกสารทางเทคนิคของเรา Monash Research blogs. DBMS 2 ครอบคลุมการจัดการฐานข้อมูลการวิเคราะห์และเทคโนโลยีที่เกี่ยวข้องเทคโนโลยีข้อความครอบคลุมการทำเหมืองข้อความการค้นหาและซอฟต์แวร์ทางสังคม Strategic Messaging วิเคราะห์กลยุทธ์ด้านการตลาดและการรับส่งข้อความ Monash Report จะตรวจสอบเทคโนโลยีและประเด็นปัญหานโยบายสาธารณะ Memories Memories จะกล่าวถึง ประวัติของอุตสาหกรรมซอฟต์แวร์การให้คำปรึกษาเกี่ยวกับผู้ใช้การสร้างรายการย่อการปรับแผนกลยุทธ์ของคุณเราสามารถช่วยแนะนำผู้จัดจำหน่ายได้เราบอกผู้ขายว่าเกิดอะไรขึ้นและสำคัญยิ่งกว่าสิ่งที่ควรทำเกี่ยวกับเรื่องนี้
No comments:
Post a Comment