ChatGPT 和生成式 AI 讓專家作者更有價值
已發表: 2023-02-26ChatGPT 和生成式 AI 仍然需要專家作者
ChatGPT 的營銷效果更好嗎? 生成式 AI 工具對作者來說更多的是威脅還是幫助?
有效的內容營銷更重要的是內容的易用性和數量。 更多低質量的內容永遠無法與真誠地嘗試發布關於特定主題的最佳頁面相抗衡。 我很難看到公認的權威作者在哪裡可以被自動內容編寫工具取代。 但是,每個作者都應該了解自動生成的內容以及它如何影響他們的出版物和作者簡介。
最好先了解生成式人工智能 (GAI) 和其他形式的 AI 生成內容如何影響您的出版物和作者資料。 多個競爭來源正在出現,現在與流行的 OpenAI 製造商 ChatGPT 競爭。 Microsoft Sydney 和 Google Bard AI 屬於較新的生成式 AI 系統,它們可能會生成更高級的自然語言內容格式,這些內容格式包含豐富的答案。
考慮生成式 AI 技術的發展方式很重要。 畢竟,內容營銷經理和 SEO 不斷需要構建他們的系統和內容策略。 這不僅包括基於人工智能已經在做什麼,還包括它在未來可能取得的成就。 它強調了實施作者模式標記的重要性,以便可以輕鬆識別和引用作者。
最好認識到當前基於聊天的搜索的優勢、局限性和問題。 也就是說,早期採用者有最好的路線圖可以隨著它的進步而改進。
生成式 AI 使作者的專業知識和高質量數據更有價值。
生成式 AI 內容是在損害還是幫助您的品牌?
答案是——這取決於。 我們不能再忽視人工智能工具的影響。 每個作者和企業現在都需要更深入地關注營銷研究,以確定適合您的場景的正確答案。 如果您使用的是 ChatGPT,是否是另一種生成式 AI 工具,您需要了解它們對您在搜索引擎結果頁面 (SERP) 中的利基市場的影響。 生成的 AI 內容可能會改變您的競爭範圍,您的答案顯示的位置,以及您是否贏得 SERP 點擊。
發布兩個月後,人工智能聊天機器人 ChatGPT 的用戶數量達到 1 億,成為有史以來增長最快的互聯網應用程序。 隨著谷歌推出 Bard 和 Bing 共享其新的悉尼人工智能搜索引擎,搜索正在迅速發展。 雖然 AI 工具可以節省作者的時間,但使用它們可能會產生讓您的觀眾失望的通用內容。 許多錯誤陳述已經令人反感。 作者需要通過避免斷章取意的內容來保護他們的個人品牌聲譽。 特別是,YMYL 內容可能會通過未經編輯的生成 AI 工具可能會說的話來傷害社會。
作者應該使用生成式 AI 技術來創建內容嗎?
由於 AI 工具可以加速您的工作,因此這是個人決定。 謹慎使用。
- 在發布之前徹底編輯每個內容片段。
- 對內容的準確性、語氣、上下文和有用性持懷疑態度。
- 雙重事實檢查它所做的任何聲明或它產生的統計數據。
- 找出有問題的部分、含糊不清的部分、無用的部分和廢話; 然後改進。
- 當您的聽眾感到被說話時,您最清楚! 適應和個性化,以便他們可以識別您的品牌並與您建立聯繫。
我喜歡梅奧診所相信“增強智能”而非“人工智能”的方式。
“ChatGPT 將人工智能帶入了一個新領域,一個可以創造真正價值和明顯危害的領域。 但是我們不相信人工智能,我們相信增強智能——也就是說,作為人類,給我們對過去的數據進行統計分析,幫助我們做出未來的決定是很美妙的。 然而,將決策權交給統計模型充滿了危險的可能性。” – 為生成式 AI 的世界做準備,John D. Halamka,醫學博士,理學碩士,2023 年 2 月 1 日
主要依賴 ChatGPT 和其他 AI 生成工具來提供持續有用的、事實正確的信息是不明智的。 作者的專業知識對於可能影響用戶健康或財務安全、安全或福祉的 YMYL 內容更為重要。 例如,Mayo Clinic 始終與具有主題相關專業知識的現實生活中的專家合作,以準確地製作和/或審查內容。
ChatGPT AI 回答對內容作者作者身份的影響
令人擔憂的是,許多讀者可能沒有發現其中許多錯誤答案。 需要有一個可識別的真實基準來識別許多這些人工智能聊天機器人的“資格”。 如果您已經熟悉某個主題,則可以更輕鬆地識別虛假和誤導性陳述。 甚至略讀的讀者可能會錯過適當的上下文並將錯誤陳述假定為真實。
AI 技術正在爆炸式增長,數字營銷人員、內容經理、SEO 專業人員和作家都在提出合理的問題。 目前,這些自動化的人工智能響應產生的問題多於明確的答案。
關於 Google Bard、Syndey 和 ChatGPT 的懸而未決的問題
- ChatGPT 或機器人生成的大部分內容的作者歸屬是誰?
- 內容營銷是否受到這種快速發展的人工智能技術的威脅或重新殖民?
- 原創內容作者如何與 Google Bard、ChatGPT 或微軟的 Bing AI 競爭?
- 如果人工智能培訓被擁有版權(明示或暗示)的人用於內容製作,這將如何改變版權侵權問題?
- 我們是否應該嘗試禁止 AI Tools 掃描我們的內容?
- 或者在不久的將來,人工智能技術將如何改變數字營銷領域?
- ChatGPT 是否將它給出的答案歸因於它從中提取的來源?
- 它藉用的來源是否真的從中獲得了任何點擊?
- AI 的回答能否在 People Also Ask 框中贏得展示?
- 是否應該要求內容作者將他們使用人工智能生成的內容告知他們的內容營銷經理?
- 隨著 AI 機器人的出現,搜索份額的需求會下降嗎?
- 人工智能係統應該如何表現,誰來決定?
利基專家作者經常被引用
主題專家出現在生成的 AI 內容中。
建立了主題信任的企業和作者似乎更常被採購。 這個前提支持進行 EEAT 評估的原因。 目前,內容創作者可以不斷努力成為滿足觀眾即時需求的真實來源。 尋找生成式 AI 輸出包含您的數據高於其他數據的位置。 您可能會認為這是作者為了給 AI 留下深刻印象而展開的競賽。
Google 對其 16,000 名質量評估員進行培訓,以發現互聯網上質量最好和最差的網站。 它還剛剛更新了其質量內容系統[1]以做得更好。 這種有用的、值得信賴的、專業創作的內容的重要性仍然存在。
“找到負面(缺失的內容)是一項艱苦的工作。 需要閱讀和深入思考這個概念才能意識到缺少什麼。 發現沒有其他人正在解決的需求是您獲得關鍵字黃金的方式。
使用 ChatGPT 進行關鍵字研究的威脅是愛上了它的易用性。 好的 SEO 的真正價值仍然在於努力處理細微差別和識別負空間。 (一旦 AI 可以做到這一點,我們就會有新的威脅要討論。)
特別是隨著系統在提供人們需要的東西方面變得更加智能,評估關鍵字心理細微差別的人類差異化因素將變得更加重要。” – 巴里·施瓦茨
此外,自動問答在某種程度上正在採購事實支持的內容。 這可能會增加使用事實檢查模式標記在 SEO 中取勝的價值。 信息檢索增強生成——使 LLM 能夠進行網絡搜索並參考外部文檔——為提高事實準確性提供了一條有前途的途徑。
使用機器將語言轉化為模式需要提高其區分事實和虛構的能力。 它有助於遵循知識庫專利的引入,尤其是實體提取,並且搜索引擎可能會管理驗證和交叉引用。
2022 年斯坦福大學人工智能報告指出,大多數生成模型只有 25% 的時間是真實的。 [2]主要依賴生成式 AI 工具有可能通過降低製造錯誤信息的障礙來加深對作者和企業的不信任。 這些機器人在新聞中受到打屁股,因為有時會捏造事實並以非常合理的方式將其記錄下來。 然而,Standford 預計這一趨勢將繼續依賴生成式 AI 工具。 報告稱,2021 年投資於 AI 和 AI 相關初創公司的私人投資比 2020 年增加了 103%(965 億美元對 460 億美元)。
作者是否應該將 AI 作家評估為所有誇大的炒作?
原創的、專家的、權威的作者是不可替代的。 雖然 OpenAI 通過 Dall-E、Jasper 和 ChatGPT 等產品取得了驚人的成就,但它們仍然依賴於良好的提示和人工質量檢查。 未來看起來很有希望,他們將能夠擴展到每天可靠地回答數十億條提示。 許多人質疑他們將如何歸因於來源。 了解當前和不斷發展的流程的作者將對這如何影響他們的作者知識面板和權威性有更重要的了解。
與其他人一樣,新的 Bing AI Prometheus 尋求以類人方式交談的能力,並且比用戶可以利用的其他來源更有知識地這樣做。 它可能會在 SERP 中顯示一組結果的“讀者摘要”集合,但它需要更好地驗證並處理衝突的數據輸入。 人們想知道它是在引用權威作者還是它自己的人工智能生成的內容。
谷歌的知識圖譜令人印象深刻,因為它具有較低的容錯性,同時在將數據移入其知識庫之前尋求消除現有錯誤。 您的內容結構化、真實和來源越好,有助於建立作者的 EEAT。 相反,避免寫任何可能被視為具有誤導性或操縱性以在搜索排名中獲得“不公平優勢”的內容。
“ChatGPT 之類的東西很擅長重寫或重組,但不擅長原創或創作。 在內容方面,它可以為作家創建足夠的內容簡介,但它不能取代對作家的需求。 可以解決信息衝突的人。 – @brodieseo
使用生成式 AI 工具的潛在缺點
使用 ChatGPT 或其他生成式 AI 寫作助手的風險和收益可以通過“增強智能”來平衡。
生成式 AI 系統的當前問題:
- 缺乏透明度。
- 受限於他們最新的訓練數據。
- 對於許多主題,由於可信知識變化迅速,因此存在重大缺陷。
- 數字人工智能工具通常依賴於未經過濾的互聯網和社交媒體內容。
- 即使他們生成的文檔閱讀順暢且邏輯看起來合理,也經常錯位上下文。
- 來源內容充斥著錯誤信息。
- 缺乏不偏不倚的能力。
- 缺乏與有經驗的人的直覺判斷相匹配的能力。
- 缺乏新鮮概念的創造力。
為什麼我們應該關心生成式 AI 答案?
作者、出版商、SEO 和數字營銷人員需要關注,因為 AI 生成的內容將繼續增長。
無法忽視利用對話式人工智能發揮優勢的新型聊天機器人的影響。 我們必須關心,因為:
- 人工智能已經被廣泛採用,谷歌正在這個領域展開競爭。
- 早期採用者有機會在這個領域更快地學習和成長。
- 用戶參與很重要。 更多地關注創作讀者想要的內容並建立關係。
- 您是添加個人語氣和風味的最佳人選。 機器永遠不可能是你。
- 您的品牌 SERP、收入和未來業務可能會受到影響。
大多數技術專家都認為,人工智能模型已經足夠好,足以誤導一些人,讓他們認為他們正在與一個真實的、聰明的人進行對話。 這一進步和其他 AI 進步激發了一些作者重新審視哪些系統安全有效、不歧視、尊重數據隱私以及讀者可以尋求人類替代方案。
雖然為 ChatGPT-3 和其他技術提供動力的技術有可能顛覆各種利基市場,這令人興奮,但生成人工智能仍處於嬰儿期,不能完全依賴。 營銷界的熱議將繼續評估各種類型的人工智能和機器學習。 許多已經納入每天使用的 SEO 策略中。 即使聊天機器人不是您當前創作策略的一部分,了解各種 AI 系統並了解如何利用它們也將幫助您以更少的努力更好地完成任務。
希望作者和出版商會因其內容而受到讚揚。 未來 Bard AI 的截圖沒有引用。 這讓作家和 SEO 感到擔憂,因為我們聽說研究人員甚至在那時就考慮到了歸因問題。
Barry Schwartz 和其他人報告說,Microsoft Bing 正在測試在 Edge 邊欄中默認不顯示對某些查詢的引用或發布者鏈接。 [3]它沒有顯示出版商/作者的鏈接,而是顯示“點擊查看”。 只有當讀者採取點擊操作時,Bing 才會顯示引文或鏈接。
Google Cares 人工智能內容是否真正有用且準確
谷歌關於人工智能內容作用的修訂指南建議,當內容最初是使用人工智能生成的時,網站所有者要對所有人保持坦率和透明。 Lily Rae 表示:“谷歌沒有建議網站所有者在作者署名中將 AI 列為實際作者姓名,但他們確實鼓勵網站所有者向讀者清楚地揭示 AI 在內容創建過程中的使用程度” ”
我喜歡她在AI 內容在 SEO 中的作用文章中談論與現實生活中的專家合作的方式。 當談到醫療保健文章和金融內容時,“不這樣做是危險的,不僅會給您帶來 SEO 性能方面的麻煩,而且可能會給用戶帶來麻煩”,Rae 說。
人工智能內容生成只會讓優秀的人類編輯和主題專家的作用變得更加重要。 重要的是要記住,您與客戶和潛在受眾的關係是非常私人的,生成人工智能技術與訪問的數據一樣好。
生成人工智能係統需要人類專業知識的地方
在 AI 內容採用過程中能夠辨別最佳實踐是非常強大的。 作者和 SEO 可以一起最好地導航其在以數據為中心、性能驅動的內容創建策略中的角色。 ChatGPT 的推出促使許多出版商與他們的主要作者-貢獻者安排編輯和管理策略會議。 經常討論的主題是如何處理生成的內容、可能的版權問題、作者身份和剽竊。
專家作者在生成人工智能革命中的思考和策略:
1. 讀者信任構建作者專業知識的人類經驗。
人工智能將永遠尋求聽起來像人類; 那是因為它缺乏人的優勢。 它只是藉用別人的著作。 機器人無法與人類觀眾有第一手經驗。 它永遠不會。 生成式人工智能係統試圖在其創建的內容中“複製”真實的情感或情緒,但它充其量只是“複製”。 谷歌在 EEAT 中添加了一個新的 E,以強調作者在寫作時的經驗,原因是——它不能由 AI 生成。 只有人類內容作者才能為文字添加真實的品質。
2. 主題專家人類可以成為生成式 AI 的最佳仲裁者。
主題專家的編輯和內容審查培養了信心和信任。
每個搜索引擎都在尋求為其用戶提供非常專業的高質量數據。 如果以及何時使用生成式 AI 系統,主題專家人類作者對於提示和數據質量的培訓非常有價值。 專家作者可以比機器更好地確定和識別信息質量問題。
3. 沒有什麼可以取代與讀者有關係的作者。
谷歌文檔強調作者身份、作者署名和簡介、作者評論者、貢獻者等的使用。它的質量評估者尋求內容創建過程和創建者的透明度。 他們試圖為每個內容片段確定一個明確的目的,這將對用戶體驗有獨特的幫助。 確定的作者是人類內容創作者與讀者之間的關係角色。
法學碩士不是完美的健談者。 雖然生成的人工智能可能會產生有用的電子郵件、信件、文章、計算機程序、報告、博客文章、演示文稿、視頻等初稿; 它不能取代一對一的人類對話。
4. 有經驗的作者可以創造性地解決問題。
小眾專家作者可以利用經驗經常賦予他們的“第六感”; 創造性地解決問題的能力。 這通常會導致提供創造性的解決方案來嘗試解決新問題。 作者不需要理解代碼塊、公式/腳本、表格數據、語言翻譯、商業用途許可等; 他們可以依靠熟練的 SEO 來擴大他們在搜索中的答案,以便他們可以找到、有意義和有用。
此外,主題專家可以更輕鬆地識別使用 chatGPT 創建的 AI 內容。 即使它在語法上是正確的並且拼寫錯誤為零,但它通常只是重複以前發表的想法的主題上的大量廢話。 它根本無法取代在特定領域具有多年經驗的作者所寫的內容。
就我個人而言,我喜歡一本好書,您可以在其中“感受到”作者在其寫作背後提供幫助的意圖。 而且,如果我有任何疑問、希望僱用他們或提出可能的合作夥伴關係,我可以親自與他們聯繫。
5. 滿足內容目標的長遠觀點。
具有作者知識面板的企業主和作者可以探索基於 LLM 的知識管理的概念以及知識圖包含策略。 精細調整的內容管理包括創建定制內容以實現實體的最終目標。 這裡的智慧適用於—— “不要走捷徑,因為它們會花太長時間。”
“......擁有大量高質量獨特內容以及專業編輯、審稿人和內容創作者大軍的出版商可能會從巨頭爭奪生成人工智能主導地位的戰鬥中受益。” – ChatGPT 生成人工智能革命的意外贏家,Alex Zhavoronkov 博士,醫療保健和長壽生物技術人工智能專家[4]
“……內容作者應該恐慌嗎? 這取決於他們的技能。 當然,AI 內容最終可能會取代通用的樣板內容公司像流水線一樣生產出來,以建立網絡形象並將流量吸引到他們的附屬鏈接(再看看你,CNET)。 而且總會有公司想要這種無聊的內容,因為它很便宜。
但這也將推動對與觀眾產生情感聯繫的高質量內容的需求。 能夠確定語氣並使內容脫穎而出的作家將受到需求。 有意見的專家將成為搶手的名人。 每一篇偉大文章的背後都有編輯和事實核查員,他們是 ChatGPT 革命的真正 MVP。” – 為什麼營銷內容作者不應該害怕 Carolyn Albee [5]的 ChatGPT
保持對多種因素影響內容在 SERP 中排名的速度和程度的認識。 主題權威、關鍵字競爭力、域權威、內容質量、內部鏈接、加載速度、XML 站點地圖等因素開始發揮作用。
優質內容仍然比其生成方式更重要
能夠為您的潛在客戶創造積極體驗的精彩內容是一項重要資產。
谷歌不太關心內容是如何生成的。 對這家科技巨頭來說重要的是高質量的內容。 作者應該為人們創作內容並展示他們的經驗、專業知識、權威性和可信賴性 (EEAT),而不是為了操縱排名。 谷歌過去的聲明在這個話題上一直很嚴厲。 為了跟上步伐,它發布了一份關於人工智能內容的更新聲明。
“適當使用人工智能或自動化並不違反我們的指導方針。”
Google 已投入多年和大量資金來打擊自動垃圾郵件。 它還指出:
“......重要的是要認識到並非所有自動化的使用,包括人工智能生成,都是垃圾郵件。
“......無論內容是如何產生的,那些在谷歌搜索中尋求成功的人應該尋求產生原創的、高質量的、以人為本的內容來展示 EEAT 的品質。”
對於自動生成的內容,我們的指導多年來一直保持一致。 使用自動化(包括 AI)來生成主要目的是操縱搜索結果排名的內容違反了我們的垃圾郵件政策。
谷歌在處理試圖操縱搜索結果的自動化方面擁有多年經驗。 我們的反垃圾郵件工作——包括我們的 SpamBrain 系統——將繼續,但是,垃圾郵件還是會產生。
這就是說,重要的是要認識到並非所有自動化的使用,包括 AI 生成,都是垃圾郵件。 長期以來,自動化一直用於生成有用的內容,例如體育比分、天氣預報和成績單。 人工智能有能力推動新的表達和創造力水平,並作為幫助人們為網絡創建精彩內容的重要工具。
這與我們一直以來關於用新技術賦予人們權力的想法是一致的。 我們將繼續採取這種負責任的方式,同時保持高標準的信息質量和搜索內容的整體有用性。” - 谷歌
Google 建議正在考慮使用生成式 AI 工具的作者將重點放在滿足 EEAT 準則上。 顯然,出色的原創內容將繼續在 Google 搜索中獲得獎勵。 谷歌關於創建有用的、以人為本的內容的指南更新了一個關於誰、如何和為什麼的新部分。 這些是作者在撰寫內容時應該問自己的問題。 [6]
生成式人工智能時代意味著擁抱技術
無論是撰寫新內容、確定關鍵字分組還是創建圖像,對於產品描述,生成式 AI 模型的使用才剛剛開始。
頂級生成 AI 工具的表格比較
生成人工智能實體 | 描述 | 首席執行官兼創始人 | 網址 | 發布日期 |
---|---|---|---|---|
ChatGPT 和 ChatGPT 3 | ChatGPT 以對話方式進行交互。 對話形式使 ChatGPT 可以回答後續問題、承認錯誤、挑戰不正確的前提並拒絕不適當的請求。 ChatGPT 是 InstructGPT 的同級模型,它經過訓練可以按照提示中的說明進行操作並提供詳細的響應。 | Samuel H. Altman:OpenAI 首席執行官 | 聊天GPT | 2022 年 11 月 |
谷歌吟遊詩人 | Bard 是一項實驗性對話式 AI 服務,由 LaMDA 提供支持。 它使用 Google 的大型語言模型構建並利用網絡信息,是激發好奇心的平台,可以幫助簡化複雜的主題。 這種人工智能 (AI) 工具最初將可供選擇的測試人員使用,然後再向公眾發布。 | Sundar Pichai:Google 和 Alaphebet 的首席執行官 | 谷歌吟遊詩人人工智能 | 將於 2023 年推出 |
普羅米修斯,必應AI | Promethean AI 是世界上第一個與藝術家合作的人工智能,在構建虛擬世界的過程中協助他們,通過提出想法幫助創造性地解決問題,並承擔大量平凡和非創造性的工作,因此您可以專注於什麼重要的。 | Andrew Maximov:首席執行官兼創始人 | 普羅米修斯人工智能 | 2023 年 2 月 |
達爾-E 2 | DALL·E 2 是一個新的人工智能係統,可以根據自然語言的描述創建逼真的圖像和藝術。 它依靠 OpenAI 開發的深度學習模型從“提示”生成數字圖像。 | Aditya Ramesh:共同發明人 | 達爾-E 2 | 2022 年 11 月 |
落地人工智能 | 它開創了以數據為中心的 AI 運動,在該運動中,數據集有限的公司可以實現 AI 的商業價值,並將 AI 項目從概念驗證轉移到全面生產。 包括 LandingLens。 | Andrew Ng:首席執行官兼創始人 | 谷歌的著陸人工智能 | 2017 年 9 月 |
碧玉聊天 | Jasper 是一個人工智能 (AI) 內容平台,提供 Generative AI 作為尖端技術,旨在製定正確的提示以實現最佳輸出。 它旨在讓營銷和銷售部門以及作者能夠更快、更輕鬆地繼續寫作。 | 戴夫·羅根莫瑟:首席執行官 | 碧玉人工智能 | 2022 年 12 月 |
Hill Web Marketing 利用支持即時工程和 SEO 生成 AI 的平台。 受 SEO 友好的文本生成工作流程支持的作者在深入的信息內容和電子商務相關內容方面都有更好的結果。 我們知道,Google 正在提高其區分為為人們增加價值而編寫的有用內容與其他動機的能力。 缺乏足夠的人工編輯和監控而創作和發布的無意義內容違反了 Google 的準則。 那是真正的內容垃圾郵件。
摘要:ChatGPT 如何為作者提供看不見的機會
出版商和作者可以使用現代內容優化技術中的當前 SEO。 相反,SEO 必須更新技術以適應 AI 的進步。 您可以一起最好地評估新內容如何被濫用、斷章取義或誤解。 阻止這種可能性的一種方法是利用事實核查員的協助。
在不斷發展和顛覆性的技術中,我們是誠信的守護者。 您的推薦可以解決問題,這些內容總是很可能會被找到(並鏈接到)。
隨著對話的發展,我們很樂意聽取您的意見致電 651-205-2410 進行 SERP 分析以了解 ChatGPT 對您的影響
參考
[1] https://developers.google.com/search/updates/helpful-content-update
[2] https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf
[3] https://www.seroundtable.com/bing-chat-in-edge-sidebar-no-citations-34941.html
[4] https://www.forbes.com/sites/alexzhavoronkov/2023/02/23/the-unexpected-winners-of-the-chatgpt-generative-ai-revolution/
[5] https://www.bol-agency.com/blog/why-marketing-content-writers-shouldnt-be-afraid-of-chatgpt
[6] https://developers.google.com/search/docs/fundamentals/creating-helpful-content#ask-who-how-why