編輯推薦
1 單詞實用
單詞+短語+句式+例句,全部來自電影、演講和歌詞,輕鬆掌握常用的錶達,寫作時自然文思泉湧。
2 語法透徹
文章結構+語法精講+句型結構,牢固掌握寫作基礎知識,讓你的寫作水平脫穎而齣!
3 模式創新
單詞、文章,需要的不隻是語法、詞匯,更需要的是方法,分解寫作法,極速提高寫作能力!
4 例句地道
全部來自美國原汁原味的萬能例句,句句經典、地道,經典寫作材料,拿來就能用!
5 方法有效
內容流行時尚,結構簡單明晰,分類精細詳盡,主題豐富多彩,寫作含金量大大提高。
內容簡介
《英文寫作看這本書就夠瞭:用美國人的方法去寫作》:
《英文寫作看這本書就夠瞭:用美國人的方法去寫作》由4大部分組成,匯集名篇佳句、寫作建議,其教授的寫作方法獨特、易學易懂,是一本獨具創新的寫作教材!語法精講、單詞詳解、寫作模闆、寫作建議,以膾炙人口的電影、歌詞等流行元素為話題,便於活學活用,整體提高寫作構思能力。總結寫作中的標點符號的用法、經常齣錯的錶達以及寫作中不成文的規定,讓你的錶達更流暢!
《英文寫作看這本書就夠瞭:用美國人的方法去閱讀》:
《英文寫作看這本書就夠瞭:用美國人的方法去閱讀》特點:寫作豐富:單詞、句型、語法、翻譯都會瞭,寫作當然一舉拿下!單詞易學:
閱讀中單詞、短語不懂沒關係,中英文對照+音標,讓你隨心所欲記單詞!翻譯精準:每篇文章全翻譯,短語、句型、翻譯技巧,一目瞭然,讓你實戰翻譯,解決閱讀難題。語法實用:全麵解析文章重點語法,並配有專項練習,講解+練習+測試,徹底擊破語法難關!
作者簡介
樸相俊,他擁有能夠直擊核心問題的授課能力以及高超的寫作手法,是著名英文寫作講師。他獲得瞭美國佛濛特州Saint Michael's College TESL/TEFL的教育學碩士學位,現在是語言學院教材編寫室的主任,而且還是TOEFL的聘用講師。
鄭意石 畢業於韓國外國語大學,獲得瞭碩士學位,並且完成瞭多倫多大學的博士課程。他從很久以前開始就對語法書非常的關注,但是一直沒有遇到閤適的機會。他一直在很多大型並且有名的學院教授托業以及托福語法。本書中蘊含瞭他總結瞭10多年的語法秘訣。
李善玉,“剪枝解讀法”創始人。畢業於高麗大學英語教育係,之後在英國薩裏大學專攻TESOL。她首創“剪枝解讀法”,此方法不僅能提高閱讀文章的速度,還能輕鬆解決多個語法問題,深受好評。她獲得瞭學生親自選齣的“最佳人氣奬”,此後經多傢媒體報道,開始接受眾多學校和企業的邀請而進行講學。
已齣版
《無條件跟著做,英語閱讀》
《剪權速讀訓練The Best Reading 50》係列
《GO SKY! Listening Final》
《TOEFL IBT NAVIGATOR Reading》
《閱讀減肥基礎篇/實戰篇》
《Xpert TOEFL Reading/Listening》
內頁插圖
目錄
《英文寫作看這本書就夠瞭:用美國人的方法去寫作》
第一部分 英文寫作的ABC-句子的基本構造
Unit 01 隻有遵循一定的語序纔能夠組成一句話——英文的基本要素
主語+動詞+賓語
Unit 02 用連詞把多個句子連起來
單句、復句、並列句
Unit 03 雖然源於動詞,但這隻是它的錶象——動詞的謂語形式
動名詞與動詞不定式
Unit 04 動詞?不能隻是瞭解,必須學會使用
動詞的語法
Unit 05 當連詞遇到代詞的時候
關係代詞
Unit 06 不要隻見樹木不見森林
冠詞
Unit 07 已經學習瞭,正在學習,還是將要學習?
時態
Unit 08 把單詞適當地連接起來的“能手”
介詞
Unit 09 句子中的邏輯
人稱和數保持一緻
Unit 10 幫你解決文章中重復齣現的名詞
指示代詞
Unit 11 不是特定的,隻是指代不確定的事物
不定代詞
Unit 12 不是主語的錯,主語是受害者!
被動式
Unit 13 根據內容來劃分,英文的三種基本句型
陳述句、疑問句和祈使句
Unit 14 準確分清性質以及程度的差異
比較級
Unit 15 包容無限的想象世界
條件句
第二部分 清楚地瞭解一個單詞,就能解決基礎英文寫作的問題!
Unit 01 know,記住“知道”這個意思,並應用
我仍然知道你去年夏天乾瞭什麼。
Unit 02 錶示“這樣”的such
愛情是(那樣)容易的遊戲。
Unit 03 “怎樣”準確地使用how?
我隻是想打電話告訴你,我(對你)是多麼關心。
Unit 04 使用能夠拯救句子感覺的主語
工作態度不能決定你會獲得多少財富。
Unit 05 few&afew;,不是很多
如果你殺幾個人,大傢都會把你叫做殺人犯,(但是)如果殺害一百萬人,你就是徵服者。
Unit 06 contribute,在句子中錶示“貢獻”的意思
中國將以自身的發展促進世界的和平與發展。
Unit 07 life就是復活的live!
今天是你餘生的第一天。
……
第三部分 44個英文寫作模式,解決英文寫作70%的問題
第四部分 給你的英文寫作能力插上翅膀的27個語法
附錄 英文寫作建議
《英文寫作看這本書就夠瞭:用美國人的方法去閱讀》
精彩書摘
在漢語中有很多情況,即使變換瞭語序,也是可以成為一句話的。雖然會有少許的意思上的差異,但是仍然是一句完整的話。但是在英語中,我們必須遵守語序。
“我吃飯”這句話,按照英語中的語序來排列,應該是下麵這樣。
主語+動詞+賓語
(我+吃+飯)
即I eat rice.這樣的順序。
現在讓我們再添加上“好吃的”這個單詞。“好吃的”是形容詞,所以用英語錶示時用delicious這個形容詞,而不能用deliciously。但是“好吃的”這一個形容詞是修飾什麼的呢?
“好吃的我?”“好吃的吃?”“好吃的飯!”
是的,放在“飯”這一個名詞前邊是比較自然的。那麼用英語呢?也是相似的。
形容詞放在名詞前邊
I eat delicious rice.
好像很有趣,讓我們再做一次看看?
這次用“幸福地”來試一試。“幸福的”是形容詞,“幸福地”是副詞,所以在英語中應該使用副詞happily,而不能使用形容詞happy。那麼這一個副詞是修飾什麼的呢?
“幸福地我?”、“幸福地飯?”、“幸福地吃!”。
是的,副詞是用來修飾動詞的。在英語中也與此相似。雖然有例外的情況,但是一般情況下都是這樣的。
副詞放在動詞前邊
I happily eat delicious rice.
最後讓我們用“用勺子”來試一試。這是進行輔助說明的錶達。那麼這樣的錶達形式,在漢語中放在什麼位置呢?
“用勺子我吃飯。”“我用勺子吃飯。”“我飯用勺子吃。”“我吃飯,用勺子。”
放在什麼位置似乎都能講得通。那麼用英語來錶示呢?
在英語中這樣的錶達形式,要放在句子的最前邊或者最後邊纔行。但放在句子的最前的時候請加逗號。
附加說明(副詞)要放在句子的前邊或者後邊
With a spoon,I happily eat delicious rice.
I happily eat delicious rice with a spoon.
……
前言/序言
在市麵上有很多可以讓人們學習英語錶達的圖書,學習起來趣味盎然,並且非常實用。但是即使非常認真地學習瞭這些書,熟悉瞭很多的錶達方法,可到瞭真正寫作的時候,讀者發現自己連非常簡單的句子也寫不齣來,這是為什麼呢?很簡單就是因為沒有熟悉最基本的句子構造。
例如,雖然學習瞭會話書中的“Get out of here.(齣去)”,“No kidding.(不要開玩笑瞭)”這樣的句子,但是也有很多人寫不齣“雖然貧窮並不是一種羞恥,但是也不光榮”或者“我知道你去年夏天乾瞭什麼”這樣的句子。“貧窮”就是poor,它是一個形容詞,那麼“貧窮的東西”要怎樣錶達?“羞恥”是shame,“光榮”是honor,單詞大體上都知道,但是這樣根本就不能組織成一句話。這是在我們國傢接受瞭英語教育之後的人們齣現的典型情況。雖然知道單詞,但是根本不知道怎樣把這些單詞連接起來,也就是說,根本不清楚句子的基本構造。
英語句子的基本構造必須要通過語法來熟悉。但是在我們國傢的英語教育課程中,大傢學習的語法隻不過是為瞭解決高考、托業、托福、以及全國英語等級考試中齣現的問題,從而被動地學習語法。如果學習瞭真正的語法,肯定可以把一個句子寫得非常完美,但是現實中卻不是這樣。希望大傢擺脫為瞭考試而進行的語法學習,而為瞭實際的對話或者英文寫作去學習語法。
好的,這是一份關於另一本圖書的詳細簡介,旨在避免提及您提供的書名及其內容: --- 圖書名稱:《深度學習與自然語言處理實戰指南》 內容簡介 導言:開啓智能文本處理的新紀元 隨著人工智能技術的飛速發展,自然語言處理(NLP)已不再是遙不可及的未來概念,而是深刻影響著我們日常工作與生活的核心技術。從智能客服到機器翻譯,從情感分析到文本生成,NLP的進步極大地拓寬瞭人機交互的邊界。然而,要將這些前沿理論轉化為實際生産力,需要紮實的理論基礎與豐富的實戰經驗。《深度學習與自然語言處理實戰指南》正是為有誌於在這個領域深耕的讀者量身打造的綜閤性教程。本書不僅全麵梳理瞭NLP領域的核心概念,更側重於如何利用現代深度學習框架,高效構建、訓練和部署高性能的NLP模型。 第一部分:基礎奠基——從傳統方法到神經網絡 在深入探索復雜模型之前,本書首先為讀者打下瞭堅實的語言學和統計學基礎。 1. 語言學基礎與文本預處理: 詳細介紹瞭文本的清洗、分詞(Tokenization)、詞乾提取(Stemming)與詞形還原(Lemmatization)等關鍵預處理步驟。著重講解瞭如何處理多語言文本的特性,以及在不同應用場景下選擇閤適預處理策略的重要性。 2. 經典NLP模型迴顧: 簡要迴顧瞭基於統計學和機器學習的傳統方法,如隱馬爾可夫模型(HMM)、條件隨機場(CRF)在詞性標注(POS Tagging)和命名實體識彆(NER)中的應用。這部分內容有助於讀者理解深度學習方法的創新之處。 3. 詞嚮量的革命: 深入講解瞭詞嵌入(Word Embeddings)技術的原理與演進。內容覆蓋瞭經典的Word2Vec(CBOW與Skip-Gram)、GloVe,直至更現代的FastText模型。重點剖析瞭如何通過這些嚮量錶示,捕捉詞匯的語義和句法關係,為後續的深度學習模型奠定輸入基礎。 第二部分:深度學習核心——循環與注意力機製 本部分聚焦於深度學習在處理序列數據方麵的核心架構,這是現代NLP的基石。 1. 循環神經網絡(RNN)的深入解析: 詳細闡述瞭標準RNN的結構、梯度消失/爆炸問題,以及如何通過長短期記憶網絡(LSTM)和門控循環單元(GRU)有效解決這些挑戰。提供瞭在Keras/PyTorch框架下構建和訓練這些序列模型的代碼示例。 2. 序列到序列(Seq2Seq)模型與注意力機製: 探討瞭Encoder-Decoder架構在機器翻譯、文本摘要等任務中的應用。隨後,本書用大量篇幅詳細介紹瞭“注意力機製”(Attention Mechanism)的原理。讀者將學習到如何設計和實現自注意力(Self-Attention)機製,理解其如何使得模型能夠聚焦於輸入序列中最相關的部分,從而大幅提升翻譯和生成任務的質量。 第三部分:Transformer架構的統治地位與高級應用 Transformer架構的齣現徹底改變瞭NLP領域。本書力求讓讀者不僅能使用,更能深入理解其內部運作機製。 1. 解構Transformer: 詳盡剖析瞭原始Transformer模型的“多頭注意力”(Multi-Head Attention)、位置編碼(Positional Encoding)以及前饋網絡結構。通過對比RNN和Transformer,清晰展示瞭並行化處理帶來的效率提升。 2. 預訓練模型的浪潮——BERT傢族: 重點講解瞭基於Transformer的上下文嵌入模型,特彆是BERT(Bidirectional Encoder Representations from Transformers)的原理。內容包括掩碼語言模型(MLM)和下一句預測(NSP)的訓練目標。同時,介紹瞭RoBERTa、ALBERT等優化版本的關鍵改進點。 3. 模型的微調(Fine-Tuning)與下遊任務: 提供瞭針對不同NLP任務(如文本分類、問答係統、命名實體識彆)的微調範例。讀者將學會如何根據特定任務的需求,高效地適配預訓練模型,實現快速、高質量的模型部署。 第四部分:生成模型與前沿探索 本部分關注文本生成技術以及當前NLP研究的熱點方嚮。 1. GPT係列與自迴歸生成: 探討瞭以GPT(Generative Pre-trained Transformer)為代錶的自迴歸模型,理解其在文本續寫、故事創作等開放式生成任務中的優勢。討論瞭解碼策略(如貪婪搜索、束搜索、Top-K/Nucleus Sampling)對生成文本質量的影響。 2. 知識增強與模型對齊: 引入瞭如何將外部知識庫融入到NLP模型中的方法,以剋服純粹依賴文本訓練帶來的知識局限性。此外,還涵蓋瞭當前非常重要的“人類反饋強化學習”(RLHF)在模型對齊方麵的應用,確保生成內容的準確性與安全性。 實戰工具與環境配置 本書的所有代碼示例均基於Python 3,並兼容主流的深度學習框架(PyTorch和TensorFlow/Keras)。書中提供瞭詳細的環境搭建指南,確保讀者能夠快速配置GPU環境,並運行書中的所有代碼實例。每個章節末尾都附帶瞭“動手實踐”環節,引導讀者在真實數據集上復現和修改模型,鞏固所學知識。 目標讀者 本書麵嚮具備一定Python編程基礎,希望係統學習深度學習在自然語言處理中應用的技術人員、在校學生,以及希望將前沿NLP技術應用於實際業務場景的工程師和數據科學傢。通過本書的學習,讀者將能夠獨立設計、實現並優化先進的NLP解決方案。 ---