大一工科生提高数学水平可以用什么书?
同济版高数,把课后习题全部认真做一遍,保证你能考的不错。如果对自己有特别高的要求,可以挑战一下吉米多维奇习题集。
刷下面这套书我觉得就差不多了,至少基础方面肯定是问题不大了,所有的题目都有比较详细的解答。
个人觉得,你在刷完这套书之后,就可以直接去考虑本专业的专业课了。数学对于你而言更多是一个应用工具。你不仅仅需要熟悉微分方程本身,并且你更加应该是去把这个东西,应用到你自己的学科当中去。
第一次尝试把数学用到自己的学科(数学建模)必然是存在生疏,并且可能有点痛苦的。甚至有一些符号和写法上面的习惯,和数学本身会有所不同。
大学毕业三年多。现在想重头学一下高等数学里的《群论》,请问一下数学大佬学习路线和基础理论从哪里开始?
感谢悟空问答小秘书邀请。
我是一叶知秋有仙则名,我来回答。
题主确实应该好好学习一下,不过首先应该学习的是高等数学的知识结构,叶秋恰好教了不少年的高数,但高数里确实没有群论。
高数是大学里非常重要的一门公共课了,是很多工科专业后续学习专业课的基础,高数在有些好学校的实验班里对应的是工科数学分析,其实就是研究微积分学,上册是一元函数,下册是多元函数。同济版函高数第七章也是上册最后一章是微分方程(其实是一元函数微积分学的应用),对应数学系专业的常微分方程,第八章也是下册第一章空间解析几何对应数学专业的解析几何,所以,高数严格来说对应数学专业的三门专业课。
高数的核心是极限,学好极限才能学好高数。至于群论,应该是基础数学方面的专业课,叶秋没学过,印象中本科时的高等代数里有一点相关概念,时间太长记不清楚了。不过群论应该是非常牛的,看到群论叶秋想起两个大名鼎鼎的天才,伽罗瓦(很多人这三个字未必能读对,galuowa:)和阿贝尔,都很年轻就去世了。
最先了解伽罗瓦是高中,当时刚毕业的一个非常有才华的年青老师带我们数学,给我们讲了伽罗瓦的故事,一个爱情故事,为了爱情,伽罗瓦和一个军官决斗,明知必输的决斗!还不说是谋杀!在决斗前的晚上,他一边上说我没有时间了,一边整理出了他的群论!当时,伽罗瓦是叶秋最崇拜的数学家,年青有才华,还那么勇敢,凄美的爱情故事最吸引人,可后来,叶秋了解到伽罗瓦为之决斗的女人竟然是个妓女而且对伽罗瓦也不是那么倾心,只能一声叹息!
阿贝尔是另一个悲伤故事,家里贫穷,父亲早早去世,他的成果一元五次方程没有代数一般解曾寄给高斯,可惜,高斯虽然是数学王子,天赋语无伦次、成果无比突出,但却是和坑王,坑了不少年青数学家,他竟然忘了看!阿贝尔是挪威人,也曾到德国和法国宣传自己的成果,但在生前一直没有得到认可,他的一生一直在苦苦的为养家糊而努力,去世后才有人为他争取到了到大学任职的机会。可惜,太晚了!
如果高斯能看到他的论文,这个天才可能早就可以到大学任职了,他的一生就没有这么悲惨了,可惜,没有如果。
伽罗瓦也是用群论给出一元五次方程及以上没有代数一般解,不过他的研究好像更深入一些!
不用基础,可以直接学
机器学习应补充哪些数学基础?
提出这个问题的人很好,表示你对机器学习的底层技术是有兴趣的,而不仅仅是个调库侠。最近几年因为机器学习的基础库特别强大,很多人可以在不大懂机器学习的情况下,就能实现一个还不错的人工智能应用。
从数学基础来说,大学工科数学的微积分,线性代数和概率论是必备的。也可以看看高纳德老爷子(对,就是the art of programming的作者)的具体数学。
另外,直接看上面的数学书可能无法理解到数学是如何运用到机器学习中的。这个时候就要介绍两本书了,一个是频率学派的代表作:统计学习基础,一个是贝叶斯学派的代表作:模式识别和机器学习PRML。
最后再说一下,以上书都不看,你也可以通过调用各种库写个能忽悠人的应用。所以本回答仅供有志青年参考。
我们知道,机器学习涉及到很多的工具,其中最重要的当属数学工具了,因此必要的数学基础可谓是打开机器学习大门的必备钥匙。机器学习涉及到的数学基础内容包括三个方面,分别是线性代数、概率统计和最优化理论。下面小编就会好好给大家介绍一下机器学习中涉及到的数学基础知道,让大家在日常的机器学习中可以更好地运用数学工具。 首先我们给大家介绍一下线性代数,线性代数起到的一个最主要的作用就是把具体的事物转化成抽象的数学模型。不管我们的世界当中有多么纷繁复杂,我们都可以把它转化成一个向量,或者一个矩阵的形式。这就是线性代数最主要的作用。所以,在线性代数解决表示这个问题的过程中,我们主要包括这样两个部分,一方面是线性空间理论,也就是我们说的向量、矩阵、变换这样一些问题。第二个是矩阵分析。给定一个矩阵,我们可以对它做所谓的SVD分解,也就是做奇异值分解,或者是做其他的一些分析。这样两个部分共同构成了我们机器学习当中所需要的线性代数。 然后我们说一下概率统计,在评价过程中,我们需要使用到概率统计。概率统计包括了两个方面,一方面是数理统计,另外一方面是概率论。一般来说数理统计比较好理解,我们机器学习当中应用的很多模型都是来源于数理统计。像最简单的线性回归,还有逻辑回归,它实际上都是来源于统计学。在具体地给定了目标函数之后,我们在实际地去评价这个目标函数的时候,我们会用到一些概率论。当给定了一个分布,我们要求解这个目标函数的期望值。在平均意义上,这个目标函数能达到什么程度呢?这个时候就需要使用到概率论。所以说在评价这个过程中,我们会主要应用到概率统计的一些知识。 最后我们说一下最优化理论,其实关于优化,就不用说了,我们肯定用到的是最优化理论。在最优化理论当中,主要的研究方向是凸优化。凸优化当然它有些限制,但它的好处也很明显,比如说能够简化这个问题的解。因为在优化当中我们都知道,我们要求的是一个最大值,或者是最小值,但实际当中我们可能会遇到一些局部的极大值,局部的极小值,还有鞍点这样的点。凸优化可以避免这个问题。在凸优化当中,极大值就是最大值,极小值也就是最小值。但在实际当中,尤其是引入了神经网络还有深度学习之后,凸优化的应用范围越来越窄,很多情况下它不再适用,所以这里面我们主要用到的是无约束优化。同时,在神经网络当中应用最广的一个算法,一个优化方法,就是反向传播。