排序算法-数据结构与算法(五)
排序算法篇
恭喜各位小伙伴来到最后一部分:排序算法篇,数据结构与算法的学习也接近尾声了,坚持就是胜利啊!
一个数组中的数据原本是凌乱的,但是由于需要,我们需要使其有序排列,要实现对数组进行排序我们之前已经在C语言程序设计篇中讲解过冒泡排序和快速排序(选学),而这一部分,我们将继续讲解更多种类型的排序算法。
在开始之前,我们还是从冒泡排序开始回顾。
基础排序
冒泡排序
冒泡排序在C语言程序设计篇已经讲解过了,冒泡排序的核心就是交换,通过不断地进行交换,一点一点将大的元素推向一端,每一轮都会有一个最大的元素排到对应的位置上,最后形成有序。算法演示网站:https://visualgo.net/zh/sorting?slide=2-2
设数组长度为N,详细过程为:
- 共进行N轮排序。
- 每一轮排序从数组的最左边开始,两两元素进行比较,如果左边元素大于右边的元素,那么就交换两个元素的位置,否则不变。
- 每轮排序都会将剩余元素中最大的一个推到最右边,下次排序就不再考虑这些已经在对应位置的元素。
比如下面的数组:
那么在第一轮排序时,首先比较前两个元素:
我们发现前者更大,那么此时就需要交换,交换之后,继续向后比较后面的两个元素:
我们发现后者更大,不变,继续看后两个:
此时前者更大,交换,继续比较后续元素:
还是后者更大,继续交换,然后向后比较:
依然是后者更大,我们发现,只要是最大的元素,它会在每次比较中被一直往后丢:
最后,当前数组中最大的元素就被丢到最前面去了,这一轮排序结束,因为最大的已经排到对应的位置上了,所以说第二轮我们只需要考虑其之前的这些元素即可:
这样,我们就可以不断将最大的丢到最右边了,最后N轮排序之后,就是一个有序的数组了。
程序代码如下:
1 | void bubbleSort(int arr[], int size){ |
只不过这种代码还是最原始的冒泡排序,我们可以对其进行优化:
- 实际上排序并不需要N轮,而是N-1轮即可,因为最后一轮只有一个元素未排序了,相当于已经排序了,所以说不需要再考虑了。
- 如果整轮排序中都没有出现任何的交换,那么说明数组已经是有序的了,不存在前一个比后一个大的情况。
所以,我们来改进一下:
1 | void bubbleSort(int arr[], int size){ |
这样,我们才算编写完了一个优化版的冒泡排序。
当然,最后我们还需要介绍一个额外的概念:排序的稳定性,那么什么是稳定性呢?如果说大小相同的两个元素在排序之前和排序之后的先后顺序不变,这个排序算法就是稳定的。我们刚刚介绍的冒泡排序只会在前者大于后者的情况下才会进行交换,所以说不会影响到原本相等的两个元素顺序,因此冒泡排序是稳定的排序算法。
插入排序
我们来介绍一种新的排序算法,插入排序,准确地说应该叫直接插入排序,它的核心思想就像我们玩斗地主一样。
相信各位应该都玩过,每一轮游戏在开始之前,我们都要从牌堆去摸牌,那么摸到牌之后,在我们手中的牌顺序可能是乱的,这样肯定不行啊,牌都没理顺我们怎么知道哪些牌有多少呢?为了使得其有序,我们就会根据牌的顺序,将新摸过来的牌插入到对应的位置上,这样我们后面就不用再整理手里的牌了。
而插入排序实际上也是一样的原理,我们默认前面的牌都是已经排好序的(一开始就只有第一张牌是有序状态),剩余的部分我们会挨着遍历,然后将其插到前面对应的位置上去,动画演示地址:https://visualgo.net/zh/sorting
设数组长度为N,详细过程为:
- 共进行N轮排序。
- 每轮排序会从后面依次选择一个元素,与前面已经处于有序的元素,从后往前进行比较,直到遇到一个不大于当前元素的的元素,将当前元素插入到此元素的前面。
- 插入元素后,后续元素则全部后移一位。
- 当后面的所有元素全部遍历完成,全部插入到对应的位置之后,排序完成。
比如下面的数组:
此时我们默认第一个元素已经是处于有序状态,我们从第二个元素开始看:
将其取出,从后往前,与前面的有序序列依次进行比较,首先比较的是4,发现比4小,继续向前,发现已经到头了,所以说直接放到最前面即可,注意在放到最前面之前,先将后续元素后移,腾出空间:
接着插入即可:
目前前面两个元素都是有序的状态了,我们继续来看第三个元素:
依然是从后往前看,我们发现上来就遇到了7小的4,所以说直接放到这个位置:
现在前面三个元素都是有序状态了,同样的,我们继续来看第四个元素:
依次向前比较,发现到头了都没找到比1还小的元素,所以说将前面三个元素全部后移:
将1插入到对应的位置上去:
现在前四个元素都是有序的状态了,我们只需要按照同样的方式完成后续元素的遍历,最后得到的就是有序的数组了,我们来尝试编写一下代码:
1 | void insertSort(int arr[], int size){ |
当然,这个代码也是可以改进的,因为我们在寻找插入位置上逐个比较,花费了太多的时间,因为前面一部分元素已经是有序状态了,我们可以考虑使用二分搜索算法来查找对应的插入位置,这样就可以节省查找插入点的时间了:
1 | int binarySearch(int arr[], int left, int right, int target){ |
我们最后还是来讨论一下,插入排序算法的稳定性。那么没有经过优化的插入排序,实际上是不断向前寻找到一个不大于待插入元素的元素,所以说遇到相等的元素时只会插入到其后面,并没有更改相同元素原本的顺序,所以说插入排序也是稳定的排序算法(不过后面使用了二分搜索优化之后就不稳定了,比如有序数组中连续两个相等的元素,现在又来了一个相等的元素,此时中间的正好找到的是排在最前面的相等元素,返回其后一个位置,新插入的元素会将原本排在第二个的相等元素挤到后面去了)
选择排序
我们来看看最后一种选择排序(准确的说应该是直接选择排序),这种排序也比较好理解,我们每次都去后面找一个最小的放到前面即可,算法演示网站:https://visualgo.net/zh/sorting
设数组长度为N,详细过程为:
- 共进行N轮排序。
- 每轮排序会从后面的所有元素中寻找一个最小的元素出来,然后与已经排序好的下一个位置进行交换。
- 进行N轮交换之后,得到有序数组。
比如下面的数组:
第一次排序需要从整个数组中寻找一个最小的元素,并将其与第一个元素进行交换:
交换之后,第一个元素已经是有序状态了,我们继续从剩下的元素中寻找一个最小的:
此时2正好在第二个位置,假装交换一下,这样前面两个元素都已经是有序的状态了,我们接着来看剩余的:
此时发现3是最小的,所以说直接将其交换到第三个元素位置上:
这样,前三个元素都是有序的了,通过不断这样交换,最后我们得到的数组就是一个有序的了,我们来尝试编写一下代码:
1 | void selectSort(int arr[], int size){ |
当然,对于选择排序,我们也可以进行优化,因为每次都需要选一个最小的出来,我们不妨再顺手选个最大的出来,小的往左边丢,大的往右边丢,这样就能够有双倍的效率完成了。
1 | void swap(int * a, int * b){ |
最后我们来分析一下选择排序的稳定性,首先选择排序是每次选择最小的那一个,在向前插入时,会直接进行交换操作,比如原序列为 3,3,1,此时选择出1是最小的元素,与最前面的3进行交换,交换之后,原本排在第一个的3跑到最后去了,破坏了原有的顺序,所以说选择排序是不稳定的排序算法。
我们来总结一下上面所学的三种排序算法,假设需要排序的数组长度为n
:
- 冒泡排序(优化版):
- 最好情况时间复杂度:$O(n)$,如果本身就是有序的,那么我们只需要一次遍历,当标记检测到没有发生交换,直接就结束了,所以说一遍就搞定。
- 最坏情况时间复杂度:$O(n^2)$,也就是硬生生把每一轮都吃满了,比如完全倒序的数组就会这样。
- **空间复杂度:**因为只需要一个变量来暂存一下需要交换的变量,所以说空间复杂度为 $O(1)$
- **稳定性:**稳定
- 插入排序:
- 最好情况时间复杂度:$O(n)$,如果本身就是有序的,因为插入的位置也是同样的位置,当数组本身就是有序的情况下时,每一轮我们不需要变动任何其他元素。
- 最坏情况时间复杂度:$O(n^2)$,比如完全倒序的数组就会这样,每一轮都得完完整整找到最前面插入。
- 空间复杂度:同样只需一个变量来存一下抽出来的元素,所以说空间复杂度为 $O(1)$
- **稳定性:**稳定
- 选择排序:
- 最好情况时间复杂度:$O(n^2)$,即使数组本身就是有序的,每一轮还是得将剩余部分挨个找完之后才能确定最小的元素,所以说依然需要平方阶。
- 最坏情况时间复杂度:$O(n^2)$,不用多说了吧。
- 空间复杂度:每一轮只需要记录最小的元素位置即可,所以说空间复杂度为 $O(1)$
- **稳定性:**不稳定
表格如下,建议记住:
排序算法 | 最好情况 | 最坏情况 | 空间复杂度 | 稳定性 |
---|---|---|---|---|
冒泡排序 | $O(n)$ | $O(n^2)$ | $O(1)$ | 稳定 |
插入排序 | $O(n)$ | $O(n^2)$ | $O(1)$ | 稳定 |
选择排序 | $O(n^2)$ | $O(n^2)$ | $O(1)$ | 不稳定 |
进阶排序
前面我们介绍了三种基础排序算法,它们的平均情况时间复杂度都到达了 $O(n^2)$,那么能否找到更快的排序算法呢?这一部分,我们将继续介绍前面三种排序算法的进阶版本。
快速排序
在C语言程序设计篇,我们也介绍过快速排序,快速排序是冒泡排序的进阶版本,在冒泡排序中,进行元素的比较和交换是在相邻元素之间进行的,元素每次交换只能移动一个位置,所以比较次数和移动次数较多,效率相对较低。而在快速排序中,元素的比较和交换是从两端向中间进行的,较大的元素一轮就能够交换到后面的位置,而较小的元素一轮就能交换到前面的位置,元素每次移动的距离较远,所以比较次数和移动次数较少,就像它的名字一样,速度更快。
实际上快速排序每一轮的目的就是将大的丢到基准右边去,小的丢到基准左边去。
设数组长度为N,详细过程为:
- 在一开始,排序范围是整个数组
- 排序之前,我们选择整个排序范围内的第一个元素作为基准,对排序范围内的元素进行快速排序
- 先从最右边向左看,依次将每一个元素与基准元素进行比较,如果发现比基准元素小,那么就与左边遍历位置上的元素(一开始是基准元素的位置)进行交换,此时保留右边当前遍历的位置。
- 交换后,转为从左往右开始遍历元素,如果发现比基准元素大,那么就与之前保留的右边遍历的位置上的元素进行交换,同样保留左边当前的位置,循环执行上一个步骤。
- 当左右遍历撞到一起时,本轮快速排序完成,最后在最中间的位置就是基准元素的位置了。
- 以基准位置为中心,划分左右两边,以同样的方式执行快速排序。
比如下面的数组:
首先我们选择第一个元素4作为基准元素,一开始左右指针位于两端:
此时从右往左开始看,直到遇到一个比4小的元素,首先是6,肯定不是,将指针往后移动:
此时继续让3和4进行比较,发现比4小,那么此时直接将3交换(其实直接覆盖过去就行了)到左边指针所指向的元素位置:
此时我们转为从左往右看,如果遇到比4大的元素,就交换到右边指针处,3肯定不是了,因为刚刚才缓过来,接着就是2:
2也没有4大,所以说继续往后看,此时7比4要大,那么继续交换:
接着,又开始从右往左看:
此时5是比4要大的,继续向前,发现1比4要小,所以说继续交换:
接着又转为从左往右看,此时两个指针撞到一起了,排序结束,最后两个指针所指向的位置就是给基准元素的位置了:
本轮快速排序结束后,左边不一定都是有序的,但是一定比基准元素要小,右边一定比基准元素大。接着我们以基准为中心,分成两个部分再次进行快速排序:
这样,我们最后就可以使得整个数组有序了,当然快速排序还有其他的说法,有些是左右都找到了再交换,我们这里的是只要找到就丢过去。既然现在思路已经清楚了,我们就来尝试实现一下快速排序吧:
1 | void quickSort(int arr[], int start, int end){ |
这样,我们就实现了快速排序。我们还是来分析一下快速排序的稳定性,快速排序是只要遇到比基准小或者大的元素就直接交换,比如原数组就是:2,2,1,此时第一个元素作为基准,首先右边1会被丢过来,变成:1,2,1,然后从左往右,因为只有遇到比基准2更大的元素才会换,所以说最后基准会被放到最后一个位置:1,2,2,此时原本应该在前面的2就跑到后面去了,所以说快速排序算法,是一种不稳定的排序算法。
双轴快速排序(选学)
这里需要额外补充个快速排序的升级版,双轴快速排序,Java语言中的数组工具类则是采用的此排序方式对大数组进行排序的。我们来看看它相比快速排序,又做了哪些改进。首先普通的快速排序算法在遇到极端情况时可能会这样:
整个数组正好是倒序的,那么相当于上来就要把整个数组找完,然后把8放到最后一个位置,此时第一轮结束:
由于8直接跑到最右边了,那么此时没有右半部分,只有做半部分,此时左半部分继续进行快速排序:
此时1又是最小的一个元素,导致最后遍历完了,1都还是在那个位置,此时没有左半部分,只有右半部分:
此时基准是7,又是最大的,真是太倒霉了,排完之后7跑到最左边,还是没有右半部分:
我们发现,在这种极端情况下,每一轮需要完整遍历整个范围,并且每一轮都会有一个最大或是最小的元素被推向两边,这不就是冒泡排序吗?所以说,在极端情况下,快速排序会退化为冒泡排序,因此有些快速排序会随机选取基准元素。为了解决这种在极端情况下出现的问题,我们可以再添加一个基准元素,这样即使出现极端情况,除非两边都是最小元素或是最大元素,否则至少一个基准能正常进行分段,出现极端情况的概率也会减小很多:
此时第一个元素和最后一个元素都作为基准元素,将整个返回划分为三段,假设基准1小于基准2,那么第一段存放的元素全部要小于基准1,第二段存放的元素全部要不小于基准1同时不大于基准2,第三段存放的元素全部要大于基准2:
因此,在划分为三段之后,每轮双轴快排结束后需要对这三段分别继续进行双轴快速排序,最后就可以使得整个数组有序了,当然这种排序算法更适用于哪些量比较大的数组,如果量比较小的话,考虑到双轴快排要执行这么多操作,其实还不如插入排序来的快。
我们来模拟一下双轴快速排序是如何进行的:
首先取出首元素和尾元素作为两个基准,然后我们需要对其进行比较,如果基准1大于基准2,那么需要先交换两个基准,只不过这里因为4小于6,所以说不需要进行交换。
此时我们需要创建三个指针:
因为有三个区域,其中蓝色指针位置及其左边的区域都是小于基准1的,橙色指针左边到蓝色指针之间的区域都是不小于基准1且不大于基准2的,绿色指针位置及其右边的区域都是大于基准2的,橙色指针和绿色指针之间的区域,都是待排序区域。
首先我们从橙色指针所指元素开始进行判断,分三种情况:
- 如果小于基准1,那么需要先将蓝色指针向后移,把元素交换换到蓝色指针那边去,然后橙色指针也向后移动。
- 如果不小于基准1且不大于基准2,那么不需要做什么,直接把橙色指针向前移动即可,因为本身就是这个范围。
- 如果大于基准2,那么需要丢到右边去,先将右边指针左移,不断向前找到一个不比基准2大的,这样才能顺利地交换过去。
首先我们来看看,此时橙色指针指向的是2,那么2是小于基准1的,我们需要先将蓝色指针后移,然后交换橙色和蓝色指针上的元素,只不过这里由于是同一个,所以说不变,此时两个指针都后移了一位:
同样的,我们继续来看橙色指针所指元素,此时为7,大于基准2,那么此时需要在右边找到一个不大于基准2的元素:
绿色指针从右开始向左找,此时找到3,直接交换橙色指针和蓝色指针元素:
下一轮开始继续看橙色指针元素,此时发现是小于基准1的,所以说先向前移动蓝色指针,发现和橙色又在一起了,交换了跟没交换一样,此时两个指针都后移了一位:
新的一轮继续来看橙色指针所指元素,此时我们发现1也是小于基准1的,先移动蓝色指针,再交换,在移动橙色指针,跟上面一样,交换个寂寞:
此时橙色指针指向8,大于基准2,那么同样需要在右边继续找一个不大于基准2的进行交换:
此时找到5,满足条件,交换即可:
我们继续来看橙色指针,发现此时橙色指针元素不小于基准1且不大于基准2,那么根据前面的规则,只需要向前移动橙色指针即可:
此时橙色指针和绿色指针撞一起了,没有剩余待排序元素了,最后我们将两个位于两端点基准元素与对应的指针进行交换,基准1与蓝色指针交换,基准2与绿色指针进行交换:
此时分出来的三个区域,正好满足条件,当然这里运气好,直接整个数组就有序了,不过按照正常的路线,我们还得继续对这剩下的三个区域进行双轴快速排序,最后即可排序完成。
现在我们来尝试编写一下双轴快速排序的代码:
1 | void dualPivotQuickSort(int arr[], int start, int end) { |
此部分仅作为选学,不强制要求。
希尔排序
希尔排序是直接插入排序的进阶版本(希尔排序又叫缩小增量排序)插入排序虽然很好理解,但是在极端情况下会出现让所有已排序元素后移的情况(比如刚好要插入的是一个特别小的元素)为了解决这种问题,希尔排序对插入排序进行改进,它会对整个数组按照步长进行分组,优先比较距离较远的元素。
这个步长是由一个增量序列来定的,这个增量序列很关键,大量研究表明,当增量序列为 dlta[k] = 2^(t-k+1)-1(0<=k<=t<=(log2(n+1)))
时,效率很好,只不过为了简单,我们一般使用 $\frac {n} {2}$、$\frac {n} {4}$、$\frac {n} {8}$、…、1 这样的增量序列。
设数组长度为N,详细过程为:
- 首先求出最初的步长,n/2即可。
- 我们将整个数组按照步长进行分组,也就是两两一组(如果n为奇数的话,第一组会有三个元素)
- 我们分别在这些分组内进行插入排序。
- 排序完成后,我们将步长/2,重新分组,重复上述步骤,直到步长为1时,插入排序最后一遍结束。
这样的话,因为组内就已经调整好了一次顺序,小的元素尽可能排在前面,即使在最后一遍排序中出现遇到小元素要插入的情况,也不会有太多的元素需要后移。
我们以下面的数组为例:
首先数组长度为8,直接整除2,得到34,那么步长就是4了,我们按照4的步长进行分组:
其中,4、8为第一组,2、5 为第二组,7、3为第三组,1、6为第四组,我们分别在这四组内进行插入排序,组内排序之后的结果为:
可以看到目前小的元素尽可能地在往前面走,虽然还不是有序的,接着我们缩小步长,4/2=2,此时按照这个步长划分:
此时4、3、8、7为一组,2、1、5、6为一组,我们继续在这两个组内进行排序,得到:
最后我们继续将步长/2,得到2/2=1,此时步长变为1,也就相当于整个数组为一组,再次进行一次插入排序,此时我们会发现,小的元素都靠到左边来了,此时再进行插入排序会非常轻松。
我们现在就来尝试编写一下代码:
1 | void shellSort(int arr[], int size){ |
虽然这里用到了三层循环嵌套,但是实际上的时间复杂度可能比 $O(n^2)$ 还小,因为能够保证小的元素一定往左边靠,所以排序次数实际上并没有我们想象中的那么多,由于证明过程过于复杂,这里就不列出了。
那么希尔排序是不是稳定的呢?因为现在是按步长进行分组,有可能会导致原本相邻的两个相同元素,后者在自己的组内被换到前面去了,所以说希尔排序是不稳定的排序算法。
堆排序
我们来看最后一种,堆排序也是选择排序的一种,但是它能够比直接选择排序更快。还记得我们前面讲解的大顶堆和小顶堆吗?我们来回顾一下:
对于一棵完全二叉树,树中父亲结点都比孩子结点小的我们称为小根堆(小顶堆),树中父亲结点都比孩子结点大则是大根堆
得益于堆是一棵完全二叉树,我们可以很轻松地使用数组来进行表示:
我们通过构建一个堆,就可以将一个无序的数组依次输入,最后存放的序列是一个按顺序排放的序列,利用这种性质,我们可以很轻松地利用堆进行排序,我们先来写一个小顶堆:
1 | typedef int E; |
接着我们只需要将这些元素挨个插入到堆中,然后再挨个拿出来,得到的就是一个有序的顺序了:
1 | int main(){ |
最后得到的结果为:
虽然这样用起来比较简单,但是需要额外 $O(n)$ 的空间来作为堆,所以我们可以对其进行进一步的优化,减少其空间上的占用。那么怎么进行优化呢,我们不妨换个思路,直接对给定的数组进行堆的构建。
设数组长度为N,详细过程为:
- 首先将给定的数组调整为一个大顶堆
- 进行N轮选择,每次都选择大顶堆顶端的元素从数组末尾开始向前存放(交换堆顶和堆的最后一个元素)
- 交换完成后,重新对堆的根结点进行调整,使其继续满足大顶堆的性质,然后重复上述操作。
- 当N轮结束后,得到的就是从小到大排列的数组了。
我们先将给定数组变成一棵完全二叉树,以下面数组为例:
此时,这棵二叉树还并不是堆,我们的首要目标是将其变成一个大顶堆。那么怎么将这棵二叉树变成一个大顶堆呢?我们只需要从最后一个非叶子结点(从上往下的顺序)开始进行调整即可,比如此时1是最后一个非叶子结点,所以说就从1开始,我们需要进行比较,如果其孩子结点大于它,那么需要将最大的那个孩子交换上来,此时其孩子结点6大于1,所以说需要交换:
接着我们来看倒数第二个非叶子结点,也就是7,那么此时两个孩子都是小于它的,所以说不需要做任何调整,我们接着来看倒数第三个非叶子结点2,此时2的两个孩子6、8都大于2,那么我们选择两个孩子里面一个最大的交换上去:
最后就剩下根结点这一个非叶子结点了,此时我们4的左右孩子都大于4,那么依然需要进行调整:
![image-20220906221657599](/Users/nagocoler/Library/Application Support/typora-user-images/image-20220906221657599.png)
在调整之后,还没有结束,因为此时4换下去之后依然不满足大顶堆的性质,此时4的左孩子大于4,我们还需要继续向下看:
交换之后,此时整个二叉树就满足大顶堆的性质了,我们第一次初始调整也就完成了。
此时开始第二步,我们需要一个一个地将堆顶元素往后面进行交换,相当于每次都去取一个最大的出来,直到取完,首先交换堆顶元素和最后一个元素:
此时整个数组中最大的元素已经排到对应的位置上了,然后我们不再考虑最后一个元素,此时将前面的剩余元素继续看做一棵完全二叉树,对根结点重新进行一次堆化(只需要调整根结点即可,因为其他非叶子结点的没有变动),使得其继续满足大顶堆的性质:
还没完,继续调整:
此时第一轮结束,接着第二轮,重复上述操作,首先依然是将堆顶元素丢到倒数第二个位置上,相当于将倒数第二大的元素放到对应的位置上去:
此时已经有两个元素排好序了,同样的,我们继续将剩余元素看做一个完全二叉树,继续对根结点进行堆化操作,使得其继续满足大顶堆性质:
第三轮同样的思路,将最大的交换到后面去:
通过N轮排序,最后每一个元素都可以排到对应的位置上了,根据上面的思路,我们来尝试编写一下代码:
1 | //这个函数就是对start顶点位置的子树进行堆化 |
最后我们来分析一下堆排序的稳定性,实际上堆排序本身也是在进行选择,每次都会选择堆顶元素放到后面,只不过堆是一直在动态维护的。实际上从堆顶取出元素时,都会与下面的叶子进行交换,有可能会出现:
所以说堆排序是不稳定的排序算法。
最后我们还是来总结一下上面的三种排序算法的相关性质:
排序算法 | 最好情况 | 最坏情况 | 空间复杂度 | 稳定性 |
---|---|---|---|---|
快速排序 | $O(nlogn)$ | $O(n^2)$ | $O(logn)$ | 不稳定 |
希尔排序 | $O(n^{1.3})$ | $O(n^2)$ | $O(1)$ | 不稳定 |
堆排序 | $O(nlogn)$ | $O(nlogn)$ | $O(1)$ | 不稳定 |
其他排序方案
除了我们前面介绍的几种排序算法之外,还有一些其他类型的排序算法,我们都来认识一下吧。
归并排序
归并排序利用递归分治的思想,将原本的数组进行划分,然后首先对划分出来的小数组进行排序,然后最后在合并为一个有序的大数组,还是很好理解的:
我们以下面的数组为例:
在一开始我们先不急着进行排序,我们先一半一半地进行划分:
继续进行划分:
最后会变成这样的一个一个的元素:
此时我们就可以开始归并排序了,注意这里的合并并不是简简单单地合并,我们需要按照从小到大的顺序,依次对每个元素进行合并,第一组树4和2,此时我们需要从这两个数组中先选择小的排到前面去:
排序完成后,我们继续向上合并:
最后我们再将这两个数组合并到原有的规模:
最后就能得到一个有序的数组了。
实际上这种排序算法效率也很高,只不过需要牺牲一个原数组大小的空间来对这些分解后的数据进行排序,代码如下:
1 | void merge(int arr[], int tmp[], int left, int leftEnd, int right, int rightEnd){ |
因为归并排序最后也是按照小的优先进行合并,如果遇到相等的,也是优先将前面的丢回原数组,所以说排在前面的还是排在前面,因此归并排序也是稳定的排序算法。
桶排序和基数排序
在开始讲解桶排序之前,我们先来看看计数排序,它要求是数组长度为N,且数组内的元素取值范围是0 - M-1 之间(M小于等于N)
算法演示网站:https://visualgo.net/zh/sorting?slide=1
比如下面的数组,所有的元素范围是 1-6之间:
我们先对其进行一次遍历,统计每个元素的出现次数,统计完成之后,我们就能够明确在排序之后哪个位置可以存放值为多少的元素了:
我们来分析一下,首先1只有一个,那么只会占用一个位置,2也只有一个,所以说也只会占用一个位置,以此类推:
所以说我们直接根据统计的结果,把这些值挨个填进去就行了,而且还是稳定的,按顺序,有几个填几个就可以了:
是不是感觉很简单,而且只需要遍历一次进行统计就行了。
当然肯定是有缺点的:
- 当数组中最大最小值差距过大时,我们得申请更多的空间来进行计数,所以不适用于计数排序。
- 当数组中元素值不是离散的(也就是不是整数的情况下)就没办法统计了。
我们接着来看桶排序,它是计数排序的延伸,思路也比较简单,它同样要求是数组长度为N,且数组内的元素取值范围是0 - M-1 之间(M小于等于N),比如现在有1000个学生,现在需要对这些学生按照成绩进行排序,因为成绩的范围是0-100,所以说我们可以建立101个桶来分类存放。
比如下面的数组:
此数组中包含1-6的元素,所以说我们可以建立 6个桶来进行统计:
这样,我们只需要遍历一次,就可以将所有的元素分类丢到这些桶中,最后我们只需要依次遍历这些桶,然后把里面的元素拿出来依次存放回去得到的就是有序的数组了:
只不过桶排序虽然也很快,但是同样具有与上面计数排序一样的限制,我们可以将每个桶接纳一定范围内的元素,来减小桶的数量,但是这样会导致额外的时间开销。
我们最后来看看基数排序,基数排序依然是一种依靠统计来进行的排序算法,但是它不会因为范围太大而导致无限制地申请辅助空间。它的思路是,分出10个基数出来(从0 - 9)我们依然是只需要遍历一次,我们根据每一个元素的个位上的数字,进行分类,因为现在有10个基数,也就是10个桶。个位完事之后再看十位、百位…
算法演示网站:https://visualgo.net/zh/sorting
先按照个位数进行统计,然后排序,再按照十位进行统计,然后排序,最后得到的结果就是最终的结果了:
然后是十位数:
最后再次按顺序取出来:
成功得到有序数组。
最后我们来总结一下所有排序算法的相关性质:
排序算法 | 最好情况 | 最坏情况 | 空间复杂度 | 稳定性 |
---|---|---|---|---|
冒泡排序 | $O(n)$ | $O(n^2)$ | $O(1)$ | 稳定 |
插入排序 | $O(n)$ | $O(n^2)$ | $O(1)$ | 稳定 |
选择排序 | $O(n^2)$ | $O(n^2)$ | $O(1)$ | 不稳定 |
快速排序 | $O(nlogn)$ | $O(n^2)$ | $O(logn)$ | 不稳定 |
希尔排序 | $O(n^{1.3})$ | $O(n^2)$ | $O(1)$ | 不稳定 |
堆排序 | $O(nlogn)$ | $O(nlogn)$ | $O(1)$ | 不稳定 |
归并排序 | $O(nlogn)$ | $O(nlogn)$ | $O(n)$ | 稳定 |
计数排序 | $O(n + k)$ | $O(n + k)$ | $O(k)$ | 稳定 |
桶排序 | $O(n + k)$ | $O(n^2)$ | $O(k + n)$ | 稳定 |
基数排序 | $O(n \times k)$ | $O(n \times k)$ | $O(k+n)$ | 稳定 |
猴子排序
猴子排序比较佛系,因为什么时候能排完,全看运气!
无限猴子定理最早是由埃米尔·博雷尔在1909年出版的一本谈概率的书籍中提到的,此书中介绍了“打字的猴子”的概念。无限猴子定理是概率论中的柯尔莫哥洛夫的零一律的其中一个命题的例子。大概意思是,如果让一只猴子在打字机上随机地进行按键,如果一直不停的这样按下去,只要时间达到无穷时,这只猴子就几乎必然可以打出任何给定的文字,甚至是莎士比亚的全套著作也可以打出来。
假如现在有一个长度为N的数组:
我们每次都随机从数组中挑一个元素,与随机的一个元素进行交换:
只要运气足够好,那么说不定几次就可以搞定,要是运气不好,说不定等到你孙子都结婚了都还没排好。
代码如下:
1 | _Bool checkOrder(int arr[], int size){ |
可以看到在10个元素的情况下,这边第7485618次排序成功了:
但是不知道为什么每次排序出来的结果都是一样的,可能是随机数取得还不够随机吧。
排序算法 | 最好情况 | 最坏情况 | 空间复杂度 | 稳定性 |
---|---|---|---|---|
猴子排序 | $O(1)$ | ∞ | $O(1)$ | 不稳定 |