博客
关于我
数据结构 链表的各种插入
阅读量:377 次
发布时间:2019-03-05

本文共 1261 字,大约阅读时间需要 4 分钟。

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录


前言

链表的任意的位置插入时间复杂度都是O(1),没有增容问题,插入一个就开辟一个空间,这是链表相对于顺序表的优点,那么我们就来看看这个各种插入是怎样插入的。

1.中间位置插入

在这里插入图片描述

public static Node MidInsertion(Node head,Node Insert,int index){           Node cur = head;        if(index<1||index>Length(head))//插入位置越界了,位置不能是头部            return cur;        for (int i=0;i

因为输入了要插入位置的下标,那就得到个位置结束for循环,这时候cur就指向该下标的的节点了,这时候修改要插入的节点的指向就可以了,注意这里修改的循序不能打乱。

2.头部插入

public static Node HeadInsertion(Node head,Node Insert){           Node cur = head;        Insert.next=cur;        cur=Insert;        return cur;    }

头部插入这里只需要更改指向就可以了,不用在进行遍历了,使头结点的引用指向要插入的结点,插入的节点的next指向原来的头结点。

3.尾部插入

public static Node LastInsertion(Node head,Node Insert){           Node cur=head;        while(cur.next!=null){               cur=cur.next;        }        cur.next=Insert;        return head;    }

尾插入需要先走到链表的末尾,然后只要让原来指向null的最后一个节点,指向要插入的节点就可以了。

验证

public static void main(String[] args) {           Node head=GreateLink();        print(head);        Node Insert=new Node(10);        MidInsertion(head,Insert,3);        print(head);        Node Insert1=new Node(10);        head=HeadInsertion(head,Insert1);        print(head);                Node Insert2=new Node(10);        LastInsertion(head,Insert2);        print(head);    }

在这里插入图片描述

转载地址:http://tsog.baihongyu.com/

你可能感兴趣的文章
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>