温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

java中怎么生成图片并进行套打功能

发布时间:2021-06-12 18:41:13 来源:亿速云 阅读:103 作者:Leah 栏目:编程语言

这篇文章给大家介绍java中怎么生成图片并进行套打功能,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。

具体内容如下

import java.awt.Color;
import java.awt.Font;
import java.awt.Graphics;
import java.awt.image.BufferedImage;
import java.io.File;
import java.util.Calendar;

import javax.imageio.ImageIO;

import org.junit.Test;


public class imgecreate{



@Test
  public void graphicsGeneration() { 
    try {
      int imageWidth = 3507;// 图片的宽度 
      int imageHeight = 2480;// 图片的高度 
      BufferedImage image = new BufferedImage(imageWidth, imageHeight, 
          BufferedImage.TYPE_INT_RGB); 
      Graphics graphics = image.getGraphics(); 
      graphics.setColor(Color.white); 
      graphics.fillRect(0, 0, imageWidth, imageHeight); 
      graphics.setColor(Color.black); 
      graphics.setFont(new Font("宋体", Font.PLAIN, 70)); 
      String address="山东省飞史蒂夫肯德基首付款艰苦奋斗就胜多负少的飞电风扇";
      //为控制字符串过长换行
      graphics.drawString(address.substring(0,13), 985,1416);
      graphics.drawString(address.substring(13), 985,1484);
      Calendar now = Calendar.getInstance(); 
      //证书有效期为3年,所以截止日减去1天
      now.set(Calendar.DATE, now.get(Calendar.DATE)-1);
      now.add(Calendar.YEAR, 3);//
      BufferedImage small = ImageIO.read(new File("D://t.jpg"));//生成的图片中插入另一张图片
      graphics.drawImage(small, 2524, 943, 385,385, null);
      graphics.dispose();
      createImage("D://test1.jpg", image); 
    }catch(Exception e) {
      e.printStackTrace();
    }
  } 

private static void createImage(String fileLocation, BufferedImage image) { 
  try { 
    ImageIO.write(image, "jpeg" , new File(fileLocation));
    image.flush(); 
  } catch (Exception e) { 
    e.printStackTrace(); 
  } 
} 


  public static void main(String[] args){ 


}

关于java中怎么生成图片并进行套打功能就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI